码迷,mamicode.com
首页 > 其他好文 > 详细

如何确定Hadoop守护进程分别会在哪台机器上运行

时间:2014-07-19 20:19:01      阅读:239      评论:0      收藏:0      [点我收藏+]

标签:style   color   os   文件   数据   art   

经过一段时间的配置,Hadoop环境总算运行起来了,但是呢,为何主节点就没有跑tasktracker和datanode进程,slave节点也没有跑secondary进程,Hadoop是如何控制的呢?

 

经过看权威指南(267页)和跟群里同学讨论,还有自己测试,最终确定:

 

tasktracker和datanode这两个守护进程 —— 只会在conf/slaves文件里指定的那些节点上运行

secondarynamenode 这个守护进程 —— 只会在conf/masters文件里指定的那个节点上运行

namenode和jobtracker这两个守护进程 —— 他们只会在同一台server上运行,可以通过core-site.xml和mapred-site.xml来确定要运行的主机。并且,假如说配置文件里指定的是node1,那么必须要在node1这台server上运行start脚本。否则,tasktracker,datanode和secondarynamenode这些进程都能顺利启动,而namenode和jobtracker无法启动。

 

 

实际测试结果:

 

我的配置环境:(请对下面频繁出现的delly表示淡定和理解。。。因为我的英文名叫Delly。。。)

 

dellypc-master,dellypc-1,dellypc-2三台主机。

 

其中,masters文件里记录了dellypc-master(表示secondarynamenode在dellypc-master上运行),slaves文件里记录了dellypc-1和dellypc-2(表示datanode和tasktracker要在dellypc-1和dellypc-2上运行)。

core-site.xml文件里:hdfs://dellypc-master:9000, mapred-site.xml文件里:<value>dellypc-master:9001</value>。(表示namenode跟jobtracker都在dellypc-master上运行,分别监听9000和9001端口)

 

正常情况:

 

在dellypc-master上执行start-all.sh脚本,完全正常。

结果:

dellypc-master:namenode,jobtracker和secondarynamenode

dellypc-1:tasktracker和datanode

dellypc-2:tasktracker和datanode

 

测试1:

 

在dellypc-1上执行start-all.sh脚本,namenode和jobtracker没有启动,其他进程正常启动。

结果:

dellypc-master:secondarynamenode

dellypc-1:tasktracker和datanode

dellypc-2:tasktracker和datanode

 

 

测试2:

 

修改core-site.xml: <value>hdfs://dellypc-1:9000</value>

修改mapred-site.xml: <value>dellypc-1:9001</value>

然后,再dellypc-1上执行start-all.sh,

结果:

dellypc-master:secondarynamenode

dellypc-1:tasktracker,datanode和jobtracker

dellypc-2:tasktracker和datanode

 

奇怪的是namenode没有启动起来!按照预期,namenode应该会在dellypc-1上启动的嘛。。。为什么?

 

纠结了一会儿,大概想出来问题的关键了:因为在dellypc-1上没有格式化的hdfs文件系统,所以无法正常启动namenode。

 

也许你会跟我一样想说格式化一下试试呗,于是我就做了。。。但是格式化的时候失败了,因为我在hdfs-site.xml这个文件里设置了两个namenode元数据存储的目录,但是dellypc-1上没有其中的一个目录。于是我想就改回去吧。配置改回去,结果发现,datanode启动不了了。。。。。所以说啊,这个hdfs应该是一种分布式系统,跟所有的节点可能都会有关联。。。

 

 

最后又把dellypc-1和dellypc-2上的hadoop文件夹删掉,又重新从主节点拷贝了一份,这才恢复了正常。

 

 

这些试验,足够解决我的疑问了。希望也同样能帮到有同样疑问的同学。

如何确定Hadoop守护进程分别会在哪台机器上运行,布布扣,bubuko.com

如何确定Hadoop守护进程分别会在哪台机器上运行

标签:style   color   os   文件   数据   art   

原文地址:http://www.cnblogs.com/delly/p/3849738.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!