码迷,mamicode.com
首页 > 其他好文 > 详细

启动Hadoop时,DataNode启动后一会儿自动消失的解决方法

时间:2016-08-05 11:29:10      阅读:142      评论:0      收藏:0      [点我收藏+]

标签:

查看slaver1/2的logs,发现

FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000
java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/hdfs/data: namenode clusterID =

CID-af6f15aa-efdd-479b-bf55-77270058e4f7

; datanode clusterID =

CID-736d1968-8fd1-4bc4-afef-5c72354c39ce

 

从日志中可以看出,原因是因为datanode的clusterID 和 namenode的clusterID 不匹配

 (在slaver端上修改)

打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs.sh)再执行jps命令可以看到datanode已正常启动。

 Hadoop配置完成!

出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

===================4.13更新=================

解决主机节点 txid不一致问题

把主机下namenode(name文件夹)下的current文件删除或者移走,重新格式化

然后再改slaver1/2的 clusterID

启动Hadoop时,DataNode启动后一会儿自动消失的解决方法

标签:

原文地址:http://www.cnblogs.com/sasan/p/5740367.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!