码迷,mamicode.com
首页 > 其他好文 > 详细

hadoop集群中namenode没有启动

时间:2019-09-16 11:55:30      阅读:95      评论:0      收藏:0      [点我收藏+]

标签:传输文件   http   完成   ps命令   tar   文件的   com   log   打开   

最近,我在学习搭建hadoop集群,可是搭建完成后当使用start-all.sh启动hadoop的时候,会发现用jps测试的时候一切均显示正常,但通过Hadoop指令向hdfs上传输文件的时候,会报错表示datanode没有正常启动,

技术图片

在网上找了一些博客讲述是可能防火墙没关,还有就是删除hadoop目录下的tmp文件夹和logs文件夹,可是都不凑效,我经过反复查询发现是因为datanode的clusterID不匹配!

打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开dfs目录下data和name文件下的current文件夹里的VERSION,可以看到clusterID正如日志里记录的一样,确实不一致。

修改datanode里VERSION文件的clusterID与namenode里的一致,再重新启动dfs(执行start-all.sh)再执行jps命令可以看到datanode已正常启动。

技术图片

技术图片

hadoop集群中namenode没有启动

标签:传输文件   http   完成   ps命令   tar   文件的   com   log   打开   

原文地址:https://www.cnblogs.com/shenzhenhuaya/p/sdfsdsd.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!