码迷,mamicode.com
首页 > 编程语言 > 详细

java.io.IOException: All specified directories have failed to load.

时间:2020-02-26 01:13:41      阅读:90      评论:0      收藏:0      [点我收藏+]

标签:size   exception   cluster   apache   direct   启动   director   重新安装   个人   

java.io.IOException: All specified directories have failed to load.
    at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:552)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1705)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1665)
    at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:390)
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:280)
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:816)
    at java.lang.Thread.run(Thread.java:748)

  产生原因:

    时隔半年,重新安装一次Hadoop,出现了上述的问题,原因是我在启动FDFS时没有启动namenode,然后就重新进行了格式化,结果namenode启动成功了,datanode却无法启动了,原因时在进行多次格式化的之后,namenode和datanode的clusterID不同了。

 

  解决办法:找到namenode和datanode的VERSION文件,文件路径在hdfs-site.xml中配置,我的是如下路径,每个人的路径根据自己的配置有所不同

  

<property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///export/servers/hadoop-3.1.1/datas/namenode/namenodedatas</value>
    </property>
   
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///export/servers/hadoop-3.1.1/datas/datanode/datanodeDatas</value>
    </property>

  把datanode的clusterID改为namenode的clusterID,记住所有机器的datanode的clusterID都要改,然后重新启动hadoop即可。

  做大数据一定要养成看日志的习惯,大数据出错的地方实在太多了,而且不会在控制台显示错误,这个时候就要去日志里面找错误。

 

java.io.IOException: All specified directories have failed to load.

标签:size   exception   cluster   apache   direct   启动   director   重新安装   个人   

原文地址:https://www.cnblogs.com/rao11/p/12364790.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!