1、检查空间是否够用(我的就是这个原因)
df -hl 查看,如果可用的很少,那就是了。
2、datanode是否正常启动
访问:50070,查看datanode的个数,如果不对应,重新启动
3、是否在safemode下
hadoop dfsadmin -safemode get,查看,leave 离开
4、查看日志:
datanode的
如果有“Incompatible namespaceIDs in /tmp/hadoop-root/dfs/data”可知,是由于 /tmp/hadoop-root/dfs/data中的namespaceIDs不兼容导致的,
也就是说,很可能是由于上次运行其它版本的Hadoop在/tmp/hadoop-root/dfs/data目录下有残留的不兼容的数据。清理目录
5、查看job
hadoop job -list
如果有,kill掉,重新启动。
could only be replicated to 0 nodes, instead of 1,布布扣,bubuko.com
could only be replicated to 0 nodes, instead of 1
原文地址:http://www.cnblogs.com/jsunday/p/3789620.html