码迷,mamicode.com
首页 > 其他好文 > 详细

停止Hadoop集群失败

时间:2015-02-12 15:55:38      阅读:181      评论:0      收藏:0      [点我收藏+]

标签:

执行stop-dfs.sh脚本,出现以下提示:

1 Stopping namenodes on [Master]
2 Master: no namenode to stop
3 SlaveA: no datanode to stop
4 SlaveB: no datanode to stop
5 SlaveC: no datanode to stop
6 Stopping secondary namenodes [0.0.0.0]
7 0.0.0.0: no secondarynamenode to stop

原因:通过查看hadoop-daemon.sh脚本源码发现是通过Kill pid文件里面的值来停止hadoop服务,pid文件默认路径是/tmp。
查看pid文件的值发现与jps显示的进程pid不一致,导致无法Stop集群。


解决:通过修改对应的pid文件的值。可以指定${HADOOP_PID_DIR}的路径,文件名格式:hadoop-hadoop运行用户名-namenode.pid

停止Hadoop集群失败

标签:

原文地址:http://www.cnblogs.com/blackshirt/p/4288111.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!