标签:strong 文件 数据 问题 on c log ad r
5.查错
=================
1. 权限问题:
在启动的时候,可能会看到一系列 没有访问权限的错误。
打开hadoop-env.sh
注意以下几个被环境变量标注的文件夹的读写权限:
必须有读权限的:HADOOP_CONF_DIR
必须有写权限的:HADOOP_LOG_DIR、HADOOP_SECURE_DN_LOG_DIR、HADOOP_PID_DIR、 HADOOP_SECURE_DN_PID_DIR
HADOOP_CONF_DIR如果没有读权限,则无法读取配置文件
HADOOP_LOG_DIR、HADOOP_SECURE_DN_LOG_DIR、HADOOP_PID_DIR、 HADOOP_SECURE_DN_PID_DIR没有写权限,则无法写入日志和一些重要数据
2. 没有权限问题,但是貌似也没有启动
这种情况多数是由于配置文件没有找到导致的。
HADOOP_CONF_DIR是hadoop的配置文件存放的地方,如果你没有额外制定,则脚本中的这句话中
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-“/etc/hadoop”} 加粗的部分就是默认的配置目录,上面编辑的那几个XML必须放这个目录里,不然hadoop找不到,守护进程无法启动!
标签:strong 文件 数据 问题 on c log ad r
原文地址:http://www.cnblogs.com/ainubis/p/3990230.html