127.0.0.1 localhost 192.168.101.130 YP-X100e 192.168.101.110 ph-v370
ssh-keygen -t dsa -P ‘‘ -f ~/.ssh/id_dsa cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys拷贝文件到从节点
scp authorized_keys ph-v370:~/.ssh/刚开始我一直失败的原因是用户不一致,导致一直无法登陆ssh,后来我新建了hadoop用户,并授予hadoop文件夹的权限
useradd -m hadoop passwd hadoop chown hadoop:hadoop hadoop-2.4.0重新用hadoop的用户进行操作就可以了(包括启动hadoop服务等,最好都是用这个用户)
netstat -an | grep 9000你会看到9000端口被127.0.1.1占用,所以会出现异常
hdfs namenode -formatD:Hadoop的服务和Yarn的服务需要单独启动
start-dfs.sh start-yarn.shE:在主节点配置好所有的配置文件,直接都拷贝到从节点即可
原来直接执行 $ bin/hdfs dfs -put etc/hadoop input 现在需要执行 $ bin/hdfs dfs -put etc/hadoop /user/chenphinputG:查进程使用命令是:PS -ef | grep ‘搜索内容’,杀进程是:kill -s 9 进程号,查看防火墙是:sudo ufw status
Ubuntu14(64位) 集群环境下安装Hadoop2.4,布布扣,bubuko.com
Ubuntu14(64位) 集群环境下安装Hadoop2.4
原文地址:http://blog.csdn.net/yueritian/article/details/25804517