标签:style java os 文件 数据 ar art size
Hostname |
IP | Hadoop版本 | Hadoop | 功能 | 系统 |
hadoop2 | 192.168.119.131 | 2.2.0 | namenode | jdk1.6+hadoop | centos5.9 |
h2slave1 | 192.168.119.132 | 2.2.0 | datanode | jdk1.6+hadoop+hive+sqoop+mysql | centos5.9 |
h2slave2 | 192.168.119.133 | 2.2.0 | datanode | jdk1.6+hadoop | centos5.9 |
新增
h2slave3 | 192.168.119.134 | 2.2.0 | datanode | jdk1.6+hadoop | centos5.9 |
1 安装lunix 和以前一样的版本
2 初始化系统环境
2.1 设置静态ip
vi /etc/sysconfig/network-scripts/ifcfg-eth0
增加
# Advanced Micro Devices [AMD] 79c970 [PCnet32 LANCE]
DEVICE=eth0
#BOOTPROTO=dhcp
# add
BOOTPROTO=static
ONBOOT=yes
# add
IPADDR=192.168.119.134
HWADDR=00:0c:29:59:df:84
重启 网络文件 service network restart
2.2 安装jdk 配置Java 环境变量
2.3 关闭防火墙
service iptables stop
chkconfig iptables off
3 配置ssh 登陆
在134机(新增节点) : cd root
mkdir .ssh (新建.ssh目录)
在131机 (master机)
cd ~/.ssh 进入目录
scp authorized_keys 192.168.119.134:/root/.ssh/authorized_keys 复制免密码登陆到134机
此次要输入密码复制,以后就可以直接免密码ssh 过去
4 修改hosts文件
在131机 vi /etc/hosts
增加
192.168.119.134 h2slave3
复制 到从机
scp /etc/hosts h2slave1:/etc/hosts
scp /etc/hosts h2slave2:/etc/hosts
scp /etc/hosts h2slave3:/etc/hosts
5 复制hadoop2.2 到新增节点
在131 机操作
scp -r /home/bigdata/hadoop2.2 h2slave3:/home/bigdata/
然后切换到134机 配置hadoop的环境变量
在131机 修改 修改 /home/bigdata/hadoop2.2/etc/hadoop/slaves 文件
新增 192.168.119.134 #(新节点)
然后复制到从机
scp /home/bigdata/hadoop2.2/etc/hadoop/slaves h2slave1:/home/bigdata/hadoop2.2/etc/hadoop/slaves ;
scp /home/bigdata/hadoop2.2/etc/hadoop/slaves h2slave2:/home/bigdata/hadoop2.2/etc/hadoop/slaves
scp /home/bigdata/hadoop2.2/etc/hadoop/slaves h2slave3:/home/bigdata/hadoop2.2/etc/hadoop/slaves
6 平衡节点 在131机的 cd /home/bigdata/hadoop2.2/sbin
sh start-balancer.sh -threshold 5
hadoop2.2 新增数据节点,布布扣,bubuko.com
标签:style java os 文件 数据 ar art size
原文地址:http://blog.csdn.net/lili72/article/details/38638599