码迷,mamicode.com
首页 > 其他好文 > 详细

Hadoop 2.2.0 热添加新节点 (含HBASE)

时间:2015-06-23 18:16:03      阅读:133      评论:0      收藏:0      [点我收藏+]

标签:hadoop   hbase   新节点   

环境:

192.168.137.101 hd1

192.168.137.102 hd2

192.168.137.103 hd3

192.168.137.104 hd4


四节点hadoop和hbase



1、hd5中修改/etc/hosts

加入

192.168.137.105hd5


2、分发其到所有hd1,hd2,hd3,hd4

scp/etc/hostshd1:/etc

scp/etc/hostshd2:/etc

scp/etc/hostshd3:/etc

scp/etc/hostshd4:/etc


3、修改hd5节点的

/home/hadoop/hadoop/etc/hadoop/slaves

加添hd5作为最后一个节点


4、hd5节点删除原来的.ssh中的共钥私钥文件,重新生成

cd~/.ssh

rmid_rsa

rmid_rsa.pub

ssh-keygen-trsa


5、将原先hd1节点中的authorized_keys文件拷贝到hd5,再加入新共钥

cat~/.ssh/id_rsa.pub>>authorized_keys


6、分发改文件到其它各节点

scp~/.ssh/authorized_keyshd1:/home/hadoop/.ssh

scp~/.ssh/authorized_keyshd2:/home/hadoop/.ssh

scp~/.ssh/authorized_keyshd3:/home/hadoop/.ssh

scp~/.ssh/authorized_keyshd4:/home/hadoop/.ssh


7、前往各个节点进行第一次(不确认也可以)到hd5ssh登录(hd5本地的也做一次回环ssh登录比较好)

hd1,ssh hd5 date

hd2,ssh hd5 date

hd3,ssh hd5 date

hd4,ssh hd5 date

hd5,ssh hd5 date


8、在hd5修改hadoop的slave文件

vim /home/hadoop/hadoop/etc/hadoop/slaves

加入hd5

分发其到其它节点

scp /home/hadoop/hadoop/etc/hadoop/slaves hd1:/home/hadoop/etc/hadoop

scp /home/hadoop/hadoop/etc/hadoop/slaves hd2:/home/hadoop/etc/hadoop

scp /home/hadoop/hadoop/etc/hadoop/slaves hd3:/home/hadoop/etc/hadoop

scp /home/hadoop/hadoop/etc/hadoop/slaves hd4:/home/hadoop/etc/hadoop


9、hd5启动yarn

start-dfs.sh

yarn-daemon.shstartdatanode

(如果是虚拟机复制的产物,请删除/home/hadoop/tmp/hoem/hadoop/hdfs中的文件,当然这两个路径还是要保留的)


10、hd5启动start-balancer.sh均衡当前hdfs

Start-balancer.sh


11、如果还有hbase在上面运行则需要部署hbasehserver

修改

vim/home/hadoop/hbase/conf/regionservers

加入hd5

vim/home/hadoop/hbase/conf/hbase-site.xml

加入


hbase.zookeeper.quorum

hd1,hd2,hd3,hd4,hd5


12、复制上面两个文件到hd1,hd2,hd3,hd4

scpregionservershd1:/home/hadoop/hbase/conf

scpregionservershd2:/home/hadoop/hbase/conf

scpregionservershd3:/home/hadoop/hbase/conf

scpregionservershd4:/home/hadoop/hbase/conf

scphbase-site.xmlhd1:/home/hadoop/hbase/conf

scphbase-site.xmlhd2:/home/hadoop/hbase/conf

scphbase-site.xmlhd3:/home/hadoop/hbase/conf

scphbase-site.xmlhd4:/home/hadoop/hbase/conf


13、hd5启动hbaseregionserver

hbase-daemon.shstartregionserver


14、hd1hd5启动hbaseshell

status命令确认一下集群情况


Hadoop 2.2.0 热添加新节点 (含HBASE)

标签:hadoop   hbase   新节点   

原文地址:http://7737197.blog.51cto.com/7727197/1664668

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!