标签:journal family 创建 登录 boot usr sbin 移动 .sh
a、修改zoo_sample.cfg为zoo.cfg,添加参数
dataDir=/opt/hbase/zookeeper/zkdata
dataLogDir=/opt/hbase/zookeeper/zkdatalog
clientPort=2181
server.1=server8:2888:3888
server.2=server9:2888:3888
server.3=server10:2888:3888
server.4=server11:2888:3888
server.5=server12:2888:3888
b、在zookeeper目录下新建zkdata和zkdatalog目录
c、在zookeeper/zkdata/下新建myid文件,在里面写入数字(第几个服务器就写几)
export ZOOKEEPER_HOME=/opt/hbase/zookeeper
export PATH=$PATH:ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf
source /etc/profile ;
进入zookeeper/bin目录;
在每一个节点运行命令./zkServer.sh start;
在每一个节点运行./zkServer.sh status查看zookeeper信息(一个leader,其余均为follower)
a、 core-site.xml(插入内容)
b、 hdfs-site.xml(插入内容)
c、 maperd-site.xml(解压出来没有,从其他地方拷贝)
d、 slaves(写入节点信息)
e、 hadoop-env.sh(写入环境变量)
export JAVA_HOME=/usr/local/src/jdk1.7
f、 yarn-site.xml(写入内容)
g、 yarn-env.sh(配置环境变量)
export JAVA_HOME=/usr/loca/src/jdk1.7
export HADOOP_HOME=/opt/hbase/hadoop
export PATH=$PATH:HADOOP_HOME/bin
a、 分别在各节点启动journalnode服务,命令如下:
/opt/hbase/hadoop/sbin/hadoop-daemon.sh start journalnode
b、 格式化集群(会有确认,输入Y)
Server8运行:$/hadoop/bin/hdfs namenode –format、
主节点启动/sbin/start-all.sh
Server8运行:$/hadoop/bin/hdfs zkfc –formatZK
Server9运行:$/hadoop/bin/hdfs namenode –bootstrapStandby
Server9运行:$/hadoop/bin/hdfs zkfc –formatZK
c、启动:
Server8/9运行:$/hadoop/sbin/hadoop-daemon.sh start zkfc
Server8/9运行:$/hadoop/sbin/hadoop-daemon.sh start namenode
Server10/11/12运行: $/hadoop/sbin/hadoop-daemon.sh start datanode
使用jps命令查看是否有进程;
浏览器输入namenode地址:ip:50070,查看其余节点是否正常。
a、 backup-master(该文件需自己创建)
server9
b、 hbase-site.xml(插入内容)
c、 regionserver
server10
server11
server12
HBASE_HOME=/opt/hbase/hbase
export PATH=$PATH: /opt/hbase/hbase /bin
/opt/hbase/bin/start-hbase.sh
浏览器输入HMaster地址:IP:60010
标签:journal family 创建 登录 boot usr sbin 移动 .sh
原文地址:http://www.cnblogs.com/cf532088799/p/7425560.html