标签:style blog http color io os java ar strong
cdh版与0.98版的配置一样
1.环境
master:c1
slave:c2,c3
CentOS 6.5 x64 ,hadoop-2.3.0-cdh5.1.0,zookeeper-3.4.5-cdh5.1.0
下载地址:
http://archive.cloudera.com/cdh5/cdh/5/
2. 前提条件
安装好hadoop集群,zookeeper集群
3. 环境变量配置
export HBASE_HOME=/usr/local/cdh/hbase export PATH=$PATH:$HADOOP_HOME/bin:$HBASE_HOME/bin:$ZOOKEEPER_HOME/bin
在$HBASE_HOME/conf/hbase-env.sh 添加
export JAVA_HOME=/usr/local/java/jdk1.7.0_67 export HBASE_CLASSPATH=/usr/local/cdh/hadoop/etc/hadoop export HBASE_MANAGES_ZK=false
<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://c1:9000/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>c1,c2,c3</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/usr/local/cdh/zookeeper/data/</value> </property> <property> <name>hbase.master</name> <value>hdfs://c1:60000</value> </property> </configuration>
hbase.rootdir :Hbase数据存储目录(HDFS中目录)
hbase.cluster.distributed :指定Hbase是否运行在分布式模式
hbase.zookeeper.property.dataDir :Zookeeper写数据目录(与ZooKeeper集群上配置相一致)
hbase.zookeeper.quorun :指定Hbase在每个节点上开启和管理一个Zookeeper instance,即指定ZooKeeper集群位置
hbase.master :指定Hbase的master的位置
regionservers文件列出了所有运行Hbase RegionServer CHRegion Server的机器。此文件的配置和Hadoop的slaves文件十分类似,每一行指定一台机器。当Hbase的时候,会将此文件中列出的所有机器启动;同样,当Hbase关闭的时候,也会同时自动读取文件并将所有机器关闭。
c1 c2 c3
c2
scp -r hbase-0.98.4-hadoop2 c2:~/
scp -r hbase-0.98.4-hadoop2 c3:~/
9.启动及查看进程
1、启动
Hbase的启动顺序为: HDFS -> ZooKeeper -> Hbase
master节点:
在$HADOOP_HOME目录下启动Hadoop集群
sbin/start-all.sh
每个节点:
在$ZOOKEEPER_HOME目录下启动ZooKeeper集群
bin/zkServer.sh start
master节点:
在$HBASE_HOME目录下启动Hbase集群
bin/start-hbase.sh
2、命令查看
master节点
[root@c1 hbase]# jps 6382 QuorumPeerMain 5724 NameNode 5912 SecondaryNameNode 7666 Jps 6089 ResourceManager 6580 HMaster 6713 HRegionServer
[root@c2 zookeeper]# jps 5087 HRegionServer 4681 DataNode 5326 Jps 5156 HMaster 4974 QuorumPeerMain 4807 NodeManager
标签:style blog http color io os java ar strong
原文地址:http://blog.csdn.net/jameshadoop/article/details/39300139