码迷,mamicode.com
首页 > 其他好文 > 详细

hbase on spark

时间:2016-04-14 12:03:22      阅读:132      评论:0      收藏:0      [点我收藏+]

标签:

1.在spark的伪分布式环境下安装HBASE

(1)版本:我使用的spark版本是1.3.0,使用的hbase版本是hbase-0.94.3

(2)解压,tar zxvf  hbase-0.94.3.tar.gz 到我的目录中,我的目录使用的

(3)配置环境变量 vim /etc/profile

  

1 export HBASE_HOME=/opt/data02/modules/hbase-0.94.16
2 export PATH=$PATH:$HBASE_HOME/bin

(4)hbase配置:

第一个配置的是:$HBASE_HOME/conf/hbase-env.sh,添加如下内容,最后一行添加export HBASE_MANAGES_ZK=true,表示使用HBase自带的zookeeper

1 export JAVA_HOME=/opt/data02/modules/jdk1.7.0_25
2 export HBASE_HOM=E/opt/data02/modules/hbase-0.94.16
3 export HBASE_MANAGES_ZK=true

第二个配置的是:$HBASE_HOME/conf目录中的hbase-site.xml,添加以下内容

 1 <configuration>
 2         <property>
 3                 <name>hbase.rootdir</name>
 4                 <value>hdfs://spark-master.dragon.org:54310/hbase</value>
 5         </property>
 6         <property>
 7                 <name>hbase.cluster.distributed</name>
 8                 <value>true</value>
 9         </property>
10         <property>
11                 <name>hbase.master</name>
12                 <value>spark-master.dragon.org:54311</value>
13         </property>
14         <property>
15                 <name>hbase.zookeeper.quorum</name>
16                 <value>spark-master.dragon.org</value>
17         </property>
18 
19 </configuration>

在添加的时候值得注意的是,spark-master.dragon.org是主机名,不能换成IP地址,如果换成IP地址,在启动/habse的时候,/hmaster会发现无法启动

最后别忘了,设置环境变量立即生效: source /etc/profile

(5)启动,首先需要启动hadoop,然后启动hbase,如果最后,HQuorumPeer,HMaster,HRegionServer全部启动,则安装成功

hbase on spark

标签:

原文地址:http://www.cnblogs.com/nolonely/p/5390257.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!