码迷,mamicode.com
首页 > 其他好文 > 详细

Hive安装与配置

时间:2014-05-16 02:36:44      阅读:369      评论:0      收藏:0      [点我收藏+]

标签:hadoop   hive   

Hive安装配置详解

  本文主要是在Hadoop单机模式中演示Hive默认(嵌入式Derby模式)安装配置过程。

1、下载安装包

到官方网站下载最新的安装包,这里以Hive-0.12.0为例:

$ tar -zxf hive-0.12.0-bin.tar.gz -C /home/ubuntu/hive-0.12.0

在这里,HIVE_HOME=” /home/ubuntu/hive-0.12.0”。

2、设置环境变量

gedit /etc/profile,添加如下内容:

export HIVE_HOME=/home/ubuntu/hive-0.12.0
export PATH=$HIVE_HOME/bin:$PATH

3、定义配置文件

在目录<HIVE_HOME>/conf目录下有4个模板文件:

hive-default.xml.template

hive-env.sh.template

hive-exec-log4j.properties.template

hive-log4j.properties.template

以它们为模板,定义对应的配置文件,其中最重要的是hive-site.xmlhive-env.sh

$ cd  /home/ubuntu/hive-0.12.0/conf
$ cp hive-default.xml.template hive-site.xml
$ cp hive-env.sh.template hive-env.sh
$ cp hive-exec-log4j.properties.template hive-exec-log4j.properties
$ cp hive-log4j.properties.template hive-log4j.properties

    本文以嵌入式Derby模式做演示,故hive-site.xml以默认配置即可无需修改相关参数。但是需要根据自己具体的安装情况来更新  hive-env.sh中的配置信息:

# Set HADOOP_HOME to point to a specific hadoop install directory
export HADOOP_HOME=/home/ubuntu/hadoop-1.2.1
# Hive Configuration Directory can be controlled by:
export HIVE_CONF_DIR=/home/ubuntu/hive-0.12.0/conf
export HIVE_HOME=/home/ubuntu/hive-0.12.0
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
# Folder containing extra ibraries required for hive compilation/execution can be controlled by:
# export HIVE_AUX_JARS_PATH=

  注意:官方0.12.0的发布版本中的hive-default.xml.template中有bug,在2000行处

  4、配置HDFS中的目录和权限

$ hadoop dfs -mkdir       /tmp
$ hadoop dfs -mkdir       /user/hive/warehouse
$ hadoop dfs -chmod g+w   /tmp
$ hadoop dfs -chmod g+w   /user/hive/warehouse

5、有关 hive.metastore.schema.verification版本检查的问题,有两个解决办法

方法一:运行前先将hive.metastore.schema.verification 设为false

......
<!-- 设为false 不做验证-->
<name>hive.metastore.schema.verification</name>
<value>false</value>
......

方法二:不改配置,先初始化好数据,执行初始化命令:schematool -dbType derby -initSchema

$ schematool -dbType derby -initSchema
Metastore connection URL:    jdbc:derby:;databaseName=metastore_db;create=true
Metastore Connection Driver :    org.apache.derby.jdbc.EmbeddedDriver
Metastore connection User:   APP
Starting metastore schema initialization to 0.12.0
Initialization script hive-schema-0.12.0.derby.sql
Initialization script completed
schemaTool completeted

   查看初始化后的信息:schematool -dbType derby -info  

$ schematool -dbType derby -info
Metastore connection URL:    jdbc:derby:;databaseName=metastore_db;create=true
Metastore Connection Driver :    org.apache.derby.jdbc.EmbeddedDriver
Metastore connection User:   APP
Hive distribution version:   0.12.0
Metastore schema version:    0.12.0
schemaTool completeted

以上方法都可行,否则第一次运行的时候会出现类似报错信息:

ERROR exec.DDLTask (DDLTask.java:execute(435)) - org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient
        at org.apache.hadoop.hive.ql.metadata.Hive.getDatabase(Hive.java:1143)

6、运行和测试

启动HADOOP的所有进程,然后在命令行方式下执行命令hive即可,然后就可以执行以下测试命令

hive> show databases;
OK
default
Time taken: 4.966 seconds, Fetched: 1 row(s)
hive> show tables;
OK
Time taken: 0.186 seconds
hive> CREATE TABLE micmiu_blog (id INT, siteurl STRING);
OK
Time taken: 0.359 seconds
hive> SHOW TABLES;
OK
micmiu_blog
Time taken: 0.023 seconds, Fetched: 1 row(s)
hive>

至此,嵌入式derby模式下的Hive安装配置已经成功。




本文出自 “windhome” 博客,请务必保留此出处http://6728496.blog.51cto.com/6718496/1412058

Hive安装与配置,布布扣,bubuko.com

Hive安装与配置

标签:hadoop   hive   

原文地址:http://6728496.blog.51cto.com/6718496/1412058

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!