1.到http://www.apache.org/dyn/closer.cgi/hive/ 上下载hive0.14.0的版本2.使用cp命令拷贝到Linux主机的hadoop用户下我这里使用的hadoop用户为qhg3.使用tar -zxvf 命令进行解压,解压完后由于名字太长,使用mv进行重命名4...
分类:
其他好文 时间:
2014-12-13 17:41:23
阅读次数:
324
上一篇介绍了hadoop2.4.1的编译过程,以及hive和spark的编译,这次简单介绍hbase的编译过程。hbase0.98.8默认使用hadoop2.2.0进行编译,笔者的hadoop环境是2.4.1版本,为避免包不一致引发的各种错误,需要对hbase进行重新编译。1、生成编译使用的pom文件修改$HBASE_HOME/pom.xm..
分类:
其他好文 时间:
2014-12-11 19:24:03
阅读次数:
245
sqoop import -D oraoop.disabled=true \--connect "jdbc:oracle:thin:@(description=(address=(protocol=tcp)(host=HOSTNAME)(port=PORT))(connect_data=(servi...
分类:
数据库 时间:
2014-12-10 17:38:11
阅读次数:
270
首先查看一个sql1、首先存在一个数据表tmpCREATE TABLE tmp( platform string, channel string, chan_value string, uid string, host int, logtime string, bd_so...
分类:
其他好文 时间:
2014-12-09 22:42:02
阅读次数:
787
Hadoop,HBase,Storm,Spark到底是什么?
Hadoop=HDFS+Hive+Pig+......
分类:
其他好文 时间:
2014-12-09 17:45:22
阅读次数:
183
Hive 中敲sql语句很不方便而且数据量大了以后显示的表数据可读性非常差。后来在Eclipse marketplace 发现有hive的插件下面给出Toad for Cloud databases的安装并连通到hive的步骤点击下载按钮在这里给出了安装的URL打开Eclipse在name栏里输入该...
分类:
数据库 时间:
2014-12-09 15:16:34
阅读次数:
521
一、shell 查询hbase 查询相当简单,提供了get和scan两种方式,也不存在多表联合查询的问题。复杂查询需通过hive创建相应外部表,用sql语句自动生成mapreduce进行。但是这种简单,有时为了达到目的,也不是那么顺手。至少和sql查询方式相差较大。hbase 提供了很多过滤器,可对...
分类:
其他好文 时间:
2014-12-09 13:43:40
阅读次数:
269
使用sqoop将mysql数据导入到hadoop...
分类:
数据库 时间:
2014-12-08 21:23:02
阅读次数:
282
Hive是什么
Hive 提供了一个让大家可以使用sql去查询数据的途径。但是最好不要拿Hive进行实时的查询。因为Hive的实现原理是把sql语句转化为多个Map Reduce任务所以Hive非常慢,官方文档说Hive 适用于高延时性的场景而且很费资源。
举个简单的例子
metastore...
分类:
其他好文 时间:
2014-12-08 19:39:48
阅读次数:
368