码迷,mamicode.com
首页 > 其他好文 > 详细

关于hive

时间:2014-11-26 01:17:25      阅读:210      评论:0      收藏:0      [点我收藏+]

标签:io   ar   使用   sp   数据   on   art   问题   bs   

这两天在研究了hbase,hadoop,hive,spark

由于spark.py不支持clust(jar才支持,但是太麻烦了>_<)

所以最终决定使用hive

在hive中用create external table后可以一同指定partition和location,这样就可以直接在hadoop的原始数据里进行查询了,

查询会自动转换成map reduce,

用msck可以修复之前partition有问题的地方

 

关于hive

标签:io   ar   使用   sp   数据   on   art   问题   bs   

原文地址:http://www.cnblogs.com/TLightSky/p/4122230.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!