码迷,mamicode.com
首页 > 其他好文 > 详细

hive基本操作与应用

时间:2018-05-16 23:12:31      阅读:184      评论:0      收藏:0      [点我收藏+]

标签:文件   bubuko   article   tab   导入   put   pat   hadoop   mkdir   

通过hadoop上的hive完成WordCount

start-all.sh

  

启动hadoop

hdfs dfs -mkdir songinput
hdfs dfs -ls /user/hadoop

 

Hdfs上创建文件夹

cd ~/hadoop
ls

 

上传文件至hdfs

hdfs dfs -put ./songs.txt songinput
hdfs dfs -ls /user/hadoop/songinput

 

启动Hive

hive

 

创建原始文档表

create table docs(line string);<br>show tables;

 

导入文件内容到表docs并查看

load data inpath /user/hadoop/songinput/songs.txt overwrite into table docs;<br>select * from docs;

 

用HQL进行词频统计,结果放在表word_count里

create table word_count as select word,count(1) from (select explode(split(line, )) as word from docs) word group by word;

 

查看统计结果

select * from word_count;

技术分享图片

 

 

hive基本操作与应用

标签:文件   bubuko   article   tab   导入   put   pat   hadoop   mkdir   

原文地址:https://www.cnblogs.com/tyx123/p/9048661.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!