码迷,mamicode.com
首页 > Windows程序 > 详细

Spark API编程动手实战-06-对搜狗日志文件深入实战操作

时间:2015-01-29 14:40:30      阅读:192      评论:0      收藏:0      [点我收藏+]

标签:sogou   hdfs   textfile   map   filteredrdd   

本节中所用到的内容是来自搜狗实验室,网址为:http://www.sogou.com/labs/dl/q.html

我们使用的是迷你版本的tar.gz格式的文件,其大小为87K,下载后如下所示:

技术分享

上传到服务器后,解压并查看:

技术分享


技术分享


查看Sogou文件内容:

技术分享

该文件的格式如下所示:

访问时间 \t 用户ID \t 查询词 \t 该URL在返回结果中的排名 \ t用户点击的顺序号 \t 用户点击的URL


把解压后的文件上传到hdfs的data目录下:

技术分享


查看web控制台:

技术分享

大功告成,文件上传hdfs成功


接下来 我们使用Spark获得搜索结果排名第一同时点击结果排名也是第一的数据量,也就是第四列值为1同时第五列的值也为1的总共的记录的个数。

先读取SogouQ.mini文件:

技术分享


count操作后:

技术分享

count之后有2000条记录

首先过滤出有效的数据:

技术分享

可以发现该文件中的数据都是有效数据。

下面使用spark获得搜索结果排名第一同时点击结果排名也是第一的数据量:

技术分享

可以发现搜索结果排名第一同时点击结果排名也是第一的数据量为794条;

使用toDebugString查看一下其lineage:

技术分享

HadoopRDD->MappedRDD->MappedRDD->FilteredRDD->FilteredRDD->FilteredRDD


下面看用户ID查询次数排行榜:

技术分享

对sortedSogouQRdd进行collect操作:(不要乱collect 会出现OOM的)

技术分享

结果:

技术分享


把结果保存在hdfs上:

技术分享


hdfs命令行查询:

part-0000:

技术分享

part-00001:

技术分享


web控制台查询:

技术分享


我们通过hadoop命令把上述两个文件的内容合并起来:

技术分享


查看一下合并后的本地文件:

技术分享


使用head命令查看其具体内容:

技术分享


Spark API编程动手实战-06-对搜狗日志文件深入实战操作

标签:sogou   hdfs   textfile   map   filteredrdd   

原文地址:http://blog.csdn.net/stark_summer/article/details/43054491

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!