码迷,mamicode.com
首页 > Windows程序 > 详细

第95课:通过Spark Streaming的window操作实战模拟新浪微博、百度、京东等热点搜索词案例实战

时间:2016-05-03 00:40:34      阅读:254      评论:0      收藏:0      [点我收藏+]

标签:reducebykeyandwindow 实例


背景描述:在社交网络(例如微博)、电子商务(例如京东)、搜索引擎(例如百度)等人们核心关注的内容之一就是我所关注的内容中大家正在最关注什么或者说当前的热点是什么,这在实际企业级应用中是非常有价值的。例如我们关系过去30分钟大家正在热搜索什么,并且每5分钟更新一次,这就使得热点内容是动态更新,当然也是更有价值。


我们知道在SparkStreaming中可以设置batchInterval,让SparkStreaming每隔batchInterval时间提交一次Job,假设batchInterval设置为5秒,那如果需要对1分钟内的数据做统计,该如何实现呢?SparkStreaming中提供了window的概念。我们看下图:

技术分享

window可以包含多个batchInterval(例如5秒),但是必须为batchInterval的整数倍例如1分钟。另外window可以移动,称之为滑动时间间隔,它也是batchInterval的整数倍,例如10秒。一般情况滑动时间间隔小于window的时间长度,否则会丢失数据。


SparkStreaming提供了如下与window相关的方法:



我们可以使用reduceByKeyAndWindow操作来做具体实现热词排序

package com.dt.spark.sparkstreaming

import org.apache.spark.SparkConf
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
 * 使用Scala开发集群运行的Spark来实现在线热搜索词
 *
 * @author DT大数据梦工厂
 * 新浪微博:http://weibo.com/ilovepains/
 * 
 */
object OnlineHottestItems {
    def main(args: Array[String]){
      /**
       * 第1步:创建Spark的配置对象SparkConf,设置Spark程序的运行时的配置信息,
       * 例如说通过setMaster来设置程序要链接的Spark集群的Master的URL,如果设置
       * 为local,则代表Spark程序在本地运行,特别适合于机器配置条件非常差(例如
       * 只有1G的内存)的初学者       * 
       */
      val conf = new SparkConf() //创建SparkConf对象
      conf.setAppName("OnlineHottestItems") //设置应用程序的名称,在程序运行的监控界面可以看到名称
      conf.setMaster("spark://Master:7077") //此时,程序在Spark集群

      /**
        * 此处设置Batch Interval是在Spark Streaming中生成基本Job的时间单位,窗口和滑动时间间隔
        * 一定是该Batch Interval的整数倍
        */
      val ssc = new StreamingContext(conf, Seconds(5))
      

      val hottestStream = ssc.socketTextStream("Master", 9999)

      /**
        * 用户搜索的格式简化为item,time在这里我们由于要计算出热点内容,所以只需要提取出item即可
        * 提取出的item然后通过map转换为(item,1)格式
        */
      val searchPair = hottestStream.map(_.split(",")(0)).map(item => (item, 1))
      val hottestDStream = searchPair.reduceByKeyAndWindow((v1:Int, v2:Int) => v1 + v2, Seconds(60), Seconds(20))

      hottestDStream.transform(hottestItemRDD => {
        val top3 = hottestItemRDD.map(pair => (pair._2, pair._1)).sortByKey(false).
          map(pair => (pair._2, pair._1)).take(3)

        ssc.sparkContext.makeRDD(top3)
            }).print()
      ssc.start()
      ssc.awaitTermination()

    }
}





运行程序

root@spark-master:~# /usr/local/spark/spark-1.6.0-bin-hadoop2.6/bin/spark-submit --class com.dt.spark.streaming.OnlineHottestItems --master spark://spark-master:7077 ./spark.jar


打开netcat发送数据

root@spark-master:~# nc -lk 9999
Spark,11111
Spark,2222
hadoop,13143
scala,34343
hadoop,23232      
Spark,11111
Spark,2222
hadoop,13143
scala,34343
hadoop,23232 
java,34343


打印结果

-------------------------------------------
Time: 1462199230000 ms
-------------------------------------------
(Spark,4)
(hadoop,4)
(scala,2)


后续可以在nc中继续输入数据,观察程序打印结果的变化。


本文出自 “叮咚” 博客,请务必保留此出处http://lqding.blog.51cto.com/9123978/1769553

第95课:通过Spark Streaming的window操作实战模拟新浪微博、百度、京东等热点搜索词案例实战

标签:reducebykeyandwindow 实例

原文地址:http://lqding.blog.51cto.com/9123978/1769553

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!