码迷,mamicode.com
首页 > Web开发 > 详细

flume+sparkStreaming实例 实时监控文件demo

时间:2016-09-28 12:23:24      阅读:191      评论:0      收藏:0      [点我收藏+]

标签:

1,flume所在的节点不和spark同一个集群  v50和 10-15节点 flume在v50里面

flume-agent.conf

技术分享

 

spark是开的work节点,就是单点计算节点,不涉及到master发送管理 只是用到了sparkStreming的实时功能

开启的是spark-shell不是spark-submit 提交jar的形式,提交jar的形式还需要后面研究下

如下  在结算节点下

  和flume的jar包要在各个节点上的spark 都要放入:
bin/spark-shell \
--jars /hadoop/spark/spark-2.0/jars/flume-ng-sdk-1.6.0.jar
,/hadoop/spark/spark-2.0/jars/flume-avro-source-1.5.0.1.jar,
/hadoop/spark/spark-2.0/jars/spark-streaming-flume_2.11-2.0.0.jar \
--master local[2]
12端口

val stream = FlumeUtils.createStream(ssc, "10.0.10.12", 9999)
11端口的spark
import org.apache.spark._
import org.apache.spark.streaming._
import org.apache.spark.streaming.StreamingContext._
import org.apache.spark.streaming.flume._

val ssc = new StreamingContext(sc, Seconds(5))

//9999就是开启的端口 像socket一样 用端口连接

val stream = FlumeUtils.createStream(ssc, "10.0.10.12", 9999)

val wordCountStream = stream.map(x => new String(x.event.getBody.array())).flatMap(_.split(" ")).map((_, 1)).reduceByKey(_ + _)

wordCountStream.print()

ssc.start()
ssc.awaitTermination()

 

flume命令

bin/flume-ng agent --conf conf --conf-file conf/taile2stream.conf --name agent -Dflume.root.logger=INFO,console

 

flume+sparkStreaming实例 实时监控文件demo

标签:

原文地址:http://www.cnblogs.com/zhx-PRE/p/5915534.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!