码迷,mamicode.com
首页 > 其他好文 > 详细

PairRDD中算子aggregateByKey图解

时间:2016-07-30 22:17:18      阅读:137      评论:0      收藏:0      [点我收藏+]

标签:

PairRDD 有几个比较麻烦的算子,常理解了后面又忘记了,自己按照自己的理解记录好,以备查阅

1、aggregateByKey

    aggregate 是聚合意思,直观理解就是按照Key进行聚合。

    转化: RDD[(K,V)] ==> RDD[(K,U)] 

     可以看出是返回值的类型不需要和原来的RDD的Value类型一致的。

     在聚合过程中提供一个中立的初始值。

    原型:

    def  aggregateByKey[U:ClassTag](zeroValue:U, partitioner:Partitioner)(seqOp:(U,V) =>U, comOp:(U,U) =>U):RDD[(K,U)]

    def  aggregateByKey[U:ClassTag](zeroValue:U, numPartitions:Int)(seqOp:(U,V) =>U, comOp:(U,U) =>U):RDD[(K,U)]

    def  aggregateByKey[U:ClassTag](zeroValue:U)(seqOp:(U,V) =>U, comOp:(U,U) =>U):RDD[(K,U)]

    1、 第一个可以自己定义分区Partitioner; 2、第二个设置了分区数,最终定义了和HashPartitioner; 3、第三个会判断当前RDD是否定义分区函数,如果定义了则用当前的分区函数,没定义,则使用HashPartitioner

       例子:

        >val data = sc.parallelize(List((1,2),(1,4),(2,3)))

        > data.aggregateByKey(3)((x,y)=>math.max(x,y) ,(z,m)=>z+m)

         >Array((1,7)(2,3))

技术分享

 

         

 

PairRDD中算子aggregateByKey图解

标签:

原文地址:http://www.cnblogs.com/seaspring/p/5721734.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!