标签:style 开发 int alt red shu nsf cti 很多
Mapreduce框架是把数据转为key-value,再聚合为key-values的过程。
在Spark里key-value RDD(pair RDD)同样是最常用的,在每个应用中基本都会用到。
pair RDD如何创建?不是通过sc.parallelize 创建
通常应用中是如何创建的?程序中其他RDD转的
pair RDD的元素是不是Map,而是Tuple2。
pair RDD 的Transform操作很多,是开发中最核心的部分。
Pair RDD的Transform操作函数见下方,分为对单个RDD的操作,和2个RDD之间的操作。
对单个RDD的操作函数有:
map() 、reduce() 这些和Mapreduce框架没联系。
scala> val rdd=sc.parallelize(List(1,2,3,1,3,4,4,4,5))
rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[4] at parallelize at <console>:24
scala> val pairRDD=rdd.map(i=>(i,1)).reduceByKey((x,y)=>x+y)
pairRDD: org.apache.spark.rdd.RDD[(Int, Int)] = ShuffledRDD[6] at reduceByKey at <console>:26
scala> pairRDD.collect
res10: Array[(Int, Int)] = Array((4,3), (1,2), (3,2), (5,1), (2,1))
两个RDD之间的Transform操作:
标签:style 开发 int alt red shu nsf cti 很多
原文地址:https://www.cnblogs.com/braveym/p/12202636.html