码迷,mamicode.com
首页 > 其他好文 > 详细

SPARK之分区器

时间:2019-09-04 09:42:28      阅读:73      评论:0      收藏:0      [点我收藏+]

标签:rdd   自定义   and   ash   focus   nump   art   过程   red   

Spark目前支持Hash分区和Range分区,用户也可以自定义分区,Hash分区为当前的默认分区,Spark中分区器直接决定了RDD中分区的个数、RDD中每条数据经过Shuffle过程属于哪个分区和Reduce的个数

  • 只有Key-Value类型的RDD才有分区器的,非Key-Value类型的RDD分区器的值是None

  • 每个RDD的分区ID范围:0~numPartitions-1,决定这个值是属于那个分区的

SPARK之分区器

标签:rdd   自定义   and   ash   focus   nump   art   过程   red   

原文地址:https://www.cnblogs.com/xiangyuguan/p/11456801.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!