Spark中生成的不同的RDD中有的喝用户的逻辑显式的对于,例如map操作会生成MapPartitionsRDD,而又的RDD则是Spark框架帮助我们隐式生成的,例如reduceByKey操作时候的ShuffledRDD.
分类:
其他好文 时间:
2015-12-16 12:49:23
阅读次数:
148
SparkCheckpoint通过将RDD写入Disk做检查点,是Sparklineage容错的辅助,lineage过长会造成容错成本过高,这时候在中间阶段做检查点容错,如果之后有节点出现问题而丢失分区,从做检查点的RDD开始重做Lineage,就会减少开销。Checkpoint主要适用于以下两种情况:1.DAG中的Linea..
分类:
其他好文 时间:
2015-12-16 12:48:23
阅读次数:
134