码迷,mamicode.com
首页 > 其他好文 > 详细

spark中使用partitioner

时间:2015-08-18 16:52:02      阅读:143      评论:0      收藏:0      [点我收藏+]

标签:

import org.apache.spark._
import SparkContext._
import org.apache.spark.SparkConf
import java.util.Date
import java.text.SimpleDateFormat
import org.apache.hadoop.io.Text
import org.apache.hadoop.mapred.TextOutputFormat
import org.apache.spark.Partitioner


object partitioner {
 
  def main(args: Array[String]): Unit = {
        val time = new SimpleDateFormat("MMddHHmm").format(new Date());
    val sparkConf =  new SparkConf().setAppName("wordcount_"+time)
    
    sparkConf.set("mapreduce.framework.name", "yarn");
    val sc =new SparkContext(sparkConf)
    
    val textFile = sc.textFile(
        "hdfs://namenode:9000/data/mapreduce/chuping/test_in_1/new5", 1).cache()
    
    val result = textFile.flatMap (line => line.split("\t") ).
    map (word => (word,1)).reduceByKey(new testPartitioner, _+_)
    
    result.saveAsTextFile("hdfs://namenode:9000/data/zk/test/partitioner"+time)
    sc.stop()
  }
}

class testPartitioner extends Partitioner{
          val numPartitions = 3   
          def getPartition(key: Any)=1   指定到第几个reduce
}

这里的程序只是一个测试的程序,使用的也是一个count而已,无法体现partitioner的实际作用,但是在实际生产中,partitioner的运用比比皆是

spark中使用partitioner

标签:

原文地址:http://my.oschina.net/u/2010330/blog/493942

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!