标签:
开篇语:
这几天开始学习Hadoop,花费了整整一天终于把伪分布式给搭好了,激动之情无法言表······
搭好环境之后,按着书本的代码,实现了这个被誉为Hadoop中的HelloWorld的程序--WordCount,以此开启学习Hadoop的篇章。
本篇旨在总结WordCount程序的基本结构和工作原理,有关环境的搭建这块,网上有很多的教程,大家可以自行找谷歌或百度。
何为MapReduce:
在开始看WordCount的代码之前,先简要了解下什么是MapReduce。HDFS和MapReduce是Hadoop的两个重要核心,其中MR是Hadoop的分布式计算模型。MapReduce主要分为两步Map步和Reduce步,引用网上流传很广的一个故事来解释,现在你要统计一个图书馆里面有多少本书,为了完成这个任务,你可以指派小明去统计书架1,指派小红去统计书架2,这个指派的过程就是Map步,最后,每个人统计完属于自己负责的书架后,再对每个人的结果进行累加统计,这个过程就是Reduce步。
WordCount程序:
程序的功能:假设现在有n个文本,WordCount程序就是利用MR计算模型来统计这n个文本中每个单词出现的总次数。
图一
现在有两个文件:
假设我们现在要统计这两个文件每种单词出现的次数,首先我们要对每个文本进行处理,即把其中的句子划分成词语,按照上面讲到的统计图书的故事,我们会将这两个文件分派给两个人,让这两个人各自去处理,待这两个人都处理完成之后,再对结果进行汇总统计,在图中充当这两个人角色的就是Map1和Map2,Map步的输入为<key,value>对,输出也为<key,value>对,实现Map步的代码如下:
1 // 继承Mapper类,Mapper类的四个泛型参数分别为:输入key类型,输入value类型,输出key类型,输出value类型 2 public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> { 3 4 private final static IntWritable one = new IntWritable(1); //输出的value的类型,可以理解为int 5 private Text word = new Text(); //输出的key的类型,可以理解为String 6 7 @Override 8 public void map(LongWritable key, Text value, Context context) 9 throws IOException, InterruptedException { 10 11 String line = value.toString(); //每行句子 12 StringTokenizer tokenizer = new StringTokenizer(line); 13 14 while (tokenizer.hasMoreTokens()) { 15 word.set(tokenizer.nextToken()); 16 context.write(word, one); //输出 17 } 18 19 } 20 }
现在来分析和解读一下代码中的Map步:
图二
WordCount程序中的Map步的输出结果为<单词,1>对,在这里有一个合并处理步骤,将拥有相同key值的键值对进行合并,形成一个<key,valuelist>,这个<key,valuelist>的键值对集合,作为Reduce步的输入。现在来看一下实现Reduce步的代码:
1 // Reduce类,继承了Reducer类 2 public static class Reduce extends 3 Reducer<Text, IntWritable, Text, IntWritable> { 4 5 @Override 6 //在这里,reduce步的输入相当于<单词,valuelist>,如<Hello,<1,1>> 7 public void reduce(Text key, Iterable<IntWritable> values, 8 Context context) throws IOException, InterruptedException { 9 int sum = 0; 10 for (IntWritable val : values) { 11 sum += val.get(); 12 } 13 context.write(key, new IntWritable(sum)); 14 } 15 }
现在来分析和解读一下代码中的Reduce步:
图三
最后再来看一下主函数吧,在Hadoop中,每个MapReduce任务被当做一个Job(作业),在执行任务之前,首先要对任务进行一些配置,代码如下:
1 Job job = new Job(); // 创建一个作业对象 2 job.setJarByClass(WordCount.class); // 设置运行/处理该作业的类 3 job.setJobName("WordCount"); 4 5 FileInputFormat.addInputPath(job, new Path(args[0]));//设置这个作业输入数据的路径 6 FileOutputFormat.setOutputPath(job, new Path(args[1]));//设置这个作业输出结果的路径 7 8 job.setMapperClass(Map.class);//设置实现了Map步的类 9 job.setReducerClass(Reduce.class);//设置实现了Reduce步的类 10 11 job.setOutputKeyClass(Text.class);//设置输出结果key的类型 12 job.setOutputValueClass(IntWritable.class);//设置输出结果value的类型 13 14 System.exit(job.waitForCompletion(true) ? 0 : 1);//执行作业
来看一下Job设置了哪些东西:
倒回看图一,会发现还有一个如图四的东西:
图四
那么图四中的这个TextInputFormat又是干吗的呢?
TextInputFormat是Hadoop默认的输入方法,在TextInputFormat中,每个文件(或其一部分)都会单独作为Map的输入,之后,每一行数据都会产生一个<key,value>形式:其中key值是每个数据的记录在数据分片中的字节偏移量,而value值是每行的内容。所以,图5中画红圈的两个数据应该是有误的(在上面只是为了方便表示),正确的值应该是第二行第一个字符的偏移量才对。
图五
学习资料:
陆嘉恒,《Hadoop实战》,机械工业出版社。
最后附上完整源代码:
1 import java.io.IOException; 2 import java.util.StringTokenizer; 3 4 import org.apache.hadoop.conf.Configuration; 5 import org.apache.hadoop.fs.Path; 6 import org.apache.hadoop.io.IntWritable; 7 import org.apache.hadoop.io.LongWritable; 8 import org.apache.hadoop.io.Text; 9 import org.apache.hadoop.mapreduce.Job; 10 import org.apache.hadoop.mapreduce.Mapper; 11 import org.apache.hadoop.mapreduce.Reducer; 12 import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; 13 import org.apache.hadoop.mapreduce.lib.input.TextInputFormat; 14 import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; 15 import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat; 16 import org.apache.hadoop.util.GenericOptionsParser; 17 import org.apache.hadoop.mapreduce.Reducer.Context; 18 19 public class WordCount { 20 21 // 继承Mapper类,Mapper类的四个泛型参数分别为:输入key类型,输入value类型,输出key类型,输出value类型 22 public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> { 23 24 private final static IntWritable one = new IntWritable(1); // output value 25 private Text word = new Text(); // output key 26 27 @Override 28 public void map(LongWritable key, Text value, Context context) 29 throws IOException, InterruptedException { 30 31 String line = value.toString(); 32 StringTokenizer tokenizer = new StringTokenizer(line); 33 34 while (tokenizer.hasMoreTokens()) { 35 word.set(tokenizer.nextToken()); 36 context.write(word, one); 37 } 38 39 } 40 } 41 42 // Reduce类,继承了Reducer类 43 public static class Reduce extends 44 Reducer<Text, IntWritable, Text, IntWritable> { 45 46 @Override 47 public void reduce(Text key, Iterable<IntWritable> values, 48 Context context) throws IOException, InterruptedException { 49 int sum = 0; 50 for (IntWritable val : values) { 51 sum += val.get(); 52 } 53 context.write(key, new IntWritable(sum)); 54 } 55 } 56 57 public static void main(String[] args) throws Exception { 58 59 if (args.length != 2) { 60 System.err 61 .println("Usage: MaxTemperature <input path> <output path>"); 62 System.exit(-1); 63 } 64 65 Job job = new Job(); // 创建一个作业对象 66 job.setJarByClass(WordCount.class); // 设置运行/处理该作业的类 67 job.setJobName("WordCount"); 68 69 FileInputFormat.addInputPath(job, new Path(args[0])); 70 FileOutputFormat.setOutputPath(job, new Path(args[1])); 71 72 job.setMapperClass(Map.class); 73 job.setReducerClass(Reduce.class); 74 75 job.setOutputKeyClass(Text.class); 76 job.setOutputValueClass(IntWritable.class); 77 78 System.exit(job.waitForCompletion(true) ? 0 : 1); 79 80 } 81 82 }
Hadoop学习笔记(1):WordCount程序的实现与总结
标签:
原文地址:http://www.cnblogs.com/pengyingzhi/p/5361008.html