码迷,mamicode.com
首页 > 其他好文 > 详细

Hadoop之——有趣问答(一)

时间:2015-05-27 01:02:32      阅读:125      评论:0      收藏:0      [点我收藏+]

标签:hadoop   mapreduce   hdfs   合并   

转载请注明出处:http://blog.csdn.net/l1028386804/article/details/46039301

问:在eclipse中的写的代码如何提交作业到JobTracker中的哪?

答:(1)在eclipse中调用的job.waitForCompletion(true)实际上执行如下方法
        connect();
        info = jobClient.submitJobInternal(conf);
    (2)在connect()方法中,实际上创建了一个JobClient对象。
       在调用该对象的构造方法时,获得了JobTracker的客户端代理对象JobSubmissionProtocol。
       JobSubmissionProtocol的实现类是JobTracker。
    (3)在jobClient.submitJobInternal(conf)方法中,调用了
        JobSubmissionProtocol.submitJob(...),
        即执行的是JobTracker.submitJob(...)。
1.Hadoop的数据类型要求必须实现Writable接口。
2.java基本类型与Hadoop常见基本类型的对照
    Long    LongWritable
    Integer    IntWritable
    Boolean    BooleanWritable
    String    Text
    问:java类型如何转化为hadoop基本类型?
    答:调用hadoop类型的构造方法,或者调用set()方法。
        new LongWritable(123L);
    问:hadoop基本类型如何转化为java类型?
    答:对于Text,需要调用toString()方法,其他类型调用get()方法。

Hadoop之——有趣问答(一)

标签:hadoop   mapreduce   hdfs   合并   

原文地址:http://blog.csdn.net/l1028386804/article/details/46039301

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!