标签:https pac 资料 工具 面向 server rac mapreduce 昨天
hadoop相关子系统:
那什么是MapReduce呢?
举例来说,统计一系列的文档中的词汇。文档数量规模很大,有1000万个文档,英文单词的总数可能只有3000。那么input M=10000000,output N=3000.于是我们搞了10000个PC做Mapper,100个PC做Reducer。
每个Mapper做1000个文档的词频统计,统计之后把凡是和同一个Word相关的统计中间结构传给同一个Reducer做汇总,这10000个MapperPC把各自处理后和词表中前30个词汇相关的中间结果都传给这个Reducer做最终的处理分析。
其实MapReduce讲的就是分而治之的程序处理概念,把一个复杂的任务划分为若干个简单的任务分别来做。另外,就是程序的调度问题,哪些任务给哪些Mapper来处理是一个着重考虑的问题,MapReduce的根本原则是信息处理的本地化,哪台PC持有相应要处理的数据,哪台PC就负责该部分的数据,这样做的意义在于可以减少网络通讯负担。
Apache Hive (昨天讲的Hive Over Hbase)基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
Apache Hive相关:
Apache Hive文档资料: | https://www.yiibai.com/hive/hive_installation.html |
标签:https pac 资料 工具 面向 server rac mapreduce 昨天
原文地址:https://www.cnblogs.com/mrray/p/10904570.html