这里介绍一下hadoop的组成,
hadoop主要由两部分组成,,一个是hdfs,还有一个是mapreduce这两个部分在hadoop
2.2.0中分别用start-dfs.sh和start-yarn.sh启动。mapreduce 在2.0版本号中有了一个新名字yarn.dfs 主要用来启动
nam...
分类:
其他好文 时间:
2014-06-06 19:27:24
阅读次数:
322
目前发现mapreduce的用法有两种:一:计数以及实现聚合函数统计数据二:对数据进行分组简化或者构造自己想要的格式三:根据条件进行数据筛选现在普遍的用法是第一种,对于第二种用法我们会分析一些格式怎么构造。效果图mapreduce原理:参考资料:http://www.csdn.net/article...
分类:
数据库 时间:
2014-06-06 16:01:35
阅读次数:
390
相比Java的MapReduce
api,Pig为大型数据集的处理提供了更高层次的抽象,与MapReduce相比,Pig提供了更丰富的数据结构,一般都是多值和嵌套的数据结构。Pig还提供了一套更强大的数据变换操作,包括在MapReduce中被忽视的连接Join操作。Hadoop版本:2.2.0Pig...
分类:
其他好文 时间:
2014-06-05 20:08:13
阅读次数:
373
一:课程简介:作为云计算实现规范和实施标准的Hadoop恰逢其时的应运而生,使用Hadoop用户可以在不了解分布式底层细节的情况下开发出分布式程序,从而可以使用众多廉价的计算设备的集群的威力来高速的运算和存储,而且Hadoop的运算和存储是可靠的、高效,的、可伸缩的,能够使用普通的社区服务器出来PB...
分类:
其他好文 时间:
2014-06-05 16:37:09
阅读次数:
285
前言
今天Spark终于跨出了里程碑的一步,1.0.0版本的发布标志着Spark已经进入1.0时代。1.0.0版本不仅加入了很多新特性,并且提供了更好的API支持。Spark SQL作为一个新的组件加入,支持在Spark上存储和操作结构化的数据。已有的标准库比如ML、Streaming和GraphX也得到了很大程度上的增强,对Spark和Python的接口也变得更稳定。以下是几个主要的改进点...
分类:
其他好文 时间:
2014-06-03 00:43:41
阅读次数:
269
1.vertica概念
面向数据分析的数据仓库系统解决方案
2.vertica关键特性
Ø 标准的SQL接口:可以利用已有的BI、ETL、Hadoop/MapReduce和OLTP环境
Ø 高可用:内置的冗余也提升了查询速度
Ø 自动化数据库设计:数据库自动安装、优化、管理
Ø 高级压缩:十多种压缩算法最多可节省90%的空间
Ø 大规模并行处理:运行于低成本的x86型Lin...
分类:
其他好文 时间:
2014-06-02 23:09:24
阅读次数:
483
Spark1.0.0 release于2014-05-30日正式发布,标志Spark正式进入1.X的时代。Spark1.0.0带来了各种新的特性,并提供了更好的API支持;Spark1.0.0增加了Spark SQL这一个新的重要组件,用于加载和操作Spark的结构化数据;Spark1.0.0增强了现有的标准库(ML,streaming,GraphX??),同时还增强了Java和Python语言的...
分类:
其他好文 时间:
2014-06-02 15:11:10
阅读次数:
313
hadoop yarn的重构,根本的思想是将 JobTracker 两个主要的功能分离成单独的组件,这两个功能是资源管理和任务调度 / 监控。新的资源管理器全局管理所有应用程序计算资源的分配,每一个应用的 ApplicationMaster 负责相应的调度和协调。一个应用程序无非是一个单独的传统的 MapReduce 任务或者是一个 DAG( 有向无环图 ) 任务。ResourceManager 和每一台机器的节点管理服务器能够管理用户在那台机器上的进程并能对计算进行组织。...
分类:
其他好文 时间:
2014-06-02 02:27:16
阅读次数:
332
x86台式机,window7 64位系统
wmware虚拟机(x86的台式机至少是4G内存,才能开2台虚机)
centos6.4操作系统
hadoop-2.2.0.tar.gz
jdk-6u24-linux-i586.bin
WinScp 远程文件传输工具,很好用。可以用于windows和虚拟机Linux之间文件相互拷贝。...
分类:
其他好文 时间:
2014-06-02 02:23:23
阅读次数:
315
对于不同文件中的数据,有时候有对应关系,需要进行连接(join),获得一个新的文件以便进行分析。比如有两个输入文件a.txt,b.txt,其中的数据格式分别如下
1 a
2 b
3 c
4 d
1 good
2 bad
3 ok
4 hello
需要将其连接成一个新的如下的文件:
a good
b bad
c ok
d hello
处理步骤可以分成两步:
1.map阶段,将两个输入文件...
分类:
其他好文 时间:
2014-06-01 09:05:01
阅读次数:
325