码迷,mamicode.com
首页 >  
搜索关键字:hadoop分布式    ( 360个结果
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(6)
结束historyserver的命令如下所示: ? 第四步:验证Hadoop分布式集群 首先在hdfs文件系统上创建两个目录,创建过程如下所示: Hdfs中的/data/wordcount用来存放Hadoop自带的WordCount例子的数据文件,程序运行的...
分类:其他好文   时间:2014-11-13 13:10:19    阅读次数:166
Hadoop-04-分布式文件系统和HDFS
分布式文件系统简介以及HDFS常见操作...
分类:其他好文   时间:2014-11-12 23:06:28    阅读次数:268
在HDInsight中从Hadoop的兼容BLOB存储查询大数据的分析
在HDInsight中从Hadoop的兼容BLOB存储查询大数据的分析 低成本的Blob存储是一个强大的,通用的Hadoop兼容Azure存储解决方案无缝集成HDInsight。通过Hadoop分布式文件系统(HDFS)接口,完整的组件集合在HDInsight可以在Blob存储数据的直接操作。在本教程中,学习如何建立一个容器的Blob存储,然后在里面处理的数据。在BLOB存储中存储的数据能够用于计算的HDInsight集群被安全地删除,而不会丢失用户数据。...
分类:其他好文   时间:2014-11-11 10:53:41    阅读次数:194
hadoop-1.2.1分布式配置启动问题
关键配置(core-site.xml 和hdfs-site.xml)(这里只是针对与HDFS,没有启动MapReduce):core-site.xml fs.default.name hdfs://qzhong:8000 hdfs-site.xml dfs.name.dir /home/...
分类:其他好文   时间:2014-11-09 23:42:43    阅读次数:180
Greenplum Hadoop视频教程_Hadoop应用案例剖析
基于Greenplum Hadoop分布式平台的大数据解决方案及商业应用案例剖析适合人群:高级课时数量:96课时用到技术:MapReduce、HDFS、Map-Reduce、Hive、Sqoop涉及项目:Greenplum Hadoop大数据分析平台联系qq:1840215592Hadoop视频教程...
分类:其他好文   时间:2014-11-05 12:15:18    阅读次数:187
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(6)
结束historyserver的命令如下所示: 第四步:验证Hadoop分布式集群 首先在hdfs文件系统上创建两个目录,创建过程如下所示: Hdfs中的/data/wordcount用来存放Hadoop自带的WordCount例子的数据文件,程序运行的结果...
分类:其他好文   时间:2014-11-03 16:38:12    阅读次数:215
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(6)
结束historyserver的命令如下所示:第四步:验证Hadoop分布式集群首先在hdfs文件系统上创建两个目录,创建过程如下所示:Hdfs中的/data/wordcount用来存放Hadoop自带的WordCount例子的数据文件,程序运行的结果输出到/output/wordcount目录中,透过Web控制可以发现我们成功创建..
分类:其他好文   时间:2014-11-03 16:35:08    阅读次数:127
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(6)
结束historyserver的命令如下所示: 第四步:验证Hadoop分布式集群 首先在hdfs文件系统上创建两个目录,创建过程如下所示: Hdfs中的/data/wordcount用来存放Hadoop自带的WordCount例子的数据文件,程序运行的结果输出到/output/wordcount目录中,透过Web控制可以发现我们成功创建了两个文件夹: ...
分类:其他好文   时间:2014-11-03 16:31:40    阅读次数:142
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(6)
结束historyserver的命令如下所示:第四步:验证Hadoop分布式集群首先在hdfs文件系统上创建两个目录,创建过程如下所示:Hdfs中的/data/wordcount用来存放Hadoop自带的WordCount例子的数据文件,程序运行的结果输出到/output/wordcount目录中,...
分类:其他好文   时间:2014-11-03 15:57:47    阅读次数:175
大数据时代之hadoop(五):hadoop 分布式计算框架(MapReduce)
hadoop的核心分为两块,一是分布式存储系统-hdfs,这个我已经在上一章节大致讲了一下,另一个就是hadoop的计算框架-mapreduce。mapreduce其实就是一个移动式的基于key-value形式的分布式计算框架。其计算分为两个阶段,map阶段和reduce阶段,都是对数据的处理,由于其入门非常简单,但是若想理解其中各个环节及实现细节还是有一定程度的困难,因此我计划在本文中只是挑几个...
分类:其他好文   时间:2014-11-03 11:33:05    阅读次数:265
360条   上一页 1 ... 30 31 32 33 34 ... 36 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!