码迷,mamicode.com
首页 > 其他好文 > 详细

【Spark亚太研究院系列】Spark道路的真正的主人-第一章 构建Spark星团(第五步)(6)

时间:2015-09-02 00:02:42      阅读:374      评论:0      收藏:0      [点我收藏+]

标签:

结束historyserver例如,下面的命令可以看到:

技术分享

第四步:验证Hadoop分布式集群

首先在hdfs文件系统上创建两个文件夹。创建步骤例如以下所看到的:

技术分享

Hdfs中的/data/wordcount用来存放Hadoop自带的WordCount样例的数据文件,程序执行的结果输出到/output/wordcount文件夹中。透过Web控制能够发现我们成功创建了两个文件夹:

技术分享

接下来将本地文件的数据上传到HDFS目录中:

技术分享

透过Web控制能够发现我们成功上传了文件:

技术分享

也可通过hadoop的hdfs命令在控制命令终端查看信息:

技术分享

执行Hadoop自带的WordCount样例。执行例如以下命令:

技术分享

执行步骤例如以下:

技术分享

技术分享

技术分享

版权声明:本文博主原创文章,博客,未经同意不得转载。

【Spark亚太研究院系列】Spark道路的真正的主人-第一章 构建Spark星团(第五步)(6)

标签:

原文地址:http://www.cnblogs.com/yxwkf/p/4776982.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!