我们的Hadoop生产环境有两个版本,其中一个是1.0.3,为了支持日志压缩和split,我们添加了hadoop-1.2中关于Bzip2压缩的feature. 一切运行良好。
为了满足公司对迭代计算的需求(复杂HiveSQL,广告推荐算法,机器学习 etc), 我们构建了自己的Spark集群,最初是Standalone Mode,版本spark-0.9.1,支持Shark。
上线后,问题接踵而...
分类:
编程语言 时间:
2015-01-14 11:10:35
阅读次数:
403
本地开发spark代码上传spark集群服务并运行(基于spark官网文档)...
分类:
Web程序 时间:
2015-01-08 20:15:02
阅读次数:
192
1. Spark Shell测试Spark Shell是一个特别适合快速开发Spark原型程序的工具,可以帮助我们熟悉Scala语言。即使你对Scala不熟悉,仍然可以使用这一工具。Spark Shell使得用户可以和Spark集群进行交互,提交查询,这便于调试,也便于初学者使用Spark。测试案例...
分类:
其他好文 时间:
2014-12-01 12:50:02
阅读次数:
1631
和分布式文件系统和NoSQL数据库相比而言,spark集群的安装配置还算是比较简单的...
分类:
其他好文 时间:
2014-11-22 23:09:26
阅读次数:
287
从控制台可以看到我们的程序成功在集群上运行: Detail?for?stage?1: Detail?for?Stage?0: 查看一下Executors的信息: 上述信息表明程序成功在Spark集群上运行。 第四步:基于IDEA构建Spark开发环境 1,下载...
分类:
其他好文 时间:
2014-11-20 12:16:59
阅读次数:
218
从控制台可以看到我们的程序成功在集群上运行:Detailforstage1:DetailforStage0:查看一下Executors的信息:上述信息表明程序成功在Spark集群上运行。第四步:基于IDEA构建Spark开发环境1,下载IDEA13.1.4社区版本“CommunityEditionF...
分类:
其他好文 时间:
2014-11-20 11:35:36
阅读次数:
159
第三步:测试Spark集群 把Spark安装包下的”README.txt”上传到 通过hdfs的web控制台可以发现成功上传了文件: 使用“MASTER:spark://SparkMaster:7077?./spark-shell”命令启动Spark?shell: 接下来通过以下命...
分类:
其他好文 时间:
2014-11-19 14:21:03
阅读次数:
211
第三步:测试Spark集群把Spark安装包下的”README.txt”上传到通过hdfs的web控制台可以发现成功上传了文件:使用“MASTER:spark://SparkMaster:7077./spark-shell”命令启动Sparkshell:接下来通过以下命令读取刚刚上传到HDFS上的“...
分类:
其他好文 时间:
2014-11-19 14:08:57
阅读次数:
220
此时我们进入了Spark的shell世界,根据输出的提示信息,我们可以通过“http://SparkMaster:4040”?从Web的角度看一下SparkUI的情况,如下图所示: 当然,你也可以查看一些其它的信息,例如Environment: ? 同时,...
分类:
其他好文 时间:
2014-11-19 02:24:01
阅读次数:
265