码迷,mamicode.com
首页 > 其他好文 > 详细

Spark安装

时间:2014-07-16 19:28:29      阅读:180      评论:0      收藏:0      [点我收藏+]

标签:style   blog   http   color   os   io   

记录安装Spark环境的过程。

前提是Hadoop集群已经安装,详见:Hadoop 2.X 集群安装

环境:Centos 6.4 X64 & Hadoop 2.2(三节点集群) & Spark 1.0

1、获取Spark源码,可以去官网下载,解压。

2、编译源码。

1)先安装Maven。

2)进入源码目录,执行:

export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"
mvn -Pyarn -Dhadoop.version=2.2.0 -Dyarn.version=2.2.0 -DskipTests clean package

3、生成部署包。

如果生成spark支持yarn、hadoop2.2.0的部署包,执行:

./make-distribution.sh --hadoop 2.2.0 --with-yarn --tgz

4、部署

1)修改conf/slaves,添加节点名称,类似Hadoop配置。

2)修改conf/ spark-env.sh。

export SPARK_MASTER_IP=hadoop1
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=3g

3)拷贝到各个节点

 

 

 

 

Spark安装,布布扣,bubuko.com

Spark安装

标签:style   blog   http   color   os   io   

原文地址:http://www.cnblogs.com/guarder/p/3841275.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!