码迷,mamicode.com
首页 > 其他好文 > 详细

spark配置(1)

时间:2016-06-23 15:49:13      阅读:177      评论:0      收藏:0      [点我收藏+]

标签:

Hadoop 安装好之后,开始安装 Spark。

环境:ubuntu16.04,hadoop 2.7.2

选择spark1.6.1,基于hadoop2.6的预编译版本。官网:http://spark.apache.org/downloads.html

检查:

  1. md5sum spark-1.6.1-bin-hadoop2.6.tgz

下载后,执行如下命令进行安装:

  1. sudo tar -zxf ~/下载/spark-1.6.0-bin-without-hadoop.tgz -C /usr/local/
  2. cd /usr/local
  3. sudo mv ./spark-1.6.0-bin-without-hadoop/ ./spark
  4. sudo chown -R hadoop:hadoop ./spark          # 此处的 hadoop 为你的用户名

安装后,需要在 ./conf/spark-env.sh 中修改 Spark 的 Classpath,执行如下命令拷贝一个配置文件:

  1. cd /usr/local/spark
  2. cp ./conf/spark-env.sh.template ./conf/spark-env.sh

编辑 ./conf/spark-env.sh(vim ./conf/spark-env.sh),在最后面加上如下一行:

  1. export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)


技术分享







spark配置(1)

标签:

原文地址:http://www.cnblogs.com/iathena/p/5611022.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!