码迷,mamicode.com
首页 > 系统相关 > 详细

在Ubuntu上安装Spark

时间:2019-07-01 20:08:21      阅读:154      评论:0      收藏:0      [点我收藏+]

标签:classpath   shel   ado   ash   span   src   下载   mic   安装   

1.下载spark2.4.3 使用用户的hadoop的版本,解压并放到/usr/local下并改名为spark目录

技术图片

2.设置spark目录为本用户所有

技术图片

3.设置环境变量

(1)#~/.bashrc

export SPARK_HOME=/usr/local/spark

source ~/.bashrc

技术图片

(2)cp /usr/local/spark/conf/spark-env.sh.template /usr/local/spark/conf/spark-env.sh

技术图片

(3)进入  /usr/local/spark/conf/spark-env.sh

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop

SPARK_LOCAL_IP="127.0.0.1"

技术图片

4.单机模式

/usr/local/spark/bin/spark-shell

技术图片

5.增加内容到最外层标签内,文件是/usr/local/hadoop/etc/hadoop/yarn-site.xml

技术图片

执行(yarn模式)

/usr/local/spark/bin/spark-shell --master yarn --deploy-mode client

技术图片

 

在Ubuntu上安装Spark

标签:classpath   shel   ado   ash   span   src   下载   mic   安装   

原文地址:https://www.cnblogs.com/wxd-ld/p/11116147.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!