码迷,mamicode.com
首页 > 其他好文 > 详细

spark的安装配置

时间:2019-10-17 01:33:22      阅读:103      评论:0      收藏:0      [点我收藏+]

标签:图片   tps   org   meta   jdk环境变量   htm   usr   keyword   说明   

环境说明:
        操作系统: centos7 64位 3台
        centos7-1 192.168.111.10 master
        centos7-2 192.168.111.11 slave1
        centos7-3 192.168.111.12 slave2

1.安装jdk,配置jdk环境变量

  https://www.cnblogs.com/zhangjiahao/p/8551362.html

2.安装配置scala

https://www.cnblogs.com/zhangjiahao/p/11689268.html

3.安装spark

spark下载地址:http://spark.apache.org/downloads.html
1,上传解压 tar -zxvf spark-2.0.2-bin-hadoop2
2,进入conf目录 cd /conf

      cp spark-env.sh.template spark-env.sh
      调整为如下内容
     技术图片 
     cp slaves.template slaves
     调整为如下内容
     技术图片

  3.将配置好的spark安装目录,分发到slave1/2节点上   scp -r /usr/local/src/spark-2.0.2-bin-hadoop2.6 root@slave1:/usr/local/src(slave2同理,将salve1改为slave2即可)

  4.启动Spark    ./sbin/start-all.sh

  技术图片技术图片技术图片

 

 

 

 

 

 



 

spark的安装配置

标签:图片   tps   org   meta   jdk环境变量   htm   usr   keyword   说明   

原文地址:https://www.cnblogs.com/zhangjiahao/p/11689386.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!