码迷,mamicode.com
首页 > 其他好文 > 详细

【Spark-core学习之三】 Spark集群搭建

时间:2019-04-02 18:30:19      阅读:156      评论:0      收藏:0      [点我收藏+]

标签:top   image   root   tar   提交   spark   amp   https   dal   

环境
  虚拟机:VMware 10
  Linux版本:CentOS-6.5-x86_64
  客户端:Xshell4
  FTP:Xftp4
  jdk1.8
  scala-2.10.4(依赖jdk1.8)
  spark-1.6


组建方案:
master:PCS101,slave:PCS102、PCS103

搭建方式一:Standalone


步骤一:解压文件 改名

[root@PCS101 src]# tar -zxvf spark-1.6.0-bin-hadoop2.6.tgz -C /usr/local
[root@PCS101 local]# mv spark-1.6.0-bin-hadoop2.6 spark-1.6.0

 

步骤一:修改配置文件
1、slaves.template 设置从节点

[root@PCS101 conf]# cd /usr/local/spark-1.6.0/conf && mv slaves.template slaves && vi slaves

PCS102
PCS103

 

2、spark-config.sh 设置java_home

export JAVA_HOME=/usr/local/jdk1.8.0_65

 

3、spark-env.sh

[root@PCS101 conf]# mv spark-env.sh.template spark-env.sh && vi spark-env.sh

#SPARK_MASTER_IP:master的ip
export SPARK_MASTER_IP=PCS101

#SPARK_MASTER_PORT:提交任务的端口,默认是7077
export SPARK_MASTER_PORT=7077

#SPARK_WORKER_CORES:每个worker从节点能够支配的core的个数
export SPARK_WORKER_CORES=2

#SPARK_WORKER_MEMORY:每个worker从节点能够支配的内存数
export SPARK_WORKER_MEMORY=3g

#SPARK_MASTER_WEBUI_PORT:sparkwebUI端口 默认8080 或者修改spark-master.sh
export SPARK_MASTER_WEBUI_PORT=8080

 

步骤三、分发spark到另外两个节点

[root@PCS101 local]# scp -r /usr/local/spark-1.6.0 root@PCS102:`pwd`
[root@PCS101 local]# scp -r /usr/local/spark-1.6.0 root@PCS103:`pwd`

 

步骤四:启动集群

[root@PCS101 sbin]# /usr/local/spark-1.6.0/sbin/start-all.sh

 

步骤五:关闭集群

[root@PCS101 sbin]# /usr/local/spark-1.6.0/sbin/stop-all.sh

技术图片

 

搭建方式二:Yarn

 

参考:
Spark2.3 HA集群的分布式安装

Spark

【Spark-core学习之三】 Spark集群搭建

标签:top   image   root   tar   提交   spark   amp   https   dal   

原文地址:https://www.cnblogs.com/cac2020/p/10644313.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!