码迷,mamicode.com
首页 > 其他好文 > 详细

分布式配置 Spark 2.0版本 2.1版本 1.6版本

时间:2019-03-25 14:36:06      阅读:209      评论:0      收藏:0      [点我收藏+]

标签:执行   $path   family   tle   hadoop集群   ret   mil   默认   span   

apache的各个软件各个版本下载:  http://archive.apache.org/dist/  

1.下载spark.

  sudo tar -zxf ~/下载/spark-2.0.2-bin-without-hadoop.tgz -C /usr/local/

  cd /usr/local

  sudo mv ./spark-2.0.2-bin-without-hadoop/ ./spark

  sudo chown -R ubuntu ./spark

2.在Mster节点主机的终端中执行如下命令:

  vim ~/.bashrc

  在.bashrc添加如下配置:

    export SPARK_HOME=/usr/local/spark
    export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
  执行如下命令使得配置立即生效:

    source ~/.bashrc

3.在Master节点主机上进行如下操作:

  配置slaves文件
    将 slaves.template 拷贝到 slaves

    1. cd /usr/local/spark/
    2. cp ./conf/slaves.template ./conf/slaves

    slaves文件设置Worker节点。编辑slaves内容,把默认内容localhost替换成如下内容:

    slave01    

  配置spark-env.sh文件

    将 spark-env.sh.template 拷贝到 spark-env.sh

      cp ./conf/spark-env.sh.template ./conf/spark-env.sh

  编辑spark-env.sh,添加如下内容:

    export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)     

    export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop     

    export SPARK_MASTER_IP=192.168.1.104

      SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;

 

  配置好后,将Master主机上的/usr/local/spark文件夹复制到各个节点上。在Master主机上执行如下命令:

    1. cd /usr/local/
    2. tar -zcf ~/spark.master.tar.gz ./spark
    3. cd ~
    4. scp ./spark.master.tar.gz slave01:/home/hadoop
    5. scp ./spark.master.tar.gz slave02:/home/hadoop

  在slave01,slave02节点上分别执行下面同样的操作:

    1. sudo rm -rf /usr/local/spark/
    2. sudo tar -zxf ~/spark.master.tar.gz -C /usr/local
    3. sudo chown -R hadoop /usr/local/spark

 

4.启动hadoop集群,在master节点上运行。

  1. cd /usr/local/hadoop/
  2. sbin/start-all.sh

5.启动spark集群,在master节点上运行。

  cd /usr/local/spark/

  sbin/start-master.sh

  在Master节点上运行jps命令,可以看到多了个Master进程:

    15093 Jps

    14343 SecondaryNameNode

    14121 NameNode

    14891 Master 

    14509 ResourceManager

  启动所有Slave节点,在Master节点主机上运行如下命令:

     sbin/start-slaves.sh

  分别在slave01、slave02节点上运行jps命令,可以看到多了个Worker进程
    37553 DataNode
    37684 NodeManager
    37876 Worker
    37924 Jps

   http://172.19.57.221:8080/   spark web网页。

 

6.关闭spark集群

  关闭Master节点

    sbin/stop-master.sh

 

  关闭Worker节点

    sbin/stop-slaves.sh

 

关闭Hadoop集群

  1. cd /usr/local/hadoop/

 

  1. sbin/stop-all.sh

 

 

分布式配置 Spark 2.0版本 2.1版本 1.6版本

标签:执行   $path   family   tle   hadoop集群   ret   mil   默认   span   

原文地址:https://www.cnblogs.com/dhName/p/10593394.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!