码迷,mamicode.com
首页 > 其他好文 > 详细

【2020/1/18】寒假自学——学习进度报告3

时间:2020-01-18 14:25:52      阅读:82      评论:0      收藏:0      [点我收藏+]

标签:修改   port   span   配置   park   ima   主机地址   src   master   

  紧接上一次。


  这次是对于spark安装的总结。

  首先便是下载spark。

技术图片

 

  从官网上可以找到用户提供Hadoop环境的安装包,另外值得一提的是用户也可以无需自己安装hadoop而是选择原装包括了hadoop的安装包。

技术图片

 

  放入虚拟机之后解压缩,修改权限,之后就可以开始配置了。

技术图片

 

   配置文件需要配置slaves(用于分布式配置,我只填入master的地址,所以也是伪分布吧)和spark-env.sh

  slaves文件设置Worker节点而spark-env.sh需要填入的内容为:

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop # hadoop配置目录
export SPARK_MASTER_IP=192.168.1.100 # 根据自己主机地址修改

技术图片

 

技术图片

 

   完成后启动hadoop和spark即可。

技术图片

 

   之后可以在虚拟机外部访问。

技术图片

【2020/1/18】寒假自学——学习进度报告3

标签:修改   port   span   配置   park   ima   主机地址   src   master   

原文地址:https://www.cnblogs.com/limitCM/p/12208772.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!