码迷,mamicode.com
首页 > 其他好文 > 详细

spark生态体系了解学习(三)

时间:2020-02-01 19:29:59      阅读:59      评论:0      收藏:0      [点我收藏+]

标签:文件   环境变量   tail   操作系统   没有   shu   网上   虚拟机   lin   

  今天往虚拟机上安装了Scala和spark,下面说一下安装的一些过程和遇到的一些问题。

  首先,根据网上的Hadoop3.2+Scala2.12.1+Spark2.3.3环境搭建教程:https://www.jianshu.com/p/82ad3e15545a

了解基本安装流程,由于之前已经安装好了virtualbox虚拟机,Linux操作系统,并且配置好了Java运行环境,安装好了Hadoop运行环境,所以

我直接从安装Scala开始:

  安装Scala的过程根据教程来挺顺利,并没有遇到什么错误——下载-解压-重命名-添加环境变量-source-检测是否安装成功。

整个过程一气呵成。

  安装spark的过程就没有那么顺利了,按着流程来,首先下载解压没问题,然后添加环境变量依旧没问题,

再然后重点来了,添加配置文件的时候原话是这样“cong下创建配置文件spark-env.sh 配置hadoop+jdk”,根据我的理解是cong应该是conf,

然后那个配置文件spark-env.sh是/usr/local/spark/conf里面的一个配置文件,我的./conf里面的每隔文件都有一个.template后缀,我搜了一下

看了这个文章https://blog.csdn.net/weixin_42186022/article/details/84942998,然后解决了这个问题。

spark生态体系了解学习(三)

标签:文件   环境变量   tail   操作系统   没有   shu   网上   虚拟机   lin   

原文地址:https://www.cnblogs.com/zhangzhongkun/p/12249495.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!