码迷,mamicode.com
首页 > 编程语言 > 详细

spark集群更换python安装环境

时间:2018-06-14 20:39:34      阅读:175      评论:0      收藏:0      [点我收藏+]

标签:spark集群   BMI   生产环境   集成   环境变量   建立   独立   需要   软链接   

由于需要用到很多第三方的包,比如numpy,pandas等,而生产环境又无法上网单个包安装太麻烦,因此考虑把之前安装的python的独立环境换成Anaconda的集成开发环境。以下是具体步骤: 1安装Anaconda3-5.0.1-Linux-x86_64.sh脚本 2给/opt/modules/anaconda3/bin/python3.6建立软链接

ln -s /opt/modules/anaconda3/bin/python /usr/bin/python3
3修改root环境变量
/root/.bashrc
/root/.bash_profile
修改hdfs用户环境变量,因为集群操作大多有hdfs用户完成。
su - hdfs
~/.bashrc
export PATH="/usr/bin:$PATH"
4修改pyspark2命令
vi /usr/bin/pyspark2
修改spark2-submit命令
vi /usr/bin/spark2-submit
修改PYSPARK_PYTHON这个变量
几个节点都要修改,之后spark更换到新的python,常用的包都有了。

spark集群更换python安装环境

标签:spark集群   BMI   生产环境   集成   环境变量   建立   独立   需要   软链接   

原文地址:http://blog.51cto.com/askjoey/2129497

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!