码迷,mamicode.com
首页 > 其他好文 > 详细

Anaconda中配置Pyspark的Spark开发环境

时间:2017-04-05 09:37:00      阅读:373      评论:0      收藏:0      [点我收藏+]

标签:版本   系统变量   ipython   package   好的   apach   tin   方法   sub   

1.windows下载并安装Anaconda集成环境

  https://www.continuum.io/downloads

技术分享

2.在控制台中测试ipython是否启动正常

  技术分享

3.安装JDK

3.1环境变量配置:

   技术分享

  技术分享

  技术分享

3.2测试:

技术分享技术分享

4.安装Spark并配置环境变量

  4.1 URL: http://spark.apache.org/downloads.html

    技术分享

 

     4.2解压到本地磁盘的对应目录

       技术分享

     4.3配置环境变量

      技术分享

      技术分享

5.Pyspark配置

     5.1配置如下系统变量

    技术分享

    技术分享

   5.2修改spark\conf下的spark-env文件(不知道是否必要)

    在文件末尾加入如下三行

    export PYSPARK_PYTHON=/E:/ProgramCJ/Anaconda2
    export PYSPARK_DRIVER_PYTHON=/E:/ProgramCJ/Anaconda2
    export PYSPARK_SUBMIT_ARGS=‘--master local[*]‘

6.测试Pyspark是否安装成功

    6.1命令行中输入pyspark测试

    技术分享

    6.2 显示如下,并新建python root

      技术分享

        6.3测试sc的spark变量是否可用

         技术分享

 注意:下载Spark请选择已经编译好的版本,如果选择源码版本,请使用maven或sbt进行编译即可,方法为进入Spark安装目录,使用> sbt package   进行编译

 

Anaconda中配置Pyspark的Spark开发环境

标签:版本   系统变量   ipython   package   好的   apach   tin   方法   sub   

原文地址:http://www.cnblogs.com/jackchen-Net/p/6667205.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!