码迷,mamicode.com
首页 > Windows程序 > 详细

Win10下搭建spark

时间:2018-07-09 23:15:46      阅读:388      评论:0      收藏:0      [点我收藏+]

标签:解压   apach   环境变量path   util   2.0   启动   apache   tools.jar   png   

在win10下搭建spark,需要安装java的jdk,scala,spark,hadoop。

 

一、安装配置jdk

下载 jdk版本:jdk-8u151-windows-x64.exe

增加2个环境变量:

JAVA_HOME   E:\Java\jdk1.8.0_151   (注意,这里把jdk安装的目录,不是C盘的默认目录,路径中不能有空格

CLASSPATH   %JAVA_HOME%\lib;%JAVA_HOME%\lib\tools.jar

 

在系统环境变量Path中  ,在原来基础上加:%JAVA_HOME%\bin

 

二、安装配置scala

 访问官方地址http://www.scala-lang.org/download/2.11.8.html

下载:scala-2.11.8.msi

在系统环境变量 Path 中,增加:C:\Program Files (x86)\scala\bin

 

三、安装配置spark

 1、下载spark

访问官方地址http://spark.apache.org/downloads.html

下载文件:spark-2.2.0-bin-hadoop2.7.tgz

 技术分享图片

2、解压tgz文件

我把文件解压到目录:D:\spark-2.2.0-bin-hadoop2.7

在这个目录下,有 bin等文件夹。

3、配置

添加系统环境变量:

SPARK_HOME   D:\spark-2.2.0-bin-hadoop2.7

在系统环境变量Path增加:%SPARK_HOME%\bin

  

四、安装配置hadoop

 1、下载hadoop

访问官方http://hadoop.apache.org/releases.html

可以下载 2.7.6版的binary文件

技术分享图片

但是,我在安装的时候,直接百度,找了 hadoop2.7.1的压缩文件。

在bin目录中,包含了:hadoop.dll  ,  winutils.exe ,这2个文件就够用了。

然后解压为:D:\hadoop2.7.1

 

2、配置

增加系统环境变量:

HADOOP_HOME    D:\hadoop2.7.1

在系统环境变量Path增加:%HADOOP_HOME%\bin

 

3、下载winutils

下载路径:https://github.com/steveloughran/winutils

 

五、配置pyspark

在搭建spark环境之前,安装了Anaconda,包含了python,为了使用pyspark:

1、把 D:\spark-2.2.0-bin-hadoop2.7\python 复制到 E:\Anaconda3\Lib\site-packages 路径下。

2、通过pip install py4j 安装 py4j。

3、修改权限 winutils.exe chmod 777 D:\tmp\Hive,在运行命令前先创建目录 D:\tmp\Hive 。

4、配置

增加系统环境变量: PYTHONPATH %SPARK_HOME%\python\lib\py4j;%SPARK_HOME%\python\lib\pyspark;E:\Anaconda3;

在系统环境变量Path,增加:E:\Anaconda3

 

六、验证

启动cmd,输入 : pyspark

技术分享图片

 

 或者输入:spark-shell

技术分享图片

 

Win10下搭建spark

标签:解压   apach   环境变量path   util   2.0   启动   apache   tools.jar   png   

原文地址:https://www.cnblogs.com/momogua/p/9285930.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!