码迷,mamicode.com
首页 > Windows程序 > 详细

windows下安装spark

时间:2019-04-20 14:28:22      阅读:182      评论:0      收藏:0      [点我收藏+]

标签:hadoop   home   htm   file   报错   3.3   图片   path   替换   

1、安装jdk

技术图片

2、安装scala

技术图片

3、下载spark

spark下载地址
技术图片

3.1安装spark

  • 将下载的文件解压到一个目录,注意目录不能有空格,比如说不能解压到C:\Program Files
  • 作者解压到了这里,
    技术图片
  • 将spark的bin路径添加到path中
    技术图片
  • cmd输入spark-shell,成功安装啦,有个报错是因为还没安装Hadoop,
    技术图片

4、安装hadoop

  • 由于spark版本为spark-2.3.3-bin-hadoop2.7,我们选择下2.8.5版本的Hadoop
    hadoop下载地址
    技术图片

  • 解压
    技术图片
  • 添加环境变量,新建一个HADOOP_HOME
    技术图片
  • 在path添加
    技术图片
  • 到此运行spark-shell还会有没安装的时候那个报错,接下来需要替代Hadoop里的bin文件来解决这个错。

    5、下载winutils

  • 下载地址
  • 笔者用的是hadoop2.8.5版本的,下载的winutils上hadoop2.8.3版本的bin,实测也是可行的。
    技术图片
  • 接下来将bin替换原来Hadoop中的bin

    6、运行spark-shell成功啦

    技术图片

windows下安装spark

标签:hadoop   home   htm   file   报错   3.3   图片   path   替换   

原文地址:https://www.cnblogs.com/twodoge/p/10740791.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!