码迷,mamicode.com
首页 > Windows程序 > 详细

Windows环境下在IDEA编辑器中spark开发安装步骤

时间:2018-11-07 11:41:50      阅读:184      评论:0      收藏:0      [点我收藏+]

标签:uil   park   开发环境   2.3   全局   scala   2.7   插件安装   dea   

以下是windows环境下安装spark的过程:

  1.安装JDK(version:1.8.0.152)

  2.安装scala(version:2.11/2.12)

  3.安装spark(version:spark-2.3.0-bin-hadoop2.6.tgz) 

  4.安装wintuils(设置windows系统的环境变量HADOOP_HOME)

以下是spark开发环境搭建:

  1.scala插件安装

  2.全局JDK和Library的设置

  3.配置全局的scala SDK

  4.导入spark依赖包(spark-2.3.0-bin-hadoop2.7\spark-2.3.0-bin-hadoop2.7\jars)

Windows环境下在IDEA编辑器中spark开发安装步骤

标签:uil   park   开发环境   2.3   全局   scala   2.7   插件安装   dea   

原文地址:https://www.cnblogs.com/xiaoshayu520ly/p/9920650.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!