码迷,mamicode.com
首页 > 其他好文 > 详细

IDEA15 下运行Scala遇到问题以及解决办法

时间:2016-06-25 12:20:43      阅读:412      评论:0      收藏:0      [点我收藏+]

标签:

为了让Scala运行起来还是很麻烦,为了大家方便,还是记录下来:

1、首先我下载的是IDEA的社区版本,版本号为15.

2、下载安装scala插件:

2.1 进入设置菜单。

  技术分享

2.2 点击安装JetBrains plugin

技术分享

2.3 输入scala查询插件,点击安装

技术分享

说明:我的IDEA已经安装,所以这里面没有显示出来安装按钮,否则右边有显示绿色按钮。

 

3、新建Scala工程

3.1 新建工程

通过菜单:File----》New Project 选择Scala工程。

并且设置项目基本信息,如下图:

技术分享

 

3.2 设置Modules

1)点击右上角的方块:

技术分享

 

2)在左边选择Libraries---》+---》Scala SDK--》选择版本为2.10.4 

说明:如果不存在这个版本可以通过左下角的download去下载。

技术分享

3)选择添加Java的Jar文件,选择Spark和Hadoop关联的Jar

我这里添加的是:spark-assembly-1.6.1-hadoop2.6.0.jar 这个是spark安装时候自带的lib里面有,很大。

定位到jar所在的目录后,刷新,选择这个文件,点击OK,会花费比较长时间建索引。

 

4)在Src源码目录新建文件:WordCount.scala

且输入如下代码:

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.SparkContext._

object WordCount {
  def main(args: Array[String]) {
    if (args.length < 1) {
      System.err.println("Usage:<File>")
      System.exit(1)
    }
    val conf = new SparkConf().setAppName("WordCount")
    val sc = new SparkContext(conf)
    val line = sc.textFile(args(0))

    val words = line.flatMap(_.split("")).map((_, 1))
    val reducewords = words.reduceByKey(_ + _).collect().foreach(println)

    sc.stop()
  }

}

  

 

IDEA15 下运行Scala遇到问题以及解决办法

标签:

原文地址:http://www.cnblogs.com/seaspring/p/5615976.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!