码迷,mamicode.com
首页 > 其他好文 > 详细

Spark - 单节点安装与运行

时间:2015-04-14 09:51:10      阅读:751      评论:0      收藏:0      [点我收藏+]

标签:

Hadoop集群搭建好之后,解压Spark文件即可

Spark安装包

http://yunpan.cn/csPh8cf2n5WrT 提取码 1085

Spark命令-统计README.md文件行数,以及寻找所含关键字,以及文件第一行的相关命令

val lines = sc.textFile("README.md")

?

lines.count()

?

lines.first()

?

val pythonLines = lines.filter(line => line.contains("Python"))

?

scala> lines.first()

res0: String = ## Interactive Python Shel

Spark命令-对数组进行加法

1. 运行./spark-shell.sh

?

2. scala> val data = Array(1, 2, 3, 4, 5) //产生data

?

data: Array[Int] = Array(1, 2, 3, 4, 5)

?

3. scala> val distData = sc.parallelize(data) //data处理成RDD

?

distData: spark.RDD[Int] = spark.ParallelCollection@7a0ec850 (显示出的类型为RDD

?

4. scala> distData.reduce(_+_) //RDD上进行运算,对data里面元素进行加和

?

12/05/10 09:36:20 INFO spark.SparkContext: Starting job...

?

5. 最后运行得到

?

12/05/10 09:36:20 INFO spark.SparkContext: Job finished in 0.076729174 s

?

res2: Int = 15

Spark命令-wordcount

val lines = sc.textFile("README.md")

val count=lines.flatMap(line => line.split(" ")).map(word => (word,1)).reduceByKey(_+_)

count.collect()

Spark命令-运行计算pi的程序

/run-example org.apache.spark.examples.SparkPi

Spark - 单节点安装与运行

标签:

原文地址:http://www.cnblogs.com/keedor/p/4423996.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!