码迷,mamicode.com
首页 > 其他好文 > 详细

一键部署 spark

时间:2017-07-07 19:56:19      阅读:183      评论:0      收藏:0      [点我收藏+]

标签:一键部署 spark

前言

Spark简介

Spark是整个BDAS的核心组件,是一个大数据分布式编程框架,不仅实现了MapReduce的算子map 函数和reduce函数及计算模型,还提供更为丰富的算子,如filter、join、groupByKey等。是一个用来实现快速而同用的集群计算的平台。

Spark将分布式数据抽象为弹性分布式数据集(RDD),实现了应用任务调度、RPC、序列化和压缩,并为运行在其上的上层组件提供API。其底层采用Scala这种函数式语言书写而成,并且所提供的API深度借鉴Scala函数式的编程思想,提供与Scala类似的编程接口

1.准备工作

下载安装包

 scala-2.9.3:一种编程语言   Scala下载地址:http://www.scala-lang.org/download/
 spark-1.4.0:必须是编译好的Spark,如果下载的是Source,则需要自己根据环境使用SBT或者MAVEN重新编译才能使用。 Spark下载地址:http://spark.apache.org/downloads.html

如图所示:

技术分享

技术分享

2、安装scala-2.9.3

技术分享


3、安装spark-1.4.0

技术分享



4、修改Spark配置文件

技术分享


在spark-env.sh末端添加如下几行:


技术分享

  spark-defaults.conf中还有如下配置参数:



5、测试spark安装是否成功

技术分享


6、使用wordcount例子测试,启动spark-shell之前先上传一份文件到hdfs
7、代码:
    val file = sc.textFile("hdfs://hadoop.master:9000/data/intput/wordcount.data")
    val count = file.flatMap(line=>(line.split(" "))).map(word=>(word,1)).reduceByKey(_+_)
    count.collect()
    count.textAsFile("hdfs://hadoop.master:9000/data/output")
理解上面的代码你需要学习scala语言。

技术分享

总结:山不厌高,海不厌深。





本文出自 “李世龙” 博客,谢绝转载!

一键部署 spark

标签:一键部署 spark

原文地址:http://lwm666.blog.51cto.com/11811339/1945240

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!