码迷,mamicode.com
首页 >  
搜索关键字:sparkcontext    ( 295个结果
Spark Streaming原理简析
执行流程数据的接收StreamingContext实例化的时候,需要传入一个SparkContext,然后指定要连接的spark matser url,即连接一个spark engine,用于获得executor。实例化之后,首先,要指定一个接收数据的方式,如val lines = ssc.socketTextStream("localhost", 9999)这样从socket接收文本数据。这个步骤...
分类:其他好文   时间:2015-03-19 16:25:47    阅读次数:155
本地开发spark代码上传spark集群服务并运行(基于spark官网文档)
打开IDEA 在src下的main下的scala下右击创建一个scala类 名字为SimpleApp ,内容如下import org.apache.spark.SparkContextimport org.apache.spark.SparkContext._import org.apache.sp...
分类:Web程序   时间:2015-03-14 16:54:22    阅读次数:141
spark SQL编程动手实战-01
首先创建SparkContext上下文: 接着引入隐身转换,用于把RDD转成SchemaRDD: 接下来定义一个case class 来用于描述和存储SQL表中的每一行数据: 接下来要加载数据,这里的测试数据是user.txt文件: 我们创建好use...
分类:数据库   时间:2015-03-02 19:26:20    阅读次数:264
spark SQL编程动手实战-01
首先创建SparkContext上下文: 接着引入隐身转换,用于把RDD转成SchemaRDD: 接下来定义一个case class 来用于描述和存储SQL表中的每一行数据: 接下来要加载数据,这里的测试数据是user.txt文件: 我们创建好use.txt增加内容并上传到hdfs中: web控制台查询: hdfs命令查询: 加...
分类:数据库   时间:2015-03-02 19:08:17    阅读次数:222
Spark API编程动手实战-08-基于IDEA使用Spark API开发Spark程序-01
创建一个Scala IDEA工程: 点击“Next”: 点击“Finish”完成工程的创建: 修改项目的属性: 首先修改Modules选项: 在src下创建两个文件夹,并把其属性改为source: 再修改Libraries: 因为要开发Spark程序,所以需要把Spark的开发需要的jar包导...
分类:Windows程序   时间:2015-02-10 13:19:16    阅读次数:269
spark 笔记 5: SparkContext,SparkConf
SparkContext 是spark的程序入口,相当于熟悉的‘main’函数。它负责链接spark集群、创建RDD、创建累加计数器、创建广播变量。/** * Main entry point for Spark functionality. A SparkContext represents th...
分类:其他好文   时间:2015-01-23 06:09:39    阅读次数:1394
spark sortByKey subtractByKey take takeOrdered等函数使用例子
package com.latrobe.spark import org.apache.spark.{SparkContext, SparkConf} /** * Created by spark on 15-1-19. * 根据key对K-V类型的RDD进行排序获得新的RDD */ object SortByKey { def main(args: Array[String]) {...
分类:其他好文   时间:2015-01-20 23:59:25    阅读次数:500
spark内核揭秘-05-SparkContext核心源码解析初体验
SparkContext在获得了一系列的初始化信息后开始创建并启动TaskScheduler实例: 进入createTaskScheduler方法: spark内核揭秘-05-SparkContext核心源码解析初体验 我们看一下其Standalone的方式: 在上述代码中首先实例化一个TaskSchedulerImpl: 然后构建出了masterUrls: 接着创建出了非常关键的backend:...
分类:其他好文   时间:2015-01-19 15:47:44    阅读次数:169
spark foldByKey
package com.latrobe.spark import org.apache.spark.{SparkContext, SparkConf} /** * Created by spark on 15-1-18. */ object FoldByKey { def main(args: Array[String]) { val conf = new SparkConf(...
分类:数据库   时间:2015-01-19 00:19:50    阅读次数:782
Spark PairRDDFunctions flatMapValues
package com.latrobe.spark import org.apache.spark.{SparkContext, SparkConf} /** * Created by spark on 15-1-18. */ object FlatMapValues { def main(args: Array[String]) { val conf = new SparkC...
分类:其他好文   时间:2015-01-18 22:43:54    阅读次数:384
295条   上一页 1 ... 25 26 27 28 29 30 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!