码迷,mamicode.com
首页 >  
搜索关键字:sparkconf    ( 176个结果
Spark SQL性能优化
性能优化参数 针对Spark SQL 性能调优参数如下: 代码示例 import?java.util.List; import?org.apache.spark.SparkConf; import?org.apache.spark.api.java.JavaSparkContext; import?org.apache.spark.sql....
分类:数据库   时间:2015-06-17 18:38:35    阅读次数:475
Spark(十) -- Spark Streaming API编程
本文测试的Spark版本是1.3.1Spark Streaming编程模型:第一步: 需要一个StreamingContext对象,该对象是Spark Streaming操作的入口 ,而构建一个StreamingContext对象需要两个参数: 1、SparkConf对象:该对象是配置Spark 程序设置的,例如集群的Master节点,程序名等信息 2、Seconds对象:该对象设置了Str...
分类:Windows程序   时间:2015-05-25 22:35:04    阅读次数:203
Spark first example
this code will count the number of words in a text file.package geo1.op1;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaPairRD...
分类:其他好文   时间:2015-02-11 12:24:08    阅读次数:139
Spark API编程动手实战-08-基于IDEA使用Spark API开发Spark程序-01
创建一个Scala IDEA工程: 点击“Next”: 点击“Finish”完成工程的创建: 修改项目的属性: 首先修改Modules选项: 在src下创建两个文件夹,并把其属性改为source: 再修改Libraries: 因为要开发Spark程序,所以需要把Spark的开发需要的jar包导...
分类:Windows程序   时间:2015-02-10 13:19:16    阅读次数:269
spark sortByKey subtractByKey take takeOrdered等函数使用例子
package com.latrobe.spark import org.apache.spark.{SparkContext, SparkConf} /** * Created by spark on 15-1-19. * 根据key对K-V类型的RDD进行排序获得新的RDD */ object SortByKey { def main(args: Array[String]) {...
分类:其他好文   时间:2015-01-20 23:59:25    阅读次数:500
spark foldByKey
package com.latrobe.spark import org.apache.spark.{SparkContext, SparkConf} /** * Created by spark on 15-1-18. */ object FoldByKey { def main(args: Array[String]) { val conf = new SparkConf(...
分类:数据库   时间:2015-01-19 00:19:50    阅读次数:782
Spark PairRDDFunctions flatMapValues
package com.latrobe.spark import org.apache.spark.{SparkContext, SparkConf} /** * Created by spark on 15-1-18. */ object FlatMapValues { def main(args: Array[String]) { val conf = new SparkC...
分类:其他好文   时间:2015-01-18 22:43:54    阅读次数:384
spark rddToPairRDDFunctions countByKey
package com.latrobe.spark import org.apache.spark.{SparkContext, SparkConf} /** * Created by spark on 15-1-18. * 计算出每个key对应的value的数量 */ object CountByKey { def main(args: Array[String]) { v...
分类:其他好文   时间:2015-01-18 15:48:22    阅读次数:251
spark RDD countApproxDistinct
package com.latrobe.spark import org.apache.spark.{SparkConf, SparkContext} /** * Created by spark on 15-1-18. * countApproxDistinct : RDD的一个方法,作用是对RDD集合内容进行去重统计。 * 该统计是一个大约的统计,参数relativeSD控制统计的精...
分类:移动开发   时间:2015-01-18 15:47:14    阅读次数:194
Win7上Spark WordCount运行过程及异常
WordCount.Scala代码如下:package com.husor.Spark/** * Created by huxiu on 2014/11/26. */import org.apache.spark.{SparkContext, SparkConf}import org.apache....
分类:Windows程序   时间:2014-11-26 16:06:15    阅读次数:475
176条   上一页 1 ... 15 16 17 18 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!