1 package com.bawei.core 2 3 import org.apache.spark.rdd.RDD 4 import org.apache.spark.{SparkConf, SparkContext} 5 6 /** 7 * 单词统计 8 9 */ 10 object Spa ...
分类:
数据库 时间:
2020-05-05 18:27:44
阅读次数:
87
//清理格式不匹配的数据 //此代码可以实现自动滤除掉无法转化为double类型的数据 import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.j ...
分类:
其他好文 时间:
2020-04-26 21:00:10
阅读次数:
120
// hadoop+spark二次排序代码 package com.swust.hadoop; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaPairRDD; import org.apache.spa ...
分类:
其他好文 时间:
2020-04-26 16:43:00
阅读次数:
64
//练习sparkstreaming监听socket端口 //手写wordcount java代码 package com.swust.streaming; import org.apache.spark.SparkConf; import org.apache.spark.api.java.Jav ...
分类:
其他好文 时间:
2020-04-23 11:49:08
阅读次数:
59
import java.sql.DriverManager import java.time.{LocalDateTime, ZoneOffset} import org.apache.spark.rdd.JdbcRDD import org.apache.spark.{SparkConf, Spa ...
分类:
数据库 时间:
2020-04-22 10:13:02
阅读次数:
86
package com.atguigu.bigdata.spark import org.apache.spark.rdd.RDD import org.apache.spark.{SparkConf, SparkContext} object WordCount { def main(args: ...
分类:
其他好文 时间:
2020-04-19 18:04:25
阅读次数:
66
1. Transformations 1.1 map(fun) 操作 map操作需要传入一个函数当做参数, 主要作用是,对DStream对象a,将func函数作用到a中的每一个元素上并生成新的元素,得到的DStream对象b中包含这些新的元素。 val conf = new SparkConf(). ...
分类:
其他好文 时间:
2020-04-10 12:21:06
阅读次数:
87
背景 1)试试本地模式的spark streaming 2)试试yarn模式的spark streaming 1、本地模式的spark streaming 代码如下: package com.hxh import org.apache.spark.SparkConf import org.apach ...
分类:
其他好文 时间:
2020-04-03 19:55:21
阅读次数:
63
Spark官方自带了WordCount的样例,我们也可以自己实现,加深对Spark的理解。 import org.apache.spark.{SparkConf, SparkContext}object WordCount { def main(args: Array[String]): Unit ...
分类:
其他好文 时间:
2020-03-08 13:44:44
阅读次数:
65
package com.gong import org.apache.spark.{SparkConf, SparkContext} object MyScalaWorldCount { def main(args: Array[String]): Unit = { //参数检测 if(args.l ...
分类:
其他好文 时间:
2020-02-18 18:56:10
阅读次数:
75