SparkContext SparkContext 是在 spark 库中定义的一个类,作为 spark 库的入口点; 它表示连接到 spark,在进行 spark 操作之前必须先创建一个 SparkContext 的实例,并且只能创建一个; 利用 SparkContext 实例创建的对象都是 RD ...
分类:
其他好文 时间:
2020-01-18 12:44:55
阅读次数:
66
任何Spark程序员都是从SparkContext开始的,SparkContext的初始化需要一个SparkConf对象,SparkConf对象中包含了Spark集群配置的各种参数。 SparkConf conf = new SparkConf().setMaster("local").setApp ...
分类:
其他好文 时间:
2020-01-08 22:34:05
阅读次数:
79
一.示例 1.统计PV和UV 1.1统计PV val conf = new SparkConf() conf.setMaster("local").setAppName("pvuv") val sc = new SparkContext(conf) val lineRDD = sc.textFile ...
分类:
其他好文 时间:
2019-12-30 14:16:01
阅读次数:
89
from pyspark import SparkContext Traceback (most recent call last): File "<stdin>", line 1, in <module> 要先安装 findspark 包 然后执行 pip install findsparp 再进 ...
分类:
编程语言 时间:
2019-12-15 14:44:20
阅读次数:
206
进阶算子: import org.apache.spark.rdd.RDD import org.apache.spark.{HashPartitioner, SparkConf, SparkContext} /** * 进阶算子 */ object FunctionDemo2 { def main ...
分类:
其他好文 时间:
2019-12-12 18:03:32
阅读次数:
79
import org.apache.spark.rdd.RDDimport org.apache.spark.{Partitioner, SparkConf, SparkContext} object Transformation { def main(args: Array[String]): U ...
分类:
其他好文 时间:
2019-12-10 22:41:03
阅读次数:
147
import org.apache.spark.{SparkConf, SparkContext} object wc2 { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").s ...
分类:
其他好文 时间:
2019-12-03 15:30:38
阅读次数:
89
代码: import org.apache.log4j.{Level, Logger}import org.apache.spark.{SparkConf, SparkContext}object WorldCount { def main(args: Array[String]): Unit ={ ...
分类:
其他好文 时间:
2019-12-02 13:48:52
阅读次数:
85
//1.准备环境val conf: SparkConf = new SparkConf().setAppName("_01SparkGraphx").setMaster("local[*]")val sc: SparkContext = new SparkContext(conf)sc.setLog ...
分类:
其他好文 时间:
2019-11-05 01:14:53
阅读次数:
102
一个job对应一个action操作,action执行会有先后顺序; 每个job执行会先构建一个DAG路径,一个job会含有多个stage,主要逻辑在DAGScheduler。 spark提交job的源码见(SparkContext.scala的runJob方法): DAGScheduler--job ...
分类:
其他好文 时间:
2019-10-27 17:08:08
阅读次数:
115