码迷,mamicode.com
首页 >  
搜索关键字:sparkcontext    ( 295个结果
spark教程(四)-SparkContext 和 RDD 算子
SparkContext SparkContext 是在 spark 库中定义的一个类,作为 spark 库的入口点; 它表示连接到 spark,在进行 spark 操作之前必须先创建一个 SparkContext 的实例,并且只能创建一个; 利用 SparkContext 实例创建的对象都是 RD ...
分类:其他好文   时间:2020-01-18 12:44:55    阅读次数:66
SparkConf和SparkContext
任何Spark程序员都是从SparkContext开始的,SparkContext的初始化需要一个SparkConf对象,SparkConf对象中包含了Spark集群配置的各种参数。 SparkConf conf = new SparkConf().setMaster("local").setApp ...
分类:其他好文   时间:2020-01-08 22:34:05    阅读次数:79
再识spark
一.示例 1.统计PV和UV 1.1统计PV val conf = new SparkConf() conf.setMaster("local").setAppName("pvuv") val sc = new SparkContext(conf) val lineRDD = sc.textFile ...
分类:其他好文   时间:2019-12-30 14:16:01    阅读次数:89
linux 下 python 运行 pyspark
from pyspark import SparkContext Traceback (most recent call last): File "<stdin>", line 1, in <module> 要先安装 findspark 包 然后执行 pip install findsparp 再进 ...
分类:编程语言   时间:2019-12-15 14:44:20    阅读次数:206
进阶算子
进阶算子: import org.apache.spark.rdd.RDD import org.apache.spark.{HashPartitioner, SparkConf, SparkContext} /** * 进阶算子 */ object FunctionDemo2 { def main ...
分类:其他好文   时间:2019-12-12 18:03:32    阅读次数:79
RDD的转换操作,分三种:单value,双value交互,(k,v)对
import org.apache.spark.rdd.RDDimport org.apache.spark.{Partitioner, SparkConf, SparkContext} object Transformation { def main(args: Array[String]): U ...
分类:其他好文   时间:2019-12-10 22:41:03    阅读次数:147
Spark--wordcount(词频降序)
import org.apache.spark.{SparkConf, SparkContext} object wc2 { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").s ...
分类:其他好文   时间:2019-12-03 15:30:38    阅读次数:89
3.Spark之WorldCount
代码: import org.apache.log4j.{Level, Logger}import org.apache.spark.{SparkConf, SparkContext}object WorldCount { def main(args: Array[String]): Unit ={ ...
分类:其他好文   时间:2019-12-02 13:48:52    阅读次数:85
Spark-GraphX入门
//1.准备环境val conf: SparkConf = new SparkConf().setAppName("_01SparkGraphx").setMaster("local[*]")val sc: SparkContext = new SparkContext(conf)sc.setLog ...
分类:其他好文   时间:2019-11-05 01:14:53    阅读次数:102
spark--job和DAGScheduler源码
一个job对应一个action操作,action执行会有先后顺序; 每个job执行会先构建一个DAG路径,一个job会含有多个stage,主要逻辑在DAGScheduler。 spark提交job的源码见(SparkContext.scala的runJob方法): DAGScheduler--job ...
分类:其他好文   时间:2019-10-27 17:08:08    阅读次数:115
295条   上一页 1 2 3 4 5 6 ... 30 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!