码迷,mamicode.com
首页 >  
搜索关键字:sqlcontext    ( 63个结果
Scala构建元数据
反射方式构建元数据: 通过反射来获取RDD中的Schema信息。这种方式适合于列名(元数据)已知的情况下 步骤: 1.SparkConf配置环境 2.SparkContext初始化上下文 3.SQLContext初始化SparkSQL上下文 4.创建一个普通的RDD(sc.textFile) 5.使 ...
分类:其他好文   时间:2018-11-24 14:21:32    阅读次数:210
spark dataFrame withColumn
说明:withColumn用于在原有DF新增一列 1. 初始化sqlContext val sqlContext = new org.apache.spark.sql.SQLContext(sc) 2.导入sqlContext隐式转换 import sqlContext.implicits._ 3. ...
分类:其他好文   时间:2018-06-25 20:32:01    阅读次数:6643
spark
spark sql基础操作 SQLContext可能需要自己创建。 var sqlContext=new org.apache.spark.sql SQLContext(sc) sc 是指spark context。 scala> val textFile=sc.textFile("file:/// ...
分类:其他好文   时间:2018-06-21 23:42:51    阅读次数:203
Spark SQL数据源
SparkSQL数据源:从各种数据源创建DataFrame 因为 spark sql,dataframe,datasets 都是共用 spark sql 这个库的,三者共享同样的代码优化,生成以及执行流程,所以 sql,dataframe,datasets 的入口都是 sqlContext。 可用于 ...
分类:数据库   时间:2018-06-15 20:06:26    阅读次数:189
SparkSession
在2.0版本之前,使用Spark必须先创建SparkConf和SparkContext catalog:目录 Spark2.0中引入了SparkSession的概念,SparkConf、SparkContext 和 SQLContext 都已经被封装在 SparkSession 当中,并且可以通过 ...
分类:其他好文   时间:2018-05-21 12:26:47    阅读次数:282
Spark之json数据处理
-- 默认情况下,SparkContext对象在spark-shell启动时用namesc初始化。使用以下命令创建SQLContext。 val sqlcontext = new org.apache.spark.sql.SQLContext(sc) -- employee.json-将此文件放在c... ...
分类:Web程序   时间:2018-01-09 18:46:47    阅读次数:294
Spark之SparkSql
-- Spark SQL 以编程方式指定模式 val sqlContext = new org.apache.spark.sql.SQLContext(sc) val employee = sc.textFile("/root/wangbin/employee.txt") 1201,satish,2... ...
分类:数据库   时间:2018-01-09 18:37:12    阅读次数:186
Spark2.x AFTSurvivalRegression算法
Spark2.0的机器学习算法比之前的改变最大的是2.0基本采用了dataframe来实现的,但之前的都是用的RDD,看官网说貌似在3.0的时候RDD就不用了!还有一个就是hiveContext和sqlContext进行了合并,统一是sessioncontext。 在spark.ml中,实现了加速失 ...
分类:编程语言   时间:2018-01-07 20:19:22    阅读次数:1014
[Spark][Python][DataFrame][RDD]DataFrame中抽取RDD例子
[Spark][Python][DataFrame][RDD]DataFrame中抽取RDD例子 sqlContext = HiveContext(sc) peopleDF = sqlContext.read.json("people.json") peopleRDD = peopleDF.map( ...
分类:编程语言   时间:2017-10-07 22:46:45    阅读次数:220
[Spark][Python][DataFrame][RDD]从DataFrame得到RDD的例子
[Spark][Python][DataFrame][RDD]从DataFrame得到RDD的例子 $ hdfs dfs -cat people.json $pyspark sqlContext = HiveContext(sc) peopleDF = sqlContext.read.json("p ...
分类:编程语言   时间:2017-10-07 17:31:36    阅读次数:191
63条   上一页 1 2 3 4 ... 7 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!