码迷,mamicode.com
首页 >  
搜索关键字:pyspark    ( 164个结果
pySpark加载数据
1、加载本地文件 效果: 2、从HDFS加载数据 效果: ...
分类:其他好文   时间:2018-06-30 19:49:42    阅读次数:218
Spark环境准备
Ubuntu: 1、下载spark-2.2.1-bin-hadoop2.7.tgz,解压即可使用。 2、下载jdk-8u151-linux-x64.tar.gz,解压。 3、执行spark-2.2.1-bin-hadoop2.7/bin/pyspark,进入Spark运行环境。 4、测试: >>> ...
分类:其他好文   时间:2018-06-04 23:22:32    阅读次数:186
pyspark视频
在一个网课上买了一个pyspark视频,贼贵,本来是想把视频解压密码记下来分享出来的,可是其实用的是EVPLAYER,一机一码,一共只有3个激活码 这里我分享视频链接,百度网盘: https://pan.baidu.com/s/19o980VYyFAzkMrkQMyCxyA 密码: 51v5 收取1 ...
分类:其他好文   时间:2018-06-03 01:05:14    阅读次数:217
PySpark理解wordcount.py
在本文中, 我们借由深入剖析wordcount.py, 来揭开Spark内部各种概念的面纱。我们再次回顾wordcount.py代码来回答如下问题 对于大多数语言的Hello Word示例,都有main()函数, wordcount.py的main函数,或者说调用Spark的main() 在哪里 数 ...
分类:其他好文   时间:2018-05-27 21:43:01    阅读次数:369
spark-day1
#!/usr/bin/python # -*- coding: utf_8 -*- from pyspark import SparkConf, SparkContext import os, time if __name__ == '__main__': # Create SparkConf # ... ...
分类:其他好文   时间:2018-05-19 21:24:25    阅读次数:165
pyspark对应的scala代码PythonRDD对象
pyspark jvm端的scala代码PythonRDD 代码版本为 spark 2.2.0 1.PythonRDD.object 这个静态类是pyspark的一些基础入口 ...
分类:编程语言   时间:2018-05-16 22:22:56    阅读次数:345
pyspark对应的scala代码PythonRDD类
pyspark jvm端的scala代码PythonRDD 代码版本为 spark 2.2.0 1.PythonRDD.class 这个rdd类型是python能接入spark的关键 2.PythonRunner.class 这个类是rdd内部执行计算时的实体计算类,并不是代码提交时那个启动py4j ...
分类:编程语言   时间:2018-05-16 17:27:37    阅读次数:286
pyspark的RDD代码纪录
pyspark rdd.py文件代码纪录 代码版本为 spark 2.2.0 1.RDD及常见算子 2.PipelinedRDD ...
分类:其他好文   时间:2018-05-16 16:44:05    阅读次数:238
pyspark执行逻辑流程
这里记录pyspark的执行逻辑图 代码版本为 spark 2.2.0 1.执行逻辑 这里简述一下代码调用流程 1. 用户通过spark submit提交python代码,spark submit检测到此次提交任务类型是python类型则会设置mainClass为PythonRunner 2. Py ...
分类:其他好文   时间:2018-05-16 16:31:20    阅读次数:234
pyspark GBT
from pyspark import SparkContext from pyspark import SparkConf from pyspark.mllib.regression import LabeledPoint from pyspark.mllib.tree import Gradie ...
分类:其他好文   时间:2018-04-17 19:53:15    阅读次数:265
164条   上一页 1 ... 7 8 9 10 11 ... 17 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!