码迷,mamicode.com
首页 >  
搜索关键字:Spark2    ( 181个结果
spark在eclipse下V2-搭建Demo代码阅读环境
https://files.cnblogs.com/files/wifi0/spark2.1.1example_api_sql_streaming_eclipseProject.ziphttps://files.cnblogs.com/files/wifi0/runconfig.zip 搭建代码阅读 ...
分类:系统相关   时间:2017-11-07 19:55:13    阅读次数:218
Spark2.1.0完全分布式环境搭建
1.选取三台服务器(CentOS系统64位) 114.55.246.88 主节点 114.55.246.77 从节点 114.55.246.93 从节点 之后的操作如果是用普通用户操作的话也必须知道root用户的密码,因为有些操作是得用root用户操作。如果是用root用户操作的话就不存在以上问题。 ...
分类:其他好文   时间:2017-10-29 17:32:47    阅读次数:200
windows 本地构建hadoop-spark运行环境(hadoop-2.6, spark2.0)
LocalSparkContext.scala import org.apache.spark.{SparkConf, SparkContext} import org.scalatest._ trait LocalSparkContext extends BeforeAndAfterAll { s ...
分类:Windows程序   时间:2017-10-17 15:14:10    阅读次数:329
spark 学习笔记-spark2.2.0
master:192.168.11.2 s1:192.168.11.3 s2 :192.168.11.4 共三个节点 第一步配置(三台一样) http://hadoop.apache.org/docs/r2.7.4/hadoop-project-dist/hadoop-common/ClusterS... ...
分类:其他好文   时间:2017-10-13 23:43:29    阅读次数:206
全面深度剖析Spark2--知识点,源码,调优,JVM,图计算,项目
Spark2
分类:编程语言   时间:2017-10-13 11:32:45    阅读次数:330
Spark2.1.0分布式集群安装
一、依赖文件安装 1.1 JDK 参见博文:http://www.cnblogs.com/liugh/p/6623530.html 1.2 Hadoop 参见博文:http://www.cnblogs.com/liugh/p/6624872.html 1.3 Scala 参见博文:http://ww ...
分类:其他好文   时间:2017-10-01 22:04:55    阅读次数:175
spark提交异常日志分析
java.lang.NoSuchMethodError: org.apache.spark.sql.SQLContext.sql(Ljava/lang/String;)Lorg/apache/spark/sql/Dataset; 这是因为代码中调用的是spark2.0的接口,但是提交任务采用的是sp ...
分类:其他好文   时间:2017-10-01 21:11:58    阅读次数:887
cloudera上面安装Spark2.0
Cloudera默认值是提供Spark1.6的安装,下面介绍如何来安装spark2.1 1. csd包:http://archive.cloudera.com/spark2/csd/ 2. parcels:http://archive.cloudera.com/spark2/parcels/2.1. ...
分类:其他好文   时间:2017-09-30 00:43:01    阅读次数:238
spark2.x由浅入深深到底系列七之RDD python api详解一
学习spark任何技术之前,请先正确理解spark,可以参考:正确理解spark以下对RDD的三种创建方式、单类型RDD基本的transformationapi、采样Api以及pipe操作进行了pythonapi方面的阐述一、RDD的三种创建方式从稳定的文件存储系统中创建RDD,比如localfileSystem或者hdfs等,如下:..
分类:编程语言   时间:2017-09-22 11:58:32    阅读次数:224
spark2.x由浅入深深到底系列五之python开发spark环境配置
学习spark任何的技术前,请先正确理解spark,可以参考:正确理解spark以下是在mac操作系统上配置用python开发spark的环境一、安装pythonspark2.2.0需要python的版本是Python2.6+或者Python3.4+可以参考:http://jingyan.baidu.com/article/7908e85c78c743af491ad261.html二、下..
分类:编程语言   时间:2017-09-21 23:33:59    阅读次数:447
181条   上一页 1 ... 9 10 11 12 13 ... 19 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!