码迷,mamicode.com
首页 >  
搜索关键字:spark ha解密    ( 7001个结果
Apache Spark源码走读之19 -- standalone cluster模式下资源的申请与释放
本文主要讲述在standalone cluster部署模式下,应用(Driver Application)所需要的资源是如何获得,在应用退出时又是如何释放的。
分类:其他好文   时间:2014-07-22 22:48:15    阅读次数:243
Spark-Dependency
1、Spark中采用依赖关系(Dependency)表示rdd之间的生成关系。Spark可利用Dependency计算出失效的RDD。在每个RDD中都存在一个依赖关系的列表 private var dependencies_ : Seq[Dependency[_]] = null 用以记录各rdd中各partition的parent partition。 2、Spark中存在两类Depe...
分类:其他好文   时间:2014-07-22 22:34:15    阅读次数:264
Spark SQL Catalyst源码分析之Analyzer
本文详细介绍了Spark SQL的Catalyst里,Analyzer是如何Sql parser的解析的UnResolved逻辑计划,进行resolve的。...
分类:数据库   时间:2014-07-22 14:49:52    阅读次数:396
Spark源码系列(八)Spark Streaming实例分析
这一章要讲Spark Streaming,讲之前首先回顾下它的用法,具体用法请参照《Spark Streaming编程指南》。Example代码分析val ssc = new StreamingContext(sparkConf, Seconds(1));// 获得一个DStream负责连接 监听端...
分类:其他好文   时间:2014-07-22 08:01:34    阅读次数:351
Spark快速上手之交互式分析
1.1  Spark交互式分析 运行Spark脚本前,启动Hadoop的HDFS和YARN。Spark的shell提供 了简单方式去识别API,同样也有一个强大的工具去交互式地分析数据。两种语言有这样的交换能力,分别是Scala 和 Python。下面将演示如何使用Python来分析数据文件。 进入Spark安装主目录,输入下面的命令,python命令行模式将会启动。 ./bin/pysp...
分类:其他好文   时间:2014-07-22 00:29:38    阅读次数:239
Spark学习体系
1:Spark生态和安装部署 Spark生态 Spark(内存计算框架) SparkSteaming(流式计算框架) Spark SQL(ad-hoc) Mllib(Machine Learning) GraphX(bagel将被取代) 安装部署 Spark安装简介 Spark的源码编译 Spark Standalone安装 Spark Standalone H...
分类:其他好文   时间:2014-07-22 00:27:35    阅读次数:317
Spark1.0.0伪分布安装指南
?一、下载须知 软件准备: spark-1.0.0-bin-hadoop1.tgz? ?下载地址:spark1.0.0 scala-2.10.4.tgz ? ?下载下载:Scala 2.10.4 hadoop-1.2.1-bin.tar.gz ? 下载地址:hadoop-1.2.1-bin.tar.gz jdk-7u60-li...
分类:其他好文   时间:2014-07-21 23:30:01    阅读次数:525
打造基于hadoop的网站日志分析系统(5)之spark在日志分析系统里的简单应用
1.下载spark和运行 wget?http://apache.fayea.com/apache-mirror/spark/spark-1.0.0/spark-1.0.0-bin-hadoop2.tgz 我这里下载的是1.0.0版,由于我们只是测试spark的用法所以不需要配置spark集群,只需把下好的文件...
分类:Web程序   时间:2014-07-21 10:21:45    阅读次数:206
Spark Catalyst源码分析之SqlParser
本文以Catalyst源代码的角度解析Catalyst的解析器如何解析SQL的生成LogicalPlan的。...
分类:数据库   时间:2014-07-19 11:15:13    阅读次数:389
Spark教程-构建Spark集群(1)
对于90%以上想学习Spark的人而言,如何构建Spark集群是其最大的难点之一,为了解决大家构建Spark集群的一切困难,家林把Spark集群的构建分为了四个步骤,从零起步,不需要任何前置知识,涵盖操作的每一个细节,构建完整的Spark集群。从零起步,构建Spark集群经典四部曲: 第一步:搭建H...
分类:其他好文   时间:2014-07-17 21:35:29    阅读次数:389
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!