码迷,mamicode.com
首页 >  
搜索关键字:spark rdd    ( 7287个结果
数仓OLAP技术
数据应用,是真正体现数仓价值的部分,包括且又不局限于 数据可视化、BI、OLAP、即席查询,实时大屏,用户画像,推荐系统,数据分析,数据挖掘,人脸识别,风控反欺诈,ABtest等等 OLAP(On-Line Analytical Processing):在线分析处理,主要用于支持企业决策管理分析。 ...
分类:其他好文   时间:2021-03-16 11:54:33    阅读次数:0
02 Spark架构与运行流程
1. 为什么要引入Yarn和Spark。 从开源角度看,YARN的提出,从一定程度上弱化了多计算框架的优劣之争。YARN是在Hadoop MapReduce基础上演化而来的,在MapReduce时代,很多人批评MapReduce不适合迭代计算和流失计算,于是出现了Spark和Storm等计算框架,而 ...
分类:其他好文   时间:2021-03-15 11:29:44    阅读次数:0
ApacheCN 数据科学译文集 20210313 更新
新增了五个教程: Python 和 Jupyter 机器学习入门 零、前言 一、Jupyter 基础知识 二、数据清理和高级机器学习 三、Web 爬取和交互式可视化 Python 数据科学和机器学习实践指南 零、前言 一、入门 二、统计和概率回顾和 Python 实践 三、Matplotlib 和高 ...
分类:Web程序   时间:2021-03-15 11:11:19    阅读次数:0
01 Spark架构与运行流程
1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系。 Hadoop对应于Google三驾马车:HDFS对应于GFS,即分布式文件系统,MapReduce即并行计算框架,HBase对应于BigTable,即分布式NoSQL列数据库,外加Zo ...
分类:其他好文   时间:2021-03-15 10:45:14    阅读次数:0
01 Spark架构与运行流程
1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 答: Hadoop对应于Google三驾马车:HDFS对应于GFS,即分布式文件系统,MapReduce即并行计算框架,HBase对应于BigTabl ...
分类:其他好文   时间:2021-03-15 10:30:53    阅读次数:0
spark架构与运行流程
1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 Hadoop是一个能够对大量数据进行分布式处理的软件框架。具有可靠、高效、可伸缩的特点。 Hadoop的核心是HDFS和MapReduce,hadoo ...
分类:其他好文   时间:2021-03-15 10:30:41    阅读次数:0
spark-sql-04-on_hive
设置metastore 机器: ke01、ke02、ke03、ke04 ke03 为元数据库 ke01、ke02、ke04 连接到元数据库 、 hive-metastore搭建 ke03: <configuration> <property> <name>hive.metastore.warehou ...
分类:数据库   时间:2021-03-12 13:42:56    阅读次数:0
Spark中join的类型
Spark的五种JOIN策略解析 JOIN操作是非常常见的数据处理操作,Spark作为一个统一的大数据处理引擎,提供了非常丰富的JOIN场景。本文分享将介绍Spark所提供的5种JOIN策略,希望对你有所帮助。本文主要包括以下内容: 影响JOIN操作的因素 Spark中JOIN执行的5种策略 Spa ...
分类:其他好文   时间:2021-03-10 13:42:57    阅读次数:0
Spark性能调优-RDD算子调优篇(深度好文,面试常问,建议收藏)
RDD算子调优 不废话,直接进入正题! 1. RDD复用 在对RDD进行算子时,要避免相同的算子和计算逻辑之下对RDD进行重复的计算,如下图所示: 对上图中的RDD计算架构进行修改,得到如下图所示的优化结果: 2. 尽早filter 获取到初始RDD后,应该考虑尽早地过滤掉不需要的数据,进而减少对内 ...
分类:其他好文   时间:2021-03-06 14:22:58    阅读次数:0
Spark Core 02(理论),独立的进程集
Application Application=a driver program + executors 一般来说:1个SparkContext = 1个application=1个SparkShell Spark提交任务不一定须在集群里提交,有gateway就行 1个application ==> ...
分类:系统相关   时间:2021-03-04 13:20:14    阅读次数:0
7287条   上一页 1 ... 11 12 13 14 15 ... 729 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!