1、分布式 2、基于内存 3、迭代式计算 每一批节点上的每一批数据就是一个RDD RDD是spark的核心抽象 1、RDD是Spark提供的核心抽象,全称为Resillient Distributed Dataset,即弹性分布式数据集。2、RDD在抽象上来说是一种元素集合,包含了数据。它是被分区的 ...
分类:
其他好文 时间:
2020-05-03 20:41:36
阅读次数:
61
前言 有同事问到,Spark读取一张Hive表的数据Task有一万多个,看了Hive表分区下都是3MB~4MB的小文件,每个Task只处理这么小的文件,实在浪费资源浪费时间。而我们都知道Spark的Task数由partitions决定,所以他想通过repartition(num)的方式来改变分区数, ...
分类:
其他好文 时间:
2020-05-03 12:43:20
阅读次数:
54
操作系统 Kafka 由 Scala 语言和 Java 语言编写而成,编译之后的源代码就是普通的“.class”文件 应该说部署在 Linux 上的生产环境是最多的 主要是在下面这三个方面上,Linux 的表现更胜一筹。 I/O 模型的使用 数据网络传输效率 社区支持度 主流的 I/O 模型通常有 ...
分类:
其他好文 时间:
2020-05-02 23:13:44
阅读次数:
68
一、函数作为参数 highOrderFunc是一个高阶函数,因为它可以接收一个函数作为参数 object PartialFunctionDemo { def main(args: Array[String]): Unit = { val add = (d: Double) => d + 1 val ...
分类:
其他好文 时间:
2020-05-02 14:53:58
阅读次数:
54
一、RDD(弹性分布式数据集) RDD 是 Spark 最核心的数据结构,RDD(Resilient Distributed Dataset)全称为弹性分布式数据集,是 Spark 对数据的核心抽象,也是最关键的抽象,它实质上是一组分布式的 JVM 不可变对象集合,不可变决定了它是只读的,所以 RD ...
分类:
其他好文 时间:
2020-05-02 14:51:21
阅读次数:
56
1 package com.ds 2 3 import org.apache.spark.sql.{Dataset, SparkSession} 4 5 object DataSet { 6 7 def main(args: Array[String]): Unit = { 8 val spark: ...
分类:
其他好文 时间:
2020-05-02 12:10:05
阅读次数:
46
1 package com.spark_sql 2 3 import java.util.Properties 4 import org.apache.spark.sql.{DataFrame, SparkSession} 5 6 object DataFromMysql { 7 def main( ...
分类:
数据库 时间:
2020-05-02 11:31:58
阅读次数:
63
流计算概述 流数据是指在时间分布上和数量上无线的一系列动态数据集合。数据记录是流数据的最小组成单元。 流数据特征 数据快速持续到达,无穷无尽 数据来源众多,格式复杂 数据量大,不关心存储 注重数据的整体价值,不过分关注个别数据 数据顺序颠倒或者不完整 流计算 流数据被处理后,一部分进入数据库成为静态 ...
分类:
其他好文 时间:
2020-05-01 17:08:46
阅读次数:
96
什么是纯函数 纯函数是函数式编程中的一个根本概念. 纯函数要求一个函数输入对应输出, 没有其它任何副作用, 且引用透明. 过程: 没有返回值, 只有副作用的函数 一个纯函数有以下要求: 没有副作用 不向控制台打印 不向文件写入数据 不更改外部变量 不向其它文件系统写入数据 引用透明 这个函数执行结果... ...
分类:
其他好文 时间:
2020-05-01 11:06:27
阅读次数:
53