码迷,mamicode.com
首页 >  
搜索关键字:spark streaming kafka 调优    ( 14949个结果
Flink-transformation(三)
ke01开启: nc -lk 8888 Map package com.text.transformation import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink ...
分类:其他好文   时间:2021-06-11 18:25:57    阅读次数:0
使用Python操作Kafka:KafkaProducer、KafkaConsumer
其实很早就是用kafka了,但是一直都用的非常简单,最近写一个小功能的时候又要用到kafka,于是就花点时间好好看了一下网上关于kafka的一些文档和博客,发现了一个很不错的博客,做个记录和分享。 原文链接: https://www.cnblogs.com/rexcheny/articles/946 ...
分类:编程语言   时间:2021-06-11 18:14:50    阅读次数:0
查漏补缺:备战2021年java后端Kafka高频面试题(含答案解析)
前言 Apache Kafka的受欢迎程度很高,Kafka拥有充足的就业机会和职业前景。此外,在这个时代拥有kafka知识是一条快速增长的道路 而且无论是作为面试官,还是应聘者,我都接触过很多Kafka面试题。而在最近面试了很多候选人,发现写了熟悉Kafka,但是对于Kafka相关的知识却是只知道大 ...
分类:编程语言   时间:2021-06-11 18:11:03    阅读次数:0
【Kafka】Kafka文件存储机制
一、文件存储 kafka 使用日志文件的方式来保存生产者和发送者的消息,每条消息都有一个 offset 值来表示它在分区中的偏移量。Kafka 中存储的一般都是海量的消息数据,为了避免日志文件过大,一个分片 并不是直接对应在一个磁盘上的日志文件,而是对应磁盘上的一个目录,这个目录的命名规则是<top ...
分类:其他好文   时间:2021-06-11 17:32:01    阅读次数:0
大数据开发-Spark Join原理详解
数据分析中将两个数据集进行 Join 操作是很常见的场景。在 Spark 的物理计划阶段,Spark 的 Join Selection 类会根 据 Join hints 策略、Join 表的大小、 Join 是等值 Join 还是不等值以及参与 Join 的 key 是否可以排序等条件来选择最 终的 ...
分类:其他好文   时间:2021-06-10 18:28:12    阅读次数:0
女朋友看了也懂的Kafka(下篇)
前言: 在上篇中我们了解了Kafka是什么,为什么需要Kafka,以及Kafka的基本架构和各自的作用是什么,这篇文章中我们将从kafka内部每一个组成部分去看kafka 是如何保证数据的可靠性以及工作机制。因为时间问题,或许排版多有瑕疵,有些内容未能做到详尽。待之后有空会前来填坑。话不多说,正片开 ...
分类:其他好文   时间:2021-06-10 17:56:07    阅读次数:0
linux - CentaOS 7 - 安装kafka
docker安装kafka 1、下载zookeeper镜像 docker pull wurstmeister/zookeeper 2、下载kafka镜像 docker pull wurstmeister/kafka 3、查看镜像 docker images 4、单机方式先启动zookeeper容器 ...
分类:系统相关   时间:2021-06-08 22:39:02    阅读次数:0
09 spark连接mysql数据库
1. 安装启动检查Mysql服务。##netstat -tunlp (3306) cd /usr/local/hive/lib ls mysql* cp mysql-connector-java-5.1.40-bin.jar /usr/local/spark/jars/ cd /usr/local/ ...
分类:数据库   时间:2021-06-07 20:10:49    阅读次数:0
01 Spark架构与运行流程
1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 HDFS是Hadoop体系中数据存储管理的基础,它是一个高度容错的系统,能检测和应对硬件故障,在低成本的通用硬件上运行。 HBase构建在HDFS之上 ...
分类:其他好文   时间:2021-06-07 20:05:58    阅读次数:0
Spark RDD编程
1. 准备文本文件: 从文件创建RDD lines=sc.textFile(): 筛选出含某个单词的行 lines.filter(),lambda 参数:条件表达式: 2. 生成单词的列表: 从列表创建RDD words=sc.parallelize(): 筛选出长度大于2 的单词 words.fi ...
分类:其他好文   时间:2021-06-07 20:04:33    阅读次数:0
14949条   上一页 1 ... 3 4 5 6 7 ... 1495 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!