1.写在前面 在利用spark计算引擎将kafka或其他源数据组件的数据入hive形成数仓的过程中有两种方式,一种方式是利用spark Rdd的API将数据写入hdfs形成hdfs文件,之后再将文件和hdfs文件和hive表做加载映射。第二种方式是利用sparkSQL将获取的数据Rdd转换成data ...
分类:
数据库 时间:
2020-05-09 19:20:15
阅读次数:
100
spark sql使用自己封装的livy 引擎执行时有丢失数据情况。排查发现livy session页面中的sql有中文乱码。 之后在livy 源码中未找到相关序列化指定字符集的代码。回头排查自己的代码 修改完毕后重新执行 观察livy session中的sql。 果然乱码没了,执行结果集跟spar ...
分类:
Web程序 时间:
2020-05-09 16:39:29
阅读次数:
91
关注公众号:分享电脑学习回复"百度云盘" 可以免费获取所有学习文档的代码(不定期更新)云盘目录说明:tools目录是安装包res 目录是每一个课件对应的代码和资源等doc 目录是一些第三方的文档工具 承接上一篇文档《Spark案例练习-PV的统计》 参数说明: 继续上面的PV代码编写即可 思路:UV ...
分类:
其他好文 时间:
2020-05-09 01:15:58
阅读次数:
65
package spark.action.factory; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.sql ...
分类:
其他好文 时间:
2020-05-08 21:18:36
阅读次数:
120
//spark读取数据 Dataset<Row> df = spark.read().textFile(currentSrcPath, 1); Dataset<Row> df = spark.read().json(path); Dataset<Row> df = spark.read().orc( ...
分类:
其他好文 时间:
2020-05-08 18:23:41
阅读次数:
85
1、参数配置(并行度)分区的默认个数等于对spark.default.parallelism的指定值2、根据父rdd的reduceTask数量3、读取hdfs的文件生成的rddrdd分区的数量等于hdfs的文件的block4、sparkStreaming生成的rdd根据block interval, ...
分类:
其他好文 时间:
2020-05-08 16:12:24
阅读次数:
129
kubernetes v1.18.2 二进制部署 ipv4 kube-proxy 部署
分类:
Web程序 时间:
2020-05-08 09:22:36
阅读次数:
176
前奏 这篇文章仅对不熟悉在react中使用socket.io的人、以及websocket入门者有帮助。 下面这个动态图展示的聊天系统是用react+express+websocket搭建的,很模糊吧,要得就是这样的效果,我自己开了2个窗口,创建2个用户自问自答。没有什么高深的技术,对于很多想接触we ...
分类:
Web程序 时间:
2020-05-07 00:43:18
阅读次数:
136
前言 目前仅在一家公司做过大数据相关,也不太清楚其他公司情况。东家这常用的大数据离线处理基本就是sqoop导入到hive中,然后使用spark或者hive计算出结果再导出到oracle中。很多情况下是把oracle中整个表或者某个时间条件的筛选出来的数据整个删掉,再把最新的这部分数据全部导数回到or ...
分类:
数据库 时间:
2020-05-05 21:59:35
阅读次数:
102