实时数据 →文件系统(Linux文件系统、HDFS等) →Hive 导入到hive,Load。(转成相应的hive表,导入后可直接使用HiveSQL查询) hive的内容分两部分:元数据、数据。 其中数据是存在HDFS中,元数据存在mysql中。 Hive数据仓库 Hive/mysql/HDFS关系 ...
分类:
其他好文 时间:
2021-04-26 13:27:01
阅读次数:
0
基于Hadoop的sqoop组件的部署 什么是 Sqoop Sqoop 是一款开源的工具,主要用于在 Hadoop(Hive)与传统的数据库(mysql、postgresql...) 间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres 等)中的 数据导 ...
分类:
其他好文 时间:
2021-04-26 13:03:24
阅读次数:
0
#计算Spark StorageMemory Heap内存 tag: Spark, Spark Memory, Spark Storage Memory 2021-04-23 21:26:25 星期五 version: spark-2.4.5 Executor 进程 org.apache.spark ...
分类:
其他好文 时间:
2021-04-24 13:38:45
阅读次数:
0
1、改成本地模式 . val conf = new SparkConf().setAppName("ScalaWordCount").setMaster("local") 2、编写入参 传参 ...
分类:
其他好文 时间:
2021-04-24 13:30:06
阅读次数:
0
kafka功能简单测试 启动zookeeper 启动zk命令: ./zhServer.sh start 启动akfka(注意server.properties的配置) 启动akfka命令:./kafka-server-start.sh /home/hadoop/app/kafka_2.11-0.9. ...
分类:
其他好文 时间:
2021-04-24 13:16:11
阅读次数:
0
不多BB,直接开干!!! 第一步:进入hive安装目录下面的conf目录,修改hive-site.xml文件 cd /opt/module/hive/conf vim hive-site.xml 第二步:修改如下内容 <property> <name>javax.jdo.option.Connect ...
分类:
其他好文 时间:
2021-04-24 11:50:36
阅读次数:
0
1. 用Pyspark自主实现词频统计过程。 >>> s = txt.lower().split()>>> dd = {}>>> for word in s:... if word not in dd:... dd[word] = 1... else:... dd[word] = dic[word] ...
分类:
其他好文 时间:
2021-04-23 12:19:08
阅读次数:
0
>>> s = txt.lower().split()>>> dd = {}>>> for word in s:... if word not in dd:... dd[word] = 1... else:... dd[word] = dic[word] + 1...>>> ss = sorted( ...
分类:
其他好文 时间:
2021-04-23 12:18:32
阅读次数:
0
1. 用Pyspark自主实现词频统计过程。 >>> s = txt.lower().split()>>> dd = {}>>> for word in s:... if word not in dd:... dd[word] = 1... else:... dd[word] = dic[word] ...
分类:
其他好文 时间:
2021-04-23 12:10:50
阅读次数:
0
一、词频统计: 读文本文件生成RDD lines 将一行一行的文本分割成单词 words flatmap() 全部转换为小写 lower() 去掉长度小于3的单词 filter() 去掉停用词 转换成键值对 map() 统计词频 reduceByKey() 按字母顺序排序 按词频排序 10、结果文件 ...
分类:
其他好文 时间:
2021-04-23 12:06:34
阅读次数:
0