标签:lint cas 收集 jdbc sorted by 业务 适合 显示 基础上
Hive数据类型 | Java数据类型 | 长度 |
---|---|---|
TINYINT | byte | 1byte有符号整数 |
SMALINT | short | 2byte有符号整数 |
INT | int | 4byte有符号整数 |
BIGINT | long | 8byte有符号整数 |
BOOLEAN | boolean | 布尔类型,true或者false |
FLOAT | float | 单精度浮点数 |
DOUBLE | double | 双精度浮点数 |
STRING | string | 字符系列。可以指定字符集。可以使用单引号或者双引号。 |
TIMESTAMP | 时间类型 | |
BINARY | 字节数组 |
对于Hive
的String
类型相当于数据库的varchar
类型,该类型是一个可变的字符串,不过它不能声明其中最多能存储多少个字符,理论上它可以存储2GB的字符数。
数据类型 | 描述 | 语法示例 |
---|---|---|
STRUCT | 和c语言中的struct类似,都可以通过“点”符号访问元素内容。例如,如果某个列的数据类型是STRUCT{first STRING, last STRING},那么第1个元素可以通过字段.first来引用。 | struct() 例如struct<street:string, city:string> |
MAP | MAP是一组键-值对元组集合,使用数组表示法可以访问数据。例如,如果某个列的数据类型是MAP,其中键->值对是’first’->’John’和’last’->’Doe’,那么可以通过字段名[‘last’]获取最后一个元素 | map() 例如map<string, int> |
ARRAY | 数组是一组具有相同类型和名称的变量的集合。这些变量称为数组的元素,每个数组元素都有一个编号,编号从零开始。例如,数组值为[‘John’, ‘Doe’],那么第2个元素可以通过数组名[1]进行引用。 | Array() 例如array |
Hive
有三种复杂数据类型ARRAY
、MAP
和STRUCT
。ARRAY
和MAP
与Java
中的Array
和Map
类似,而STRUCT
与C
语言中的Struct
类似,它封装了一个命名字段集合,复杂数据类型允许任意层次的嵌套。
① 假设某表有如下一行,我们用JSON
格式来表示其数据结构。在Hive
下访问的格式为
{
"name": "songsong",
"friends": ["bingbing" , "lili"] , //列表Array,
"children": { //键值Map,
"xiao song": 18 ,
"xiaoxiao song": 19
}
"address": { //结构Struct,
"street": "hui long guan" ,
"city": "beijing"
}
}
② 基于上述数据结构,我们在Hive
里创建对应的表,并导入数据。 创建本地测试文件test.txt
songsong,bingbing_lili,xiao song:18_xiaoxiao song:19,hui long guan_beijing
yangyang,caicai_susu,xiao yang:18_xiaoxiao yang:19,chao yang_beijing
③ Hive
上创建测试表test
create table test(
name string,
friends array<string>,
children map<string, int>,
address struct<street:string, city:string>
)
row format delimited fields terminated by ‘,‘
collection items terminated by ‘_‘
map keys terminated by ‘:‘
lines terminated by ‘\n‘;
字段解释:
row format delimited fields terminated by ‘,‘
:列分隔符
collection items terminated by ‘_‘
:MAP STRUCT
和ARRAY
的分隔符(数据分割符号)
map keys terminated by ‘:‘
:MAP
中的key
与value
的分隔符
lines terminated by ‘\n‘;
:行分隔符
Hive
的原子数据类型是可以进行隐式转换的,类似于Java
的类型转换,例如某表达式使用INT
类型,TINYINT
会自动转换为INT
类型,但是Hive
不会进行反向转化,例如,某表达式使用TINYINT
类型,INT
不会自动转换为TINYINT
类型,它会返回错误,除非使用CAST
操作。
隐式类型转换规则:
TINYINT
可以转换成INT
,INT
可以转换成BIGINT
FLOAT
和STRING
类型都可以隐式地转换成DOUBLE
TINYINT
、SMALLINT
、INT
都可以转换为FLOAT
BOOLEAN
类型不可以转换为任何其它的类型可以使用CAST
操作显示进行数据类型转换
例如CAST(‘1‘ AS INT)
将把字符串‘1‘ 转换成整数1;如果强制类型转换失败,表达式返回空值NULL
。
0: jdbc:hive2://hadoop102:10000> select ‘1‘+2, cast(‘1‘as int) + 2;
创建数据库:
CREATE DATABASE [IF NOT EXISTS] database_name
[COMMENT database_comment]
[LOCATION hdfs_path]
[WITH DBPROPERTIES (property_name=property_value, ...)];
字段解释:
[IF NOT EXISTS]
:数据库如果存在,则不新增
[COMMENT database_comment]
:添加数据库相关注释
[LOCATION hdfs_path]
:指定数据库在HDFS
上存储的位置,默认位置为/user/hive/warehouse/*.db
显示数据库: show databases;
过滤显示查询的数据库:show databases like ‘db_hive*‘;
显示数据库信息: desc database db_hive;
切换当前数据库: use db_hive;
修改数据库:
数据库的其他元数据信息都是不可更改的,包括数据库名和数据库所在的目录位置。
hive (default)> alter database db_hive set dbproperties(‘createtime‘=‘20170830‘);
删除数据库: drop database db_hive2;
删除非空数据库: drop database db_hive cascade;
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
[(col_name data_type [COMMENT col_comment], ...)]
[COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
[CLUSTERED BY (col_name, col_name, ...)
[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]
[ROW FORMAT row_format]
[STORED AS file_format]
[LOCATION hdfs_path]
[TBLPROPERTIES (property_name=property_value, ...)]
[AS select_statement]
字段解释:
IF NOT EXISTS
选项来忽略这个异常LOCATION
)。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据SEQUENCEFILE
(二进制序列文件)、TEXTFILE
(文本)、RCFILE
(列式存储格式文件)。如果文件数据是纯文本,可以使用STORED AS TEXTFILE
。如果数据需要压缩,使用STORED AS SEQUENCEFILE
。HDFS
上的存储位置内部表:
默认创建的表都是所谓的管理表,有时也被称为内部表,Hive
会控制着数据的生命周期。Hive
默认情况下会将这些表的数据存储在由配置项hive.metastore.warehouse.dir
所定义的目录的子目录下。当我们删除一个管理表时,Hive
也会删除这个表中数据。管理表不适合和其他工具共享数据。
普通创建表:create table if not exists student( id int, name string)
查询表的类型:
hive (default)> desc formatted student;
Table Type: MANAGED_TABLE
外部表:
因为表是外部表,所以Hive
并非认为其完全拥有这份数据。删除该表并不会删除掉这份数据,不过描述表的元数据信息会被删除掉。
创建外部表:create external table if not exists student( id int, name string)
查询表的类型:
hive (default)> desc formatted student;
Table Type: EXTERNAL_TABLE
管理表和外部表的使用场景:
每天将收集到的网站日志定期流入HDFS
文本文件。在外部表(原始日志表)的基础上做大量的统计分析,用到的中间表、结果表使用内部表存储,数据通过SELECT+INSERT
进入内部表。
管理表与外部表的互相转换:
修改表为外部表:alter table student set tblproperties(‘EXTERNAL‘=‘TRUE‘);
修改表为管理表:alter table student set tblproperties(‘EXTERNAL‘=‘FALSE‘);
分区表实际上就是对应一个HDFS
文件系统上的独立的文件夹,该文件夹下是该分区所有的数据文件。Hive
中的分区就是分目录,把一个大的数据集根据业务需要分割成小的数据集。在查询时通过WHERE
子句中的表达式选择查询所需要的指定的分区,这样的查询效率会提高很多。
创建分区表:
hive (default)> create table dept_partition(
deptno int, dname string, loc string
)
partitioned by (month string)
row format delimited fields terminated by ‘\t‘;
注意:分区字段不能是表中已经存在的数据,可以将分区字段看作表的伪列。
加载数据到分区表中:
hive (default)> load data local inpath ‘/opt/module/datas/dept.txt‘ into table default.dept_partition partition(month=‘201709‘);
查询分区表中数据:hive (default)> select * from dept_partition where month=‘201709‘;
增加分区:hive (default)> alter table dept_partition add partition(month=‘201706‘) ;
删除分区:hive (default)> alter table dept_partition drop partition (month=‘201704‘);
查看分区表有多少分区:hive> show partitions dept_partition;
查看分区表结构:
hive> desc formatted dept_partition;
# Partition Information
# col_name data_type comment
month string
重命名表:ALTER TABLE table_name RENAME TO new_table_name
添加列:hive (default)> alter table dept_partition add columns(deptdesc string);
更新列:hive (default)> alter table dept_partition change column deptdesc desc int;
删除表:hive (default)> drop table dept_partition;
清除表数据:hive (default)> truncate table student;
①Insert导出
将查询的结果导出到本地:
hive (default)> insert overwrite local directory ‘/opt/module/datas/export/student‘
select * from student;
将查询的结果格式化导出到本地:
hive(default)>insert overwrite local directory ‘/opt/module/datas/export/student1‘
ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t‘ select * from student;
将查询的结果格式化导出到本地:
hive(default)>insert overwrite local directory ‘/opt/module/datas/export/student1‘
ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t‘ select * from student;
②Hadoop命令导出到本地
hive (default)> dfs -get /user/hive/warehouse/student/month=201709/000000_0
/opt/module/datas/export/student3.txt;
③Hive Shell 命令导出
[root@hadoop100 hive]$ bin/hive -e ‘select * from default.student;‘ >
/opt/module/datas/export/student4.txt;
④Export导出到HDFS上
(defahiveult)> export table default.student to
‘/user/hive/warehouse/export/student‘;
⑤Sqoop导出
①向表中装载数据(Load)
语法:
hive> load data [local] inpath ‘/opt/module/datas/student.txt‘ [overwrite] into table student
[partition (partcol1=val1,…)];
Hive
表;否则从HDFS
加载数据到Hive
表②通过查询语句向表中插入数据(Insert)
hive (default)> insert overwrite table student partition(month=‘201708‘)
select id, name from student where month=‘201709‘;
insert into
:以追加数据的方式插入到表或分区,原有数据不会删除
insert overwrite
:会覆盖表或分区中已存在的数据
③查询语句中创建表并加载数据(As Select)
create table if not exists student3
as select id, name from student;
④创建表时通过Location指定加载数据路径
hive (default)> create external table if not exists student5(
id int, name string
)
row format delimited fields terminated by ‘\t‘
location ‘/student;
⑤Import数据到指定Hive表中
hive (default)> import table student2 partition(month=‘201709‘) from
‘/user/hive/warehouse/export/student‘;
标签:lint cas 收集 jdbc sorted by 业务 适合 显示 基础上
原文地址:https://www.cnblogs.com/hucheng1997/p/13131919.html