标签:
hive -d name=zhangsan
hive --define name=zhangsan
hive -d a=1 -d b=2
hive --hivevar a=1 --hivevar b=2
set name;
set name=zhangsan;
set hivevar:name;
set hivevar:name=zhangsan;
create table ${a} ($(b) int);
hive --hiveconf hive.cli.print.current.db=true --hiveconf hive.cli.print.header=true
hive --hiveconf hive.root.logger=INFO,console
hive --hiveconf hive.metastore.warehouse.dir=/hive/$USER
set hive.cli.print.header;
set hive.cli.print.header=false;
set sytem:user.name;
create table ${system:user.name} (a int);
set env:USER;
set env:HADOOP_HOME;
create table ${env:USER} (${env:USER} string);
hive --hiveconf hive.root.logger=DEBUG,console
set hive.cli.print.current.db=true;
set hive.cli.print.header=true;
create table t1 (id int) clustered by (id) into 4 buckets;
set hive.enforce.bucketing=true;
insert into table t1 select * from t2;
set hive.exec.dynamic.partition=true #开启动态分区
set hive.exec.dynamic.partition.mode=nostrict #动态分区模式:strict至少要有个静态分区,nostrict不限制
set hive.exec.max.dynamic.partitions.pernode=100 #每个mapper节点最多创建100个分区
set hive.exec.max.dynamic.partitions=1000 #总共可以创建的分区数
set hive.mapred.mode=strict
set hive.exec.compress.intermediate=true;
setmapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.SnappyCodec; #设置中间数据的压缩算法,默认是org.apache.hadoop.io.compress.DefaultCodec
set hive.exec.compress.output=true;
set mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.GzipCodec #设置输出数据的压缩算法,使用GZip可以获得更好的压缩率,但对mapreduce而言是不可分隔的
set mapreduce.output.fileoutputformat.compress.type=BLOCK; #如果输出的是SequenceFile,则使用块级压缩
set hive.archive.enabled=true;
标签:
原文地址:http://www.cnblogs.com/lishouguang/p/4560756.html