码迷,mamicode.com
首页 > 其他好文 > 详细

HIVE优化

时间:2018-05-14 22:56:35      阅读:148      评论:0      收藏:0      [点我收藏+]

标签:pat   orm   大量   数据库   str   form   基本原则   name   table   

1.hive小文件合并
cd hive /conf/hive-default
输出合并
合并输出小文件。输出时,若是太多小文件,每个小文件会与一个block进行对应,而block存在的意义是为了方便在namenode中存储,那么过多的block将会充斥namenode的表中,待集群规模增大和运行次数增大,那么维护block的表将会过大,严重降低namenode性能。

set hive.merge.mapfiles = true #在Map-only的任务结束时合并小文件
set hive.merge.mapredfiles = true #在Map-Reduce的任务结束时合并小文件
set hive.merge.size.per.task = 256*1000*1000 #合并文件的大小
set hive.merge.smallfiles.avgsize=16000000 #当输出文件的平均大小小于该值时,启动一个独立的map-reduce任务进行文件merge
 
 
我们要做的就是设置hive.merge.smallfiles.avgsize , 这里建议设置为5000000 = 5M , 即当输出文件的平均大小小于该值时,启动一个独立的map-reduce任务进行文件merge

1.2增加reduce数量,提高hive运行速度

set mapred.reduce.tasks=10;

2.map join

如下hive sql:
select t.a,f.b from A t join B f  on ( f.a=t.a and f.ftime=20110802)  

该语句中B表有30亿行记录,A表只有100行记录,而且B表中数据倾斜特别严重,有一个key上有15亿行记录,在运行过程中特别的慢,而且在reduece的过程中遇有内存不够而报错。


为了解决用户的这个问题,考虑使用mapjoin,mapjoin的原理:

MAPJION会把小表全部读入内存中,在map阶段直接拿另外一个表的数据和内存中表数据做匹配,由于在map是进行了join操作,省去了reduce运行的效率也会高很多

这样就不会由于数据倾斜导致某个reduce上落数据太多而失败。于是原来的sql可以通过使用hint的方式指定join时使用mapjoin。

select /*+ mapjoin(A)*/ f.a,f.b from A t join B f  on ( f.a=t.a and f.ftime=20110802)
再运行发现执行的效率比以前的写法高了好多。


3.hive 索引
索引是标准的数据库技术,hive 0.7版本之后支持索引。Hive提供有限的索引功能,这不像传统的关系型数据库那样有“键(key)”的概念,用户可以在某些列上创建索引来加速某些操作,给一个表创建的索引数据被保存在另外的表中。 Hive的索引功能现在还相对较晚,提供的选项还较少。但是,索引被设计为可使用内置的可插拔的java代码来定制,用户可以扩展这个功能来满足自己的需求

3.1
hive> create table user( id int, name string)  
     ROW FORMAT DELIMITED  
     FIELDS TERMINATED BY ‘\t‘
     STORED AS TEXTFILE;


[hadoop@hadoop110 ~]$ cat h1.txt
101     zs
102     ls
103     ww
901     zl
902     zz
903     ha


hive> load data local inpath ‘/home/hadoop/h1.txt‘
      overwrite into table user;


创建索引
hive> create index user_index on table user(id)
     as ‘org.apache.hadoop.hive.ql.index.compact.CompactIndexHandler‘
     with deferred rebuild
     IN TABLE user_index_table;

hive> alter index user_index on user rebuild;

hive> select * from user_index_table limit 5;


4.
Hive是将符合SQL语法的字符串解析生成可以在Hadoop上执行的MapReduce的工具。使用Hive尽量按照分布式计算的一些特点来设计sql,和传统关系型数据库有区别,

所以需要去掉原有关系型数据库下开发的一些固有思维。
基本原则:
尽量尽早地过滤数据,减少每个阶段的数据量,对于分区表要加分区,同时只选择需要使用到的字段

select ... from A
join B
on A.key = B.key
where A.userid>10
     and B.userid<10
        and A.dt=‘20120417‘
        and B.dt=‘20120417‘;

应该改写为:
select .... from (select .... from A
                  where dt=‘201200417‘
                                    and userid>10
                              ) a
join ( select .... from B
       where dt=‘201200417‘
                     and userid < 10   
     ) b
on a.key = b.key;

 
5、对历史库的计算经验  (这项是说根据不同的使用目的优化使用方法)
   历史库计算和使用,分区

 
3:尽量原子化操作,尽量避免一个SQL包含复杂逻辑

可以使用中间表来完成复杂的逻辑   


4 jion操作   小表要注意放在join的左边(目前TCL里面很多都小表放在join的右边)。

否则会引起磁盘和内存的大量消耗

 
5:如果union all的部分个数大于2,或者每个union部分数据量大,应该拆成多个insert into 语句,实际测试过程中,执行时间能提升50%
insert overwite table tablename partition (dt= ....)
select ..... from (
                   select ... from A
                   union all
                   select ... from B
                   union all
                   select ... from C
                               ) R
where ...;

 
可以改写为:
insert into table tablename partition (dt= ....)
select .... from A
WHERE ...;
 
insert into table tablename partition (dt= ....)
select .... from B
WHERE ...;

insert into table tablename partition (dt= ....)
select .... from C
WHERE ...;

hive join

hive> create table a1(id int,name string)
    row format delimited
    fields terminated by ‘\t‘
    stored as textfile;

hive> create table a2(id int,city string)
    row format delimited
    fields terminated by ‘\t‘
    stored as textfile;

hive> create table a3(city string,level int)
    row format delimited
    fields terminated by ‘\t‘
    stored as textfile;

[hadoop@h91 ~]$ cat a1.txt
101     zs
102     ls
103     ww


[hadoop@h91 ~]$ cat a2.txt
101     bj
102     sh
109     sh

[hadoop@h91 ~]$ cat a3.txt
bj      99999
sh      11111
gz      22222


hive> load data local inpath ‘/home/hadoop/a1.txt‘ into table a1;

hive> load data local inpath ‘/home/hadoop/a2.txt‘ into table a2;

hive> load data local inpath ‘/home/hadoop/a3.txt‘ into table a3;


-----------------------------------------------------------------------
1.等连接
hive> select a1.name,a2.city from a1 join a2 on(a1.id=a2.id);

如果有多条件
hive> select a1.name,a2.city from a1 join a2 on(a1.id=a2.id and a1.id2=a2.id2);


2.多表连接
hive> select a1.name,a2.city,a3.level from a1 join a2 on(a1.id=a2.id) join a3 on(a3.city=a2.city);


3.多表外连接

左外
hive> select a1.name,a2.city from a1 left outer join a2 on(a1.id=a2.id);

右外
hive> select a1.name,a2.city from a1 right outer join a2 on(a1.id=a2.id);

全外
hive> select a1.name,a2.city from a1 full outer join a2 on(a1.id=a2.id);



4.join过滤
(先连接后 在过滤)
hive> select a1.name,a2.city from a1 join a2 on(a1.id=a2.id) where a1.id>101 and a2.id<105;

或者
hive> select a1.name,a2.city from a1 join a2 on(a1.id=a2.id and  a1.id>101 and a2.id<105);
(连接前 过滤)


5.map join
作用
1.加上map join的话先行在map段进行比较,减轻reduce的压力。
2.把小表放在前面先运行小表,然后在匹配大表,如果没有小表的字段直接就把大表遗弃。
如下hive sql:
select f.a,f.b from A t join B f  on ( f.a=t.a and f.ftime=20110802)  

该语句中B表有30亿行记录,A表只有100行记录,而且B表中数据倾斜特别严重,有一个key上有15亿行记录,在运行过程中特别的慢,而且在reduece的过程中遇有内存不够而报错。

为了解决用户的这个问题,考虑使用mapjoin,mapjoin的原理:

MAPJION会把小表全部读入内存中,在map阶段直接拿另外一个表的数据和内存中表数据做匹配,由于在map是进行了join操作,省去了reduce运行的效率也会高很多

这样就不会由于数据倾斜导致某个reduce上落数据太多而失败。于是原来的sql可以通过使用hint的方式指定join时使用mapjoin。

select /*+ mapjoin(A)*/ f.a,f.b from A t join B f  on ( f.a=t.a and f.ftime=20110802)
再运行发现执行的效率比以前的写法高了好多。


HIVE优化

标签:pat   orm   大量   数据库   str   form   基本原则   name   table   

原文地址:https://www.cnblogs.com/jieran/p/9038338.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!