码迷,mamicode.com
首页 > 数据库 > 详细

Mysql第八天 分区与分表

时间:2017-06-14 22:26:11      阅读:245      评论:0      收藏:0      [点我收藏+]

标签:添加   最好   匹配   order by   时间   自增   成本   数据   number   

分区表

主要提供例如以下的特性,或者适合如此场景:

  • 数据量非常大, 或者仅仅有表中最后的部分有热点数据。其它均为历史数据
  • 分区表数据更easy维护,能够对独立的分区删除等操作
  • 分区表的数据能够分布在不同的物理设备上。从而高效地利用多个硬件设备。
  • 能够避免一些特殊瓶颈。比方InnoDB的单个索引的相互排斥訪问
  • 能够备份和恢复独立的分区

创建分区表

通常有这么几种分法。由于主键或者是唯一约束键必须有一部分包括在分区键中,所以一般要不无主键,要不就依照自增主键的id进行范围分区,要不就把分区字段和主键一起作为联合主键。
另一些其它的限制,比方分区键的运算结果必须为整数

Range分区

CREATE TABLE biz_order(
id bigint(20) NOT NULL AUTO_INCREMENT,
created DATETIME NOT NULL COMMENT ‘创建时间‘,
PRIMARY KEY (id, created)) ENGINE=InnoDB PARTITION BY RANGE(YEAR(created))(
  PARTITION p_2010 VALUES LESS THAN (2015),
  PARTITION p_latest VALUES LESS THAN MAXVALUE);

这样的分区。最新的那个区显然会有最多的热点数据。 能够再使用Hash子分区来降低竞争
- 除了使用YEAR, TO_DAY等日期函数外。还能够使用其数学函数。比方取模,按7取模是周几等

List分区

是用IN来做列值匹配的集合。

比方能够依照地区来分为东西南北几个区:

PARTITION BY LIST(store_id)
    PARTITION pNorth VALUES IN (3,5,6,9,17),
    PARTITION pEast VALUES IN (1,2,10,11,19,20),
    PARTITION pWest VALUES IN (4,12,13,14,18),
    PARTITION pCentral VALUES IN (7,8,15,16)
);

这样的假设插入语句不在IN中。则会插入失败

Hash分区

PARTITIONS为分区的数量。 即会依据分区键的值计算出一个hash值,然后以4为模进行存储。优点是。不用再又一次建分区了。

PARTITION BY HASH(store_id)
PARTITIONS 4;

还有Key分区,用的太少,不说了

操作分区表

添加删除分区等语句看这里

分区表由多个底层表构成,底层表跟普通表没什么差别,其索引也是分别在各个表中的索引。 分区表仅仅是会在一个非常粗的粒度上决定一下去哪个底层表继续查询。

  • SELECT 锁住底层表。优化器先推断能够过滤部分的分期,然后再调用存储引擎接口訪问各个分区
  • INSERT DELETE同行
  • UPDATE 操作会须要设计更新后推断在哪个分区,假设插入到了新分区。那么则删除原分区中的数据。
  • 使用WHERE语句最好能够明白用到分区的关键字,这样能够非常好的命中分区
  • 锁住底层表不一定是表锁。会用到存储引擎自己的行级锁

怎样使用

使用分区表肯定是由于数据量非常大。这个时候索引已经不能非常好的起作用了。
能够不使用索引,而用粗粒度的命中分区表,然后全表扫描。

或者是针对热点数据。单独使用一个区让这个区都能够放到缓存中,这样就会有一个热点的非常小的分区,能够对其使用索引。

另外一些可能的问题:

  • NULL值。由于TO_DAY等方法NULL值为无效入參,会把值放在第一个分区,这个时候SELECT的时候可能会须要查找第一个和命中的分区这样两个分区。这样可能会有非常多的性能损耗。解决的方法是使第一个分区尽可能的小。第二个办法是直接使用RANGE COLUMNS()而不使用函数
  • 分区列和索引列应该用同一个列。假设不是,会导致无法过滤的问题
  • 寻找分区的成本可能会比較高
  • 维护分区的成本,比方alter等语句改变分区个数,或者其它涉及数据迁移的操作

分区表的查询

要在WHERE后面带分区列,且不能是表达式
使用EXPLAIN PARTITIONS SELECT来推断是否进行了分区过滤

分表

分区表还是一张表,是一种逻辑上的实现,主要解决的是单表数据过大。索引效率低的问题,非常适合大量历史数据,少量活跃数据的场景。

把数据保存在不同的区域。

分表是真的有多张表。基于分表还能够做分库,能够提升并发性能。以及磁盘I/O的性能。

二者能够配合使用。

使用集群的方式

要配合复制使用。仅仅是把查询请求进行了分摊。
可是这样不会影响代码层。

使用业务逻辑划分

可一个依据用户id来分,每一个用户一张表,这样须要每有新的用户都建表了。

还有经常使用的做法是预先设计好比方100张表,然后对数据的一个字段做hash,然后对100取模。

又或者依据时间来进行切割,这样的的优点是,假设依据时间做统计的时候能够不用UNION

上面的分表方式都不能解决依据server压力进行选择的问你,而且也不能比較均匀的保存数据。

分表之后要考虑这样几个操作以后可能会带来的问题:

  • 分页, 主要看分页情况下排序的字段是什么,假设是时间,那么依照时间段分表是比較好的, 假设会涉及到多个表的UNION,那么就会比較耗费性能。
  • 插入。 更新。 主要是更新的时候的主键的问题。由于分表之后主键不唯一了,因此须要用分表列和自增列做联合主键。
  • 分组。统计。 这个跟分页考虑的情况差点儿相同,也是主要涉及排序的问题。比方假设每次都是须要依照用户统计信息的话,那么依照用户分表的选择是没错的。
  • 表的分发跟业务非常比較大的关系。要尽量考虑比較多的因素和场景。
  • 通用一些的解决的方法是。对分页字段使用搜索引擎
  • 或者对分页和排序字段单独列一张表不分,作为查询的索引。

使用merge存储引擎

基本表:
CREATE TABLE TEST_MERGE_1(
ID INT(5) NOT NULL,
VALUE VARCHAR(100) NOT NULL,
PRIMARY KEY(ID)
);
CREATE TABLE TEST_MERGE_2(
ID INT(5) NOT NULL,
VALUE VARCHAR(100) NOT NULL,
PRIMARY KEY(ID)
);
MERGE表:
CREATE TABLE TEST_MERGE(
ID INT(5) NOT NULL,
VALUE VARCHAR(100) NOT NULL,
PRIMARY KEY(ID)
) TYPE=MRG_MyISAM INSERT_METHOD=LAST UNION=(TEST_MERGE_1,TEST_MERGE_2);

基本表必须是MYISAM类型的。
基本表的数据结构必须一致。
order by等语句,我想的是由于Merge表里有基本表共同的索引,所以,排序的时候应该是,都先比較第一个,然后再。。。有点像经常使用的大文件分成多个小文件,然后分别排序。最后merge的过程。

主要是能够提供比較好的编码界面。

Mysql第八天 分区与分表

标签:添加   最好   匹配   order by   时间   自增   成本   数据   number   

原文地址:http://www.cnblogs.com/gavanwanggw/p/7011089.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!