码迷,mamicode.com
首页 > 数据库 > 详细

mysql数据库的基本介绍与操作(第三篇)

时间:2019-01-29 18:25:19      阅读:169      评论:0      收藏:0      [点我收藏+]

标签:记录   表结构   根据   目标   特征   知识   条件   有序   相对   

最近朋友问了我一个问题:怎样将2000万数据从一个mysql数据库A1的表B实时累加同步到另外一个mysql库A2表B?

这个问题我没遇到过,因此根据自己查看掌握的sql进行了这方面的性能测试,并且积累记录了sql优化的一些基础知识.

前提条件:以上说的库表A1与A2的表结构都一摸一样,两张表的主键为ID,具有自动递增属性.

同步思路很简单,如下:

第一步:创建源库A1与目标库A2的连接,对应的连接分别为源库连接a1conn与目标库连接a2conn.

第二步:通过目标库a2conn查询获取到A2库中B表的最大ID号sourcemaxid.

第三步:通过目标库a1conn查询获取到A1库中B表的最大ID号targetmaxid.

第四步:根据sourcemaxid与localmaxid的差值recordcount取得每次实时同步多少条(此处已经做了差值非负判断,因为可能存在他人动表,

           源的数据被删除或者目标库表数据新增的问题,因此同步的时候后).

第五步:怎样去从recordcount条数据中去查询取数据呢? 我用了以下两个方法,对比发现,差距很大.

第一种方法:sql为select * from 源表B order by 源表id limit localmaxid,250;  ----该sql每次取300后同步成功后,localmaxid值加250.

该sql的执行耗时:

第一次:技术分享图片

第二次:技术分享图片

第三次:技术分享图片

 

第二种方法: sql为select * from  源表B where ID>localmaxid order by ID limit 250;---------该sql每次取300后同步成功后,localmaxid值加300.

第一次:技术分享图片

第二次:技术分享图片

第三次:技术分享图片

对以上两种不同的同步sql的执行的时间消耗进行对比,发现后者远远耗时远远小于前者,这是什么原因?原因如下,接下来也将开始我的sql优化之旅.

从第一种三次运行效果看localmaxid越大,耗时越长,要想知道原因,必须清楚limit分页操作是如何运行的.

LIMIT 子句用于强制 SELECT 语句返回指定的记录数.LIMIT 接受一个或两个数字参数,参数必须是一个整数常量.如果给定两个参数,第一个参数指定

第一个返回记录行的偏移量(offset),第二个参数指定返回记录行的最大数目(length).初始记录行的偏移量是 0(而不是 1) ,以上的localmaxid就是limit偏移量.

sql执行的逻辑:

1.从数据表中读取第N条数据添加到数据集中(N的取值范围为1到localmaxid+250)

2.重复第一步直到N从1变为localmaxid+250,也就是这样的动作重复了localmaxid+250次.

3.根据localmaxid(offset)抛弃数据集中的前面localmaxid(offset)条数据.

4.返回剩余的250(length)条数据.

从以上三步可以看出,sql的耗时主要在第二步,因为第二步获取多余的localmaxid条数据对本次查询无任何意义,但却占据了大部分的查询时间.

具体原因如下:

首先,数据库的数据存储并不是像我们想象中那样,按表顺序存储数据,按表按顺序存储数据,一方面是因为计算机存储本身就是随机读写,另一方

面是因为数据的操作有很大的随机性,即使一开始数据的存储是有序的,经过一系列的增删查改之后也会变得凌乱不堪. 所以数据库的数据存储

是随机的,使用 B+Tree,Hash 等方式组织索引. 所以当你让数据库读取第5000001 条数据的时候,数据库就只能一条一条的去查去数.

从第二种的运行结果看,sql的运行效率比第一种提高了近千倍,原因如下:
该sql用到了自增索引ID,由于普通搜索是全表搜索,适当的添加 WHERE 条件就能把搜索从全表搜索转化为范围搜索, 大大缩小搜索的范围,
从而提高搜索效率.
sql运行逻辑:
1.使用索引列ID进行order by排序
2.根据localmaxid过滤掉前面的localmaxid条数据,直接定位到第localmaxid+1条数据
3.再从localmaxid+1开始连续取250条数据直接返回.
第二种方法的sql属于简单sql,虽然已经解决了同步的问题,将时间缩短了几十倍不等,同步2000万数据只需要3小时,但是该sql查询简单,
只有一个主键id作为查询过滤条件,没有任何附加查询条件,如果需要一些额外的查询条件,这个方法就行不通了.
(局限性:首先必须要有自增索引列,而且数据在逻辑上必须是连续的.其次,你还必须知道特征值)
sql优化的知识还待继续......
补充知识:
从拥有2000万条数据的表中取出指定用户号的记录
sql1:select * from visit where visitNo=182098888;执行结果如下:
技术分享图片
sql2:select * from visit where ID in (select ID from visit where visitNo=18209888),执行结果如下:
 技术分享图片
sql3:select * from visit inner join ( select ID from visit where visitNo=18209888) b using (ID)
技术分享图片

 sql2中的子查询只取到了索引列,没有取实际的数据,所以不涉及到磁盘IO,利用子查询的方式,把原来的基于visitNo的搜索转化为

 基于主键(id)的搜索,主查询因为已经获得了准确的索引值,所以查询过程也相对较快,将sql2中的in替换为sql3中的内关联inner join,效果更好点.

 再补充:对visit表中的visitNo字段创建索引:create index index_visitNo on visit (visitNo),再次执行sql1,执行效果如下:

 技术分享图片

  从执行结果可以看出:当给筛选字段visitNo添加索引之后,查询速率就是微秒级,可见索引的魅力.

 

  

 

 

            

mysql数据库的基本介绍与操作(第三篇)

标签:记录   表结构   根据   目标   特征   知识   条件   有序   相对   

原文地址:https://www.cnblogs.com/renwujie/p/10331423.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!