码迷,mamicode.com
首页 > 数据库 > 详细

【SQL Server性能优化】删除大量数据的方法比较

时间:2019-12-11 00:06:11      阅读:160      评论:0      收藏:0      [点我收藏+]

标签:原创文章   release   导致   link   drop   pcl   完成   select   处理   

原文:【SQL Server性能优化】删除大量数据的方法比较


如果你要删除表中的大量数据,这个大量一般是指删除大于10%的记录,那么如何删除,效率才会比较高呢? 而如何删除才会对系统的影响相对较小呢?


下面先做一个实验,然后对这个实验的结果进行分析,然后得出结论。


1、创建数据库

  1. use master
  2. go
  3. if exists(select * from sys.databases where name = ‘test‘)
  4. drop database test
  5. go
  6. create database test
  7. go

2、创建表

  1. use test
  2. go
  3. if exists(select * from sys.tables where name = ‘t‘)
  4. drop table t
  5. go
  6. create table t(i int,v varchar(100) default replicate(‘a‘,100)
  7. ,vv varchar(100) default replicate(‘a‘,100),
  8. vvv varchar(100) default replicate(‘a‘,100));

3、插入数据

用下面的代码添加100000条记录,消耗9秒:

  1. declare @i int;
  2. set @i = 1
  3. begin tran
  4. while @i <= 100000
  5. begin
  6. insert into t(i) values(@i)
  7. set @i = @i + 1
  8. end
  9. commit tran

而如果用下面的代码,添加100000条记录,消耗43秒:

  1. declare @i int;
  2. set @i = 1
  3. while @i <= 100000
  4. begin
  5. begin tran
  6. insert into t(i) values(@i) --没执行一次就提交一次,效率较差
  7. commit tran
  8. set @i = @i + 1
  9. end

重复插入数据,消耗1分38秒

  1. insert into t
  2. select *
  3. from t
  4. go 6

最后总共插入了640万条数据。


4、建立索引

create index idx_t_idx1 on t(i)

5、进行如下设置,是为了预防SQL Server使用太多内存,而导致死机

  1. sp_configure ‘show advanced option‘,1
  2. go
  3. reconfigure
  4. go
  5. sp_configure ‘max server memory (MB)‘,3584
  6. go
  7. reconfigure
  8. go

6、把上面创建的表t数据,复制成t1和t2两个表,对t1表建立索引

  1. if exists(select * from sys.tables where name = ‘t1‘)
  2. drop table t1
  3. go
  4. select * into t1
  5. from t
  6. create index idx_t1_idx1 on t1(i)
  7. go
  8. if exists(select * from sys.tables where name = ‘t2‘)
  9. drop table t2
  10. go
  11. select * into t2
  12. from t

7、对t1表进行删除操作,一次删除1000个数,每个数有64条,所以每次删除64000条。共删除1000次,所以删除640000条记录,总耗时82秒

  1. dbcc dropcleanbuffers
  2. go
  3. declare @i int = 20000;
  4. declare @start_time datetime;-- = getdate();
  5. while @i <30000
  6. begin
  7. set @start_time = GETDATE();
  8. delete from t1 where I>=@i and i<=@i + 999
  9. set @i += 1000
  10. select DATEDIFF(second,@start_time,getdate())
  11. end

8、删除t2表的数据,耗时44秒

  1. delete from t2
  2. where I>= 20000 and i<30000


通过上面的测试发现:

 

1、在大量插入操作时,在完成操作后再提交,比每次插入操作后马上就提交,效率要高。

 

2、在删除大量数据时,就算运用索引,甚至同时运用索引和分批操作,效率也不如不用索引,直接通过表扫描删除来的高。  


但表扫描的问题是会锁住整个表,阻塞其他事务,导致系统业务大面积瘫痪。

所以,虽然通过直接的删除方法会速度快,但如果通过索引和分批处理,那么只会锁定需要删除的一批数据,而其他的数据则不会锁定,那么导致的阻塞问题就小多了。

 

3、所以结合上面的2点,当大批量操作时,如果最后提交,那么整个操作效率更高,但是可能会导致阻塞的问题,因为不及时提交,会导致其他事务都被阻塞。


同样的,通过直接删除效率可能更高,但会锁表,会导致严重的阻塞问题,而通过索引和分批处理,虽然效率不是太高,但可以分批处理,相当于分批提交,而每一批都通过索引,只锁住需要处理的记录,而其他的记录都不会锁住,那么就不太会导致阻塞的问题。


所以,大批量的删除操作,如果通过全表扫描,适合在晚上系统比较空闲的维护时间内进行;而如果一定要在白天执行,那么可以考虑通过索引和分批处理,来减少阻塞的问题,但还是会对系统产生一定的影响,特别是内存方面。


发布了416 篇原创文章 · 获赞 135 · 访问量 94万+

【SQL Server性能优化】删除大量数据的方法比较

标签:原创文章   release   导致   link   drop   pcl   完成   select   处理   

原文地址:https://www.cnblogs.com/lonelyxmas/p/12019953.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!