标签:
如果开发人员在做表设计阶段没有考虑到大表历史数据的维护性,随着数据量越来越大,表就越来越难管理和维护.连创建索引的失败都可能会失败(因为创建索引要利用临时表空间的的排序,当临时表空间不够大创建索引的动作就会报错).如果过滤条件用不到索引,每成功完成一次delete操作就需要全表扫描一次...那么几十GB的大表,情何以堪...?
那么有什么方法可以解决这种问题吗?当然改造生产表是可以的(利用DBMS_REDEFINITION在线重定义的方法可以很好的控制阻塞时间)再者可以利用游标获取结果集每行的ROWID,然后用ROWID去匹配记录,游标是处理一行之后读取下一条再处理,直至所有记录处理完为止。这种方式能够利用ROWID快速找到记录的物理位置,因为ROWID能够标识每条记录的物理位置(文件号,块号,行号)。
例如,要删除tabA表2014-01-01 至2014-06-01之间的数据
简要的思路可以参考如下代码:
<span style="font-size:14px;">declare cursor c1 is select rowid from tabA where col > '2014-01-01' and col < '2014-06-01'; v_rowid varchar2(18); begin v_num := 0; open c1; fetch c1 into v_rowid; while c1%found loop v_num := v_num +1; execute immediate 'delete from tabA where rowid= :1' using v_rowid; IF (mod(v_num, 100000) = 0) THEN COMMIT; END IF; fetch c1 into v_rowid; end loop; close c1; end;</span>
以上代码:先声明游标,将满足条件的条目ROWID保存于游标,打开游标,从游标逐条抽取进行删除,直至全部删除为止,每10万行提交一次,最后关闭游标。
道行尚浅,欢迎拍砖。
标签:
原文地址:http://blog.csdn.net/robo23/article/details/43884865