本文已经发表在ITPUB优化技术丛书,未经许可,不得转载。
本文已经发表在ITPUB优化技术丛书,未经许可,不得转载。
1.1. 第三次优化——拆分DELETE操作首先,我尝试从临时表 temp_mid_hubei 中取出一行记录:
SQL> select mid ,rowid from temp_mid_hubei where rownum=1;
MID ROWID
-------------- ------------------
00046000019808 AAAngMAGkAAA5SkAAA
Elapsed: 00:00:00.01
SQL>
然后,再根据条件在SSF表中删除相应的记录,看看需要多长时间:
SQL> DELETE from SSF WHERE mid='00046000019808';
1 rows deleted.
Elapsed: 00:00:00.01
SQL>
请注意,这样的操作执行几乎瞬间就可以完成,于是开始拆分DELETE的思路就应运而生:
1) 首先取出临时表中的一行(包括ROWID)
2) 根据关键字在大表SSF中删除一行数据(使用唯一索引)
3) 根据最初记录的ROWID将这条记录从临时表中删除(以避免重复比较)
我修改了存储过程,如下:
CREATE OR REPLACE PROCEDURE DEL_HUBEI_SSF
AS
v_i NUMBER (10);
v_mid VARCHAR2 (30) := '';
v_row ROWID;
BEGIN
-- v_i:=10000;
SELECT COUNT (*)
INTO v_i
FROM temp_mid_hubei_bak;
WHILE v_i > 0
LOOP
SELECT mid, ROWID
INTO v_mid, v_row
FROM temp_mid_hubei_bak
WHERE ROWNUM = 1;
DELETE FROM SSF
WHERE mid = v_mid;
DELETE FROM temp_mid_hubei_bak
WHERE ROWID = v_row;
COMMIT;
v_i := v_i - 1;
END
LOOP;
DBMS_OUTPUT.put_line ('Full Finished!!!');
DBMS_OUTPUT.put_line ( 'Totally '
|| TO_CHAR (v_i)
|| ' records deleted from hubei_SSF !!!'
);
END;
当然,实际操作的时候,由于这次任务中有几类的操作都需要用到临时表temp_mid_hubei,因此,在操作之前需要使用CTAS(create table … as select … )将该表做个备份。
经过测试,使用这种方法删除10000条数据,需要大概1分钟时间,于是准备启用这个方法来完成任务。
可是这样的操作也远远不能满足要求,因为删除10万行记录,并不意味着需要10*1分钟=10分钟,而是需要大约30多分钟!!
看来,上一个方法的问题(大量操作的时间会成倍增长于少量操作的时间)再一次体现出来,于是,想到了第四次优化——使用FORALL 处理批量作业。