暂无图片
分享
Jack.Li
2019-06-27
IMPDP 开启归档模式下如何提高导入速度

现有一套DB 单示例环境,存储使用本地flash卡存储。非归档模式下使用IMPDP导入300GB的数据,用时21分钟。  在开启归档模式下使用IMPDP导入耗时4小时以上。


由于后期此DB需搭建成DG主库,所以必须开启归档模式。 请问有没有在归档模式下加快导入的方案

收藏
分享
11条回答
默认
最新
Kay

1、开启impdp 并行选项parallel=N (N为并行度)

2、增加主库日志组大小以及组数

3、12c环境下,在导入时可以禁用redo日志

transform=disable_archive_logging:Y


暂无图片 评论
暂无图片 有用 0
文成

如果21分钟可以满足需求的话,你可以关闭归档导入后再开启归档啊

暂无图片 评论
暂无图片 有用 0
Jack.Li

现在dg还未搭建,dg搭建起来后,如何保证我主库的导入速度和非归档模式下一样?


我这边系统迁移的第一部分是先搭建DG环境,然后才是迁移数据(整个导出导入时间必须控制在一个小时内),做系统切换。

暂无图片 评论
暂无图片 有用 0
文成

感觉按照kay的方案达不到你的要求,可以先测试一下,禁用redo,是否影响dg也需要进行测试

建议你调整方案,先非归档导入,将dg相关参数在主库都进行配置完成,再另外找时间搭建dg,这个时候是不影响主库工作的


或者采取其他迁移方式。

暂无图片 评论
暂无图片 有用 0
孙加鹏

导入慢可能有几个原因:

1、redo切换频率过高,切换不过来

2、index导入耗时较长

3、统计信息导入耗时

解决方法:

1、redo可以考虑多建几组,大小适宜

2、索引可以不导入,等数据导入后用脚本并发建,这个会快很多

3、统计信息不导入,等数据导入和索引创建后再并发采集

另还有其他:

4、创建的表空间一次性给大一点,避免autoextend

5、impdp的时候开适当的并行

暂无图片 评论
暂无图片 有用 0
许玉晨

补充:

1.如果有LOB字段的表rowid拆分并行导出然后导入

2.DG同步模式可以改成异步同步

暂无图片 评论
暂无图片 有用 0
Jack.Li

===小表导出

expdp \'/ as sysdba\' DIRECTORY=dump0624 dumpfile=expdp_small_%U.dmp logfile=SMALL2019062401.log parallel=8 cluster=n PARFILE=tablesma.par


--00:01:15--4并行

--00:00:42--8并行


===大表导出

expdp \'/ as sysdba\' DIRECTORY=dump0624 dumpfile=expdp_big_%U.dmp logfile=big2019062401.log parallel=16 cluster=n PARFILE=tablebig.par


--00:18:01--16并行

--00:20:29--32

--00:18:30--24



===CMS导出

expdp \'/ as sysdba\' DIRECTORY=dump0624 dumpfile=expdp_cms_%U.dmp logfile=cms2019062401.log parallel=4 cluster=n PARFILE=tablecms.par


--00:00:51--4并行

 


===配置表导出


===小表导入

nohup impdp system/ctbj_2014 DIRECTORY=DUMP_IMP logfile=impdp_sma_062301.log DUMPFILE=expdp_small_%U.dmp parallel=8 cluster=n REMAP_SCHEMA=CRM:XW_CRM,CRM_APP:XW_CRM_APP,CTG_INST:XW_CTG_INST,INST:XW_INST,SM:XW_SM,SR:XW_SR,CTG_SPEC:XW_CTG_SPEC table_exists_action=replace REMAP_TABLESPACE=TBS_AGREE:DATA,TBS_DATA_SR:DATA,TBS_DATA_HIS:DATA,TA:DATA,TBS_DATA_PPM:DATA,TBS_DATA_SPEC:DATA,TBS_EVENT:DATA,TBS_IDX_INST:DATA,TBS_DATA_INST:DATA,TBS_DATA_QRY:DATA,TBS_DATA_SM:DATA,TBS_IDX_CRM:DATA,TBS_DATA_CRM:DATA,TBS_LOG:DATA,TBS_INST_HIS:DATA,TBS_ORDER_HIS_DATA:DATA,TBS_DATA_CEP:DATA,TBS_DATA_RM:DATA,TBS_DATA_SCORE:DATA,TBS_DATA_UCS:DATA,TBS_GG:DATA,TBS_DATA_INTF:DATA,TBS_DATA_SO:DATA,TBS_DATA_AGG:DATA,TBS_DATA_PAD:DATA,TBS_IDX_INTF:DATA,TBS_IDX_RM:DATA,WEIHU_TBS:DATA,PATROL_DATA:DATA,TBS_DATA_BJWL:DATA,TBS_IDX_SM:DATA,TBS_IDX_SO:DATA,TBS_IDX_SR:DATA,SHUO:DATA &


===CMS导入

nohup impdp system/ctbj_2014 DIRECTORY=DUMP_IMP logfile=impdp_cms_062301.log DUMPFILE=expdp_cms_%U.dmp parallel=4 cluster=n REMAP_SCHEMA=CMS:XW_CMS,CRM:XW_CRM   table_exists_action=replace REMAP_TABLESPACE=TBS_AGREE:DATA,TBS_DATA_SR:DATA,TBS_DATA_HIS:DATA,TA:DATA,TBS_DATA_PPM:DATA,TBS_DATA_SPEC:DATA,TBS_EVENT:DATA,TBS_IDX_INST:DATA,TBS_DATA_INST:DATA,TBS_DATA_QRY:DATA,TBS_DATA_SM:DATA,TBS_IDX_CRM:DATA,TBS_DATA_CRM:DATA,TBS_LOG:DATA,TBS_INST_HIS:DATA,TBS_ORDER_HIS_DATA:DATA,TBS_DATA_CEP:DATA,TBS_DATA_RM:DATA,TBS_DATA_SCORE:DATA,TBS_DATA_UCS:DATA,TBS_GG:DATA,TBS_DATA_INTF:DATA,TBS_DATA_SO:DATA,TBS_DATA_AGG:DATA,TBS_DATA_PAD:DATA,TBS_IDX_INTF:DATA,TBS_IDX_RM:DATA,WEIHU_TBS:DATA,PATROL_DATA:DATA,TBS_DATA_BJWL:DATA,TBS_IDX_SM:DATA,TBS_IDX_SO:DATA,TBS_IDX_SR:DATA,SHUO:DATA &


===大表导入

nohup impdp system/ctbj_2014 DIRECTORY=DUMP_IMP logfile=impdp_big_062102.log DUMPFILE=expdp_big_%U.dmp parallel=16 cluster=n REMAP_SCHEMA=CRM:XW_CRM,CTG_INST:XW_CTG_INST,INST:XW_INST,SR:XW_SR table_exists_action=replace  REMAP_TABLESPACE=TBS_AGREE:DATA,TBS_DATA_SR:DATA,TBS_DATA_HIS:DATA,TA:DATA,TBS_DATA_PPM:DATA,TBS_DATA_SPEC:DATA,TBS_EVENT:DATA,TBS_IDX_INST:DATA,TBS_DATA_INST:DATA,TBS_DATA_QRY:DATA,TBS_DATA_SM:DATA,TBS_IDX_CRM:DATA,TBS_DATA_CRM:DATA,TBS_LOG:DATA,TBS_INST_HIS:DATA,TBS_ORDER_HIS_DATA:DATA,TBS_DATA_CEP:DATA,TBS_DATA_RM:DATA,TBS_DATA_SCORE:DATA,TBS_DATA_UCS:DATA,TBS_GG:DATA,TBS_DATA_INTF:DATA,TBS_DATA_SO:DATA,TBS_DATA_AGG:DATA,TBS_DATA_PAD:DATA,TBS_IDX_INTF:DATA,TBS_IDX_RM:DATA,WEIHU_TBS:DATA,PATROL_DATA:DATA,TBS_DATA_BJWL:DATA,TBS_IDX_SM:DATA,TBS_IDX_SO:DATA,TBS_IDX_SR:DATA,SHUO:DATA &


--20分钟。


以上是我的导出和导入语句。稍后上传开启归档和非归档AWR。


redo大小2G; undo 和temp都是300G; 单个数据文件都是30G固定大小。


实际测试过程中,全部导入和只导入数据再创建索引时间相差不多。

暂无图片 评论
暂无图片 有用 0
Jack.Li
暂无图片 评论
暂无图片 有用 0
Jack.Li
暂无图片 评论
暂无图片 有用 0
Jack.Li
暂无图片 评论
暂无图片 有用 0
Jack.Li
问题已关闭: 问题已经得到解决
暂无图片 评论
暂无图片 有用 0
回答交流
提交
问题信息
请登录之后查看
邀请回答
暂无人订阅该标签,敬请期待~~
暂无图片墨值悬赏