现有一套DB 单示例环境,存储使用本地flash卡存储。非归档模式下使用IMPDP导入300GB的数据,用时21分钟。 在开启归档模式下使用IMPDP导入耗时4小时以上。
由于后期此DB需搭建成DG主库,所以必须开启归档模式。 请问有没有在归档模式下加快导入的方案
1、开启impdp 并行选项parallel=N (N为并行度)
2、增加主库日志组大小以及组数
3、12c环境下,在导入时可以禁用redo日志
transform=disable_archive_logging:Y
评论
有用 0如果21分钟可以满足需求的话,你可以关闭归档导入后再开启归档啊
评论
有用 0现在dg还未搭建,dg搭建起来后,如何保证我主库的导入速度和非归档模式下一样?
我这边系统迁移的第一部分是先搭建DG环境,然后才是迁移数据(整个导出导入时间必须控制在一个小时内),做系统切换。
评论
有用 0感觉按照kay的方案达不到你的要求,可以先测试一下,禁用redo,是否影响dg也需要进行测试
建议你调整方案,先非归档导入,将dg相关参数在主库都进行配置完成,再另外找时间搭建dg,这个时候是不影响主库工作的
或者采取其他迁移方式。
评论
有用 0导入慢可能有几个原因:
1、redo切换频率过高,切换不过来
2、index导入耗时较长
3、统计信息导入耗时
解决方法:
1、redo可以考虑多建几组,大小适宜
2、索引可以不导入,等数据导入后用脚本并发建,这个会快很多
3、统计信息不导入,等数据导入和索引创建后再并发采集
另还有其他:
4、创建的表空间一次性给大一点,避免autoextend
5、impdp的时候开适当的并行
评论
有用 0补充:
1.如果有LOB字段的表rowid拆分并行导出然后导入
2.DG同步模式可以改成异步同步
评论
有用 0===小表导出
expdp \'/ as sysdba\' DIRECTORY=dump0624 dumpfile=expdp_small_%U.dmp logfile=SMALL2019062401.log parallel=8 cluster=n PARFILE=tablesma.par
--00:01:15--4并行
--00:00:42--8并行
===大表导出
expdp \'/ as sysdba\' DIRECTORY=dump0624 dumpfile=expdp_big_%U.dmp logfile=big2019062401.log parallel=16 cluster=n PARFILE=tablebig.par
--00:18:01--16并行
--00:20:29--32
--00:18:30--24
===CMS导出
expdp \'/ as sysdba\' DIRECTORY=dump0624 dumpfile=expdp_cms_%U.dmp logfile=cms2019062401.log parallel=4 cluster=n PARFILE=tablecms.par
--00:00:51--4并行
===配置表导出
===小表导入
nohup impdp system/ctbj_2014 DIRECTORY=DUMP_IMP logfile=impdp_sma_062301.log DUMPFILE=expdp_small_%U.dmp parallel=8 cluster=n REMAP_SCHEMA=CRM:XW_CRM,CRM_APP:XW_CRM_APP,CTG_INST:XW_CTG_INST,INST:XW_INST,SM:XW_SM,SR:XW_SR,CTG_SPEC:XW_CTG_SPEC table_exists_action=replace REMAP_TABLESPACE=TBS_AGREE:DATA,TBS_DATA_SR:DATA,TBS_DATA_HIS:DATA,TA:DATA,TBS_DATA_PPM:DATA,TBS_DATA_SPEC:DATA,TBS_EVENT:DATA,TBS_IDX_INST:DATA,TBS_DATA_INST:DATA,TBS_DATA_QRY:DATA,TBS_DATA_SM:DATA,TBS_IDX_CRM:DATA,TBS_DATA_CRM:DATA,TBS_LOG:DATA,TBS_INST_HIS:DATA,TBS_ORDER_HIS_DATA:DATA,TBS_DATA_CEP:DATA,TBS_DATA_RM:DATA,TBS_DATA_SCORE:DATA,TBS_DATA_UCS:DATA,TBS_GG:DATA,TBS_DATA_INTF:DATA,TBS_DATA_SO:DATA,TBS_DATA_AGG:DATA,TBS_DATA_PAD:DATA,TBS_IDX_INTF:DATA,TBS_IDX_RM:DATA,WEIHU_TBS:DATA,PATROL_DATA:DATA,TBS_DATA_BJWL:DATA,TBS_IDX_SM:DATA,TBS_IDX_SO:DATA,TBS_IDX_SR:DATA,SHUO:DATA &
===CMS导入
nohup impdp system/ctbj_2014 DIRECTORY=DUMP_IMP logfile=impdp_cms_062301.log DUMPFILE=expdp_cms_%U.dmp parallel=4 cluster=n REMAP_SCHEMA=CMS:XW_CMS,CRM:XW_CRM table_exists_action=replace REMAP_TABLESPACE=TBS_AGREE:DATA,TBS_DATA_SR:DATA,TBS_DATA_HIS:DATA,TA:DATA,TBS_DATA_PPM:DATA,TBS_DATA_SPEC:DATA,TBS_EVENT:DATA,TBS_IDX_INST:DATA,TBS_DATA_INST:DATA,TBS_DATA_QRY:DATA,TBS_DATA_SM:DATA,TBS_IDX_CRM:DATA,TBS_DATA_CRM:DATA,TBS_LOG:DATA,TBS_INST_HIS:DATA,TBS_ORDER_HIS_DATA:DATA,TBS_DATA_CEP:DATA,TBS_DATA_RM:DATA,TBS_DATA_SCORE:DATA,TBS_DATA_UCS:DATA,TBS_GG:DATA,TBS_DATA_INTF:DATA,TBS_DATA_SO:DATA,TBS_DATA_AGG:DATA,TBS_DATA_PAD:DATA,TBS_IDX_INTF:DATA,TBS_IDX_RM:DATA,WEIHU_TBS:DATA,PATROL_DATA:DATA,TBS_DATA_BJWL:DATA,TBS_IDX_SM:DATA,TBS_IDX_SO:DATA,TBS_IDX_SR:DATA,SHUO:DATA &
===大表导入
nohup impdp system/ctbj_2014 DIRECTORY=DUMP_IMP logfile=impdp_big_062102.log DUMPFILE=expdp_big_%U.dmp parallel=16 cluster=n REMAP_SCHEMA=CRM:XW_CRM,CTG_INST:XW_CTG_INST,INST:XW_INST,SR:XW_SR table_exists_action=replace REMAP_TABLESPACE=TBS_AGREE:DATA,TBS_DATA_SR:DATA,TBS_DATA_HIS:DATA,TA:DATA,TBS_DATA_PPM:DATA,TBS_DATA_SPEC:DATA,TBS_EVENT:DATA,TBS_IDX_INST:DATA,TBS_DATA_INST:DATA,TBS_DATA_QRY:DATA,TBS_DATA_SM:DATA,TBS_IDX_CRM:DATA,TBS_DATA_CRM:DATA,TBS_LOG:DATA,TBS_INST_HIS:DATA,TBS_ORDER_HIS_DATA:DATA,TBS_DATA_CEP:DATA,TBS_DATA_RM:DATA,TBS_DATA_SCORE:DATA,TBS_DATA_UCS:DATA,TBS_GG:DATA,TBS_DATA_INTF:DATA,TBS_DATA_SO:DATA,TBS_DATA_AGG:DATA,TBS_DATA_PAD:DATA,TBS_IDX_INTF:DATA,TBS_IDX_RM:DATA,WEIHU_TBS:DATA,PATROL_DATA:DATA,TBS_DATA_BJWL:DATA,TBS_IDX_SM:DATA,TBS_IDX_SO:DATA,TBS_IDX_SR:DATA,SHUO:DATA &
--20分钟。
以上是我的导出和导入语句。稍后上传开启归档和非归档AWR。
redo大小2G; undo 和temp都是300G; 单个数据文件都是30G固定大小。
实际测试过程中,全部导入和只导入数据再创建索引时间相差不多。
评论
有用 0
评论
有用 0
评论
有用 0
评论
有用 0
墨值悬赏

