暂无图片
暂无图片
1
暂无图片
暂无图片
暂无图片

Oracle RAC 删除添加节点

6号见的MindPalace 2021-05-26
1703

一、背景

数据库架构
Oracle RAC (2节点)
数据库版本
19c
故障原因
节点1本地磁盘损坏


二、删除过程

  1. 备份OCR
    su - root
    cd u01/app/grid_home/bin
    ./ocrconfig -showbackup
    ./ocrconfig -manualbackup
    ./ocrdump tmp/ocrdump_ocr.bak


  2. 移除损坏节点数据库实例
    存活节点执行:
    SQL > alter database disable thread 2;
    su - oracle
    dbca -silent -deleteInstance -nodeList node1 -gdbName testdb  -instanceName testdb2 -sysDBAUserName sys -sysDBAPassword oracle


  3. 确认实例是否被删除
    su - grid
    srvctl config db -d 
    testdb


  4. 禁用损坏节点监听
    su - grid
    srvctl disable listener -l listener -n
    node1
    srvctl stop listener -l listener -n
    node1
    srvctl status listener -l listener -n
    node1


  5. 存活节点更新inventory
    su - oracle
    cd u01/app/oracle/product/19.3.0/db_1/oui/bin
    ./runInstaller -updateNodeList ORACLE_HOME=/u01/app/oracle/product/19.3.0/db_1 "CLUSTER_NODES= node2"


  6. 查看节点的状态是否为Unpinned
    su - grid
    olsnodes -s -t
    如果不是Unpinned,则在存活节点上以root用户执行以下命令将其unpin
    crsctl unpin css -n node1


  7. grid层面删除损坏节点
    存活节点上执行:
    su - root
    cd u01/app/grid_home/bin
    ./crsctl delete node -n node1


  8. 存活节点更新inventory
    su - grid
    cd u01/app/grid_home/oui/bin
    ./runInstaller -updateNodeList ORACLE_HOME=/u01/app/grid_home "CLUSTER_NODES=node2" CRS=TRUE -silent


  9. 执行删除后检查
    su - grid
    cluvfy stage -post nodedel -n
    node1 -verbose


  10. 删除损坏节点vip
    su - grid
    srvctl stop vip -vip node1-vip
    su - root
    cd /u01/app/grid_home/bin
    srvctl remove vip -vip node1-vip


三、重新添加节点

  1. 修复损坏节点本地硬盘后配置数据库安装环境(存活节点需清理grid和oracle用户.ssh目录下knowhosts文件中涉及到损坏节点的条目信息,否则会导致新添加节点时ssh互信失败)

  2. grid集群添加新节点,通过gridsetup图形化添加新节点

  3. rac添加新节点,通过addnode.sh图形化添加新节点

  4. 数据库添加新实例,通过dbca图形化添加新节点实例

文章转载自6号见的MindPalace,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论