暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

MongoDB “升级项目” 大型连续剧(3)-- 自动校对代码与注意事项

AustinDatabases 2025-04-29
150

开头还是介绍一下群,如果感兴趣PolarDB ,MongoDB ,MySQL ,PostgreSQL ,Redis, OceanBase, Sql Server等有问题,有需求都可以加群群内有各大数据库行业大咖,可以解决你的问题。加群请联系 liuaustin3 ,(共2800人左右 1 + 2 + 3 + 4 +5 + 6 + 7 + 8 +9)(1 2 3 4 5 6 7群均已爆满,开8群260+ 9群)

MongoDB “升级项目” 大型连续剧(2)-- 到底谁是"der"

MongoDB “升级项目”  大型连续剧(1)-- 可“生”可不升

接上集,上集比对了一些MongoDB 4.2和6.0之间的差别,找准开发和架构以及运营MongoDB的利益点,但这里必须给出一些具体操作的文档。这里我画一个思维导图,将整体迁移过程的需要注意的地方来画一下。

迁移中需要考虑的问题

具体事情具体分析,这里我们先从知晓的问题开始入手,先产生操作注意事项的文档,先将可能产生的问题说清楚。

一 迁移中的需求收集

根据我们公司一贯的风格,迁移一定要能回滚,且必须有plan B,没有Plan B和回滚的方案都认为是不安全的,如果实在没有,也的想出其他的解决方案,或者这个事情就直接不做。

那么如果升级MongoDB要可进退,必须要进行双向复制,而双向MongoDB的不同版本的复制,这个之前我们通过mongoshake是可以做到的,在上次的迁移中我们学习到一些经验。

1  通过mongoshake进行迁移,需要更大的oplogs 的设置,因为有一些突发的数据写入很可能导致mongoshake还没有吧数据消化就被清理的情况发生。

2  通过mongoshake迁移不能进行任何的DDL操作,尤其建立索引的操作,只要进行就会导致连接错误,主要的原因还是这两边建立索引的命令是不一致的,所有通过mongoshake传递过去也无法在高于4.4以上的数据库上建立索引。

这次我们不打算采用MongoShake的方案,我们本次要通过DTS的方案来进行MongoDB的双向复制。这主要基于阿里云对MongoDB的oplogs日志格式中添加了一个字段,通过这个来标识数据从何而来,通过判断数据的来源而避免同一个数据在环回到源去。

这里针对通过DTS来进行双向数据复制的事情需要注意以下问题。

MongoDB 在阿里云中升级的工作中通过DTS来进行双向同步是一个方案,针对MOGNODB 4.0 到更高的版本。

升级的方案中需要有如下的注意事项

1  目的数据库的磁盘空间应比原有的数据库的数据空间大约10% ,但此为理论值,具体情况看原有的数据库本身的数据库磁盘的大小以及业务的繁忙程度,扩展程度在 5% - 15%上下浮动。

2  在复制中基于阿里云的MOGNODB独有技术可以实现双向复制,需要打开MongoDB的 replication.oplogGlobalIdEnabled  参数

3  在进行操作中需要对数据库中所有的collections进行校验,确保有主键,同时去掉数据库中的 ttl 索引,针对索引进行全部的扫描和记录,并且在数据复制后进行整体的符合,在切换后再建立相关的TTL索引

4  在双向复制中只能通过 oplogs 进行相关获取数据库的变更,而不能通过change streams。

5  在操作中双向复制中,不能建立索引,不能进行约束,数据类型的变更,如原有的KEY VALUES 为 字符,后续要在复制期间改成数值类型 ,这些都是禁止的

6  需要有足够的空间存储OPLOGS

7  同步中,不支持admin 和 local 的库的数据同步 ,如有在此下的数据库无法进行同步

8  初期进行数据同步全量时可能会需要对数据库的配置进行升级等 降低初期产生的问题如系统OOM 挂机 down机等

9  对复制的数据库中,不要对数据库使用 capped的方式

10  目标端MongoDB的count数量需要使用db.$table_name.aggregate([{ $count:"myCount"}])语法查询 11  增量同步支持  create  collection .  create index  drop collection   drop index  rename colleciton (但这里注意是同版本的额,不同版本的不支持)

12  同步中只支持1000个集合 1000张table 超过则无法通过 DTS来进行工作

以上为官方文档的说明,下面是一个脚本,因为在复制中,我们需要判断两方的数据库的索引和表数据库等数量是一致的,那么必然不能通过“手”来进行,我们通过node.js的代码来对这两方的数据库进行程序的自动报告的方式来检查。

Mongo6 的node.js代码

const { MongoClient } = require('mongodb');
const fs = require('fs');
const path = require('path');

const uri = 'mongodb的地址';
const outputFile = path.join(__dirname, 'mongodb_analysis_report.txt');

async functionanalyzeMongoDB() {
    const client = new MongoClient(uri);

    try {
        await client.connect();
        console.log('已连接到 MongoDB');

        const databases = await client.db().admin().listDatabases();
        const dbNames = databases.databases.map(db => db.name);
        
        const reports = [];
        const users = [];

        for (const dbName of dbNames) {
            const db = client.db(dbName);
            const collections = await db.listCollections().toArray();

            let totalCollections = 0;
            let totalIndexes = 0;
            let ttlIndexStatements = [];

            for (const col of collections) {
                const collection = db.collection(col.name);
                const indexes = await collection.indexes();

                totalCollections++;
                totalIndexes += indexes.length;

                for (const index of indexes) {
                    if (index.options && index.options.expireAfterSeconds !== undefined) {
                        const field = Object.keys(index.key)[0];
                        const ttlIndexStatement = `db.${col.name}.createIndex({ "${field}": 1 }, { expireAfterSeconds: ${index.options.expireAfterSeconds} })`;
                        const dropTtlIndexStatement = `db.${col.name}.dropIndex("${index.name}")`;

                        ttlIndexStatements.push({
                            collection: col.name,
                            field,
                            expireAfterSeconds: index.options.expireAfterSeconds,
                            createStatement: ttlIndexStatement,
                            dropStatement: dropTtlIndexStatement
                        });
                    }
                }
            }

            if (dbName === 'admin') {
                const userInfo = await db.command({ usersInfo: 1 });
                if (userInfo && Array.isArray(userInfo.users)) {
                    users.push(...userInfo.users);
                }
            }

            reports.push({ dbName, totalCollections, totalIndexes, ttlIndexStatements });
        }

        const reportContent = generateReport(dbNames, reports, users);        
        fs.writeFileSync(outputFile, reportContent, 'utf8');
        console.log(`分析报告已生成,保存至: ${outputFile}`);

    } catch (err) {
        console.error('发生错误:', err);
    } finally {
        await client.close();
        console.log('已断开与 MongoDB 的连接');
    }
}

function generateReport(dbNames, reports, users) {
    return `
MongoDB 分析报告
=================

数据库数量: ${dbNames.length}

${reports.map((report) => `
数据库: ${report.dbName}
总集合数量: ${report.totalCollections}
总索引数量: ${report.totalIndexes}

TTL 索引信息:
------------
${report.ttlIndexStatements.map((info) => `
集合: ${info.collection}
字段: ${info.field}
过期时间: ${info.expireAfterSeconds} 秒
创建语句: ${info.createStatement}
删除语句: ${info.dropStatement}`).join('\n') || '无 TTL 索引'}.         
`).join('\n')}

用户信息:
--------

${users.map(user => `
用户名: ${user.user}@${user.db}
角色: ${user.roles.map(role => role.role).join(', ') || '无角色'}` ).join('\n')}
`;
}

analyzeMongoDB();


mongo4.x 的 node.js的代码

const { MongoClient } = require('mongodb');
const fs = require('fs');
const path = require('path');

const uri = '';
const outputFile = path.join(__dirname, 'mongodb_analysis_report.txt');

async functionanalyzeMongoDB() {
    const client = new MongoClient(uri);

    try {
        await client.connect();
        console.log('已连接到 MongoDB');

        const databases = await client.db().admin().listDatabases();
        const dbNames = databases.databases.map(db => db.name);
        
        const reports = [];
        const users = [];

        for (const dbName of dbNames) {
            const db = client.db(dbName);
            const collections = await db.listCollections().toArray();

            let totalCollections = 0;
            let totalIndexes = 0;
            let ttlIndexStatements = [];

            for (const col of collections) {
                const collection = db.collection(col.name);
                const indexes = await collection.indexes();

                totalCollections++;
                totalIndexes += indexes.length;

                for (const index of indexes) {
                    if (index.options && index.options.expireAfterSeconds !== undefined) {
                        const field = Object.keys(index.key)[0];
                        const ttlIndexStatement = `db.${col.name}.createIndex({ "${field}": 1 }, { expireAfterSeconds: ${index.options.expireAfterSeconds} })`;
                        const dropTtlIndexStatement = `db.${col.name}.dropIndex("${index.name}")`;

                        ttlIndexStatements.push({
                            collection: col.name,
                            field,
                            expireAfterSeconds: index.options.expireAfterSeconds,
                            createStatement: ttlIndexStatement,
                            dropStatement: dropTtlIndexStatement
                        });
                    }
                }
            }

            if (dbName === 'admin') {
                const userInfo = await db.command({ usersInfo: 1 });
                if (userInfo && Array.isArray(userInfo.users)) {
                    users.push(...userInfo.users);
                }
            }

            reports.push({ dbName, totalCollections, totalIndexes, ttlIndexStatements });
        }

        const reportContent = generateReport(dbNames, reports, users);        
        fs.writeFileSync(outputFile, reportContent, 'utf8');
        console.log(`分析报告已生成,保存至: ${outputFile}`);

    } catch (err) {
        console.error('发生错误:', err);
    } finally {
        await client.close();
        console.log('已断开与 MongoDB 的连接');
    }
}

function generateReport(dbNames, reports, users) {
    return `
MongoDB 分析报告
=================

数据库数量: ${dbNames.length}

${reports.map((report) => `
数据库: ${report.dbName}
总集合数量: ${report.totalCollections}
总索引数量: ${report.totalIndexes}

TTL 索引信息:
------------
${report.ttlIndexStatements.map((info) => `
集合: ${info.collection}
字段: ${info.field}
过期时间: ${info.expireAfterSeconds} 秒
创建语句: ${info.createStatement}
删除语句: ${info.dropStatement}`).join('\n') || '无 TTL 索引'}.         
`).join('\n')}

用户信息:
--------

${users.map(user => `
用户名: ${user.user}@${user.db}
角色: ${user.roles.map(role => role.role).join(', ') || '无角色'}` ).join('\n')}
`;
}

analyzeMongoDB();


image

执行后,会产生对应的报告,其中包含多少数据库,每个库里面的有多少表,每个库里面有总的索引是多少。

因为在DTS双向同步的情况下,他们是不会建立用户的,也就是不会同步用户,这里就需要我们在写脚本来把用户建立的语句导出,然后在目的库,填写好密码后,在建立,这个工作的脚本我们下期来说。

整体前期的一些铺垫的工作还在进行,程序端还在测试,同时我们后期还要列出 mongodb 4.x 和 6.X之间的一些语句的差别等,方便开发了解。下期我们继续.......



置顶
DBA 怎么变得更强-应对架构师提出高并发问题?
打破DBA的局限:像架构师一样思考,提升你的技术价值-- 访蚂蚁金服P9 朱春茂
这个MySQL说“云上自建的MySQL”都是”小垃圾“
鸿门宴讲PostgreSQL --  被拉去央企救场一天
MongoDB “升级项目” 大型连续剧(2)-- 到底谁是"der"
OceanBase 单机版可以大批量快速部署吗? YES
美国知名大学开授China数据库理论,你没看错!
DBA 会架构,实际案例分析--“IT流氓”得下跪
搞 PostgreSQL多才多艺的人--赵渝强 《PG数据库实战派》
追逐太阳的男人--林春 《金融数据库转型实战》


PostgreSQL 相关文章

PostgreSQL  无服务 Neon and Aurora 新技术下的新经济模式 (翻译)

PostgreSQL的"犄角旮旯"的参数捋一捋

PostgreSQL逻辑复制槽功能

PostgreSQL 扫盲贴 常用的监控分析脚本

“PostgreSQL” 高性能主从强一致读写分离,我行,你没戏!

PostgreSQL  添加索引导致崩溃,参数调整需谨慎--文档未必完全覆盖场景
PostgreSQL 的搅局者问世了,杀过来了!
PostgreSQL SQL优化用兵法,优化后提高 140倍速度
PostgreSQL 运维的难与“难”  --上海PG大会主题记录
PostgreSQL 什么都能存,什么都能塞 --- 你能成熟一点吗?
PostgreSQL 迁移用户很简单 ---  我看你的好戏

PostgreSQL 用户胡作非为只能受着 --- 警告他

全世界都在“搞” PostgreSQL ,从Oracle 得到一个“馊主意”开始
PostgreSQL 加索引系统OOM 怨我了--- 不怨你怨谁

PostgreSQL “我怎么就连个数据库都不会建?” --- 你还真不会!

病毒攻击PostgreSQL暴力破解系统,防范加固系统方案(内附分析日志脚本)
PostgreSQL 远程管理越来越简单,6个自动化脚本开胃菜

PostgreSQL 稳定性平台 PG中文社区大会--杭州来去匆匆

PostgreSQL 如何通过工具来分析PG 内存泄露

PostgreSQL  分组查询可以不进行全表扫描吗?速度提高上千倍?

POSTGRESQL --Austindatabaes 历年文章整理

PostgreSQL  查询语句开发写不好是必然,不是PG的锅

PostgreSQL  字符集乌龙导致数据查询排序的问题,与 MySQL 稳定 "PG不稳定"
PostgreSQL  Patroni 3.0 新功能规划 2023年 纽约PG 大会 (音译)
PostgreSQL   玩PG我们是认真的,vacuum 稳定性平台我们有了
PostgreSQL DBA硬扛 垃圾 “开发”,“架构师”,滥用PG 你们滚出 !(附送定期清理连接脚本)

DBA 失职导致 PostgreSQL 日志疯涨



OceanBase 相关文章
OceanBase 单机版可以大批量快速部署吗? YES
OceanBase 6大学习法--OBCA视频学习总结第六章
OceanBase 6大学习法--OBCA视频学习总结第五章--索引与表设计
OceanBase 6大学习法--OBCA视频学习总结第五章--开发与库表设计
OceanBase 6大学习法--OBCA视频学习总结第四章 --数据库安装
OceanBase 6大学习法--OBCA视频学习总结第三章--数据库引擎
OceanBase 架构学习--OB上手视频学习总结第二章 (OBCA)
OceanBase 6大学习法--OB上手视频学习总结第一章
没有谁是垮掉的一代--记 第四届 OceanBase 数据库大赛
OceanBase  送祝福活动,礼物和幸运带给您

跟我学OceanBase4.0 --阅读白皮书 (OB分布式优化哪里了提高了速度)

跟我学OceanBase4.0 --阅读白皮书 (4.0优化的核心点是什么)

跟我学OceanBase4.0 --阅读白皮书 (0.5-4.0的架构与之前架构特点)

跟我学OceanBase4.0 --阅读白皮书 (旧的概念害死人呀,更新知识和理念)

聚焦SaaS类企业数据库选型(技术、成本、合规、地缘政治)

OceanBase 学习记录-- 建立MySQL租户,像用MySQL一样使用OB


PolarDB 相关文章

        PolarDB MySQL 加索引卡主的整体解决方案

“PostgreSQL” 高性能主从强一致读写分离,我行,你没戏!

PostgreSQL 的搅局者问世了,杀过来了!

在被厂商围剿的DBA 求生之路 --我是老油条

POLARDB  添加字段 “卡” 住---这锅Polar不背

PolarDB 版本差异分析--外人不知道的秘密(谁是绵羊,谁是怪兽)

在被厂商围剿的DBA 求生之路 --我是老油条

PolarDB 答题拿-- 飞刀总的书、同款卫衣、T恤,来自杭州的Package(活动结束了)

PolarDB for MySQL 三大核心之一POLARFS 今天扒开它--- 嘛是火




MySQL相关文章
MySQL SQL优化快速定位案例 与 优化思维导图
"DBA 是个der" 吵出MySQL主键问题多种解决方案
MySQL 怎么让自己更高级---从内存表说到了开发方式
MySQL timeout 参数可以让事务不完全回滚
MySQL 让你还用5.7 出事了吧,用着用着5.7崩了
MySQL 的SQL引擎很差吗?由一个同学提出问题引出的实验
用MySql不是MySQL, 不用MySQL都是MySQL 横批 哼哼哈哈啊啊
MYSQL  --Austindatabases 历年文章合集

MongoDB 相关文章

MongoDB  大俗大雅,上来问分片真三俗 -- 4 分什么分

MongoDB 大俗大雅,高端知识讲“庸俗” --3 奇葩数据更新方法

MongoDB 学习建模与设计思路--统计数据更新案例

MongoDB  大俗大雅,高端的知识讲“通俗” -- 2 嵌套和引用

MongoDB  大俗大雅,高端的知识讲“低俗” -- 1 什么叫多模

MongoDB 合作考试报销活动 贴附属,MongoDB基础知识速通

MongoDB 年底活动,免费考试名额 7个公众号获得

MongoDB 使用网上妙招,直接DOWN机---清理表碎片导致的灾祸 (送书活动结束)

MongoDB 2023年度纽约 MongoDB 年度大会话题 -- MongoDB 数据模式与建模

MongoDB  双机热备那篇文章是  “毒”
MongoDB   会丢数据吗?在次补刀MongoDB  双机热备
MONGODB  ---- Austindatabases  历年文章合集

临时工访谈系列

没有谁是垮掉的一代--记 第四届 OceanBase 数据库大赛

ETL 行业也够卷,云化ETL,ETL 软件不过了


SQL SERVER 系列
SQL SERVER维保AI化,从一段小故事开始
SQL SERVER 如何实现UNDO REDO 和PostgreSQL 有近亲关系吗
SQL SERVER 危险中,标题不让发,进入看详情(译)







文章转载自AustinDatabases,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论