项目背景
工业互联网大数据资源存在孤立、分散、封闭等问题,数据价值无法实现最大化。同时,数据主权和数据安全面临着重大威胁。由此可见,工业互联网大数据中心建设是一项关键且艰巨的任务,其对于数据安全、整合及利用具有极高的现实意义。
此外,工业互联网大数据中心建设不仅可有效提升工业互联网大数据资源的管理、服务和安全水平,发挥数据对工业经济的创新引擎作用;同时对于促进工业互联网创新发展,提升数据驱动的政府治理能力,也具有重要意义。
客户面临的挑战
1、数据资源独立分散,无法有效整合利用庞大的数据资源
数据遍布全国各地,数据间相互孤立、分散、封闭,无法满足数据资源的整合与共享。
2、单机性能达到瓶颈,无法进一步满足高并发与海量数据的增长
传统数据库架构存在水平扩展能力差、架构复杂、应用开发成本高且性能存在瓶颈的弊端,无法满足日益增长的数据量。
3、数据跨区域访问导致读写性能低
跨区域数据中心建设带来更多异地数据的访问,数据同步及读写的延迟无法满足工业互联网大数据资源管理和服务系统的应用。
解决方案
1、数据库集群支持异地地多中心建设
分布式的多副本强一致性,满足异地多中心部署需求。具备数据强一致性,支持数据地理分区并统一部署,多副本设置保障数据自动同步。
2、海量数据存储管理
支持在线水平扩展,解决业务高峰时期单机性能瓶颈,实现存储性能线性提升。支持 1000+ 节点规模和 PB 级数据存储。采用一写多读分布式架构,解决工联院数据高频采集场景下对数据并发、高吞吐的要求。
3、多区域容灾和数据就近读写
提供多种级别的分区能力;利用数据的多区域分布和优化机制改善数据库集群的读写时延;同时支持不同级别容灾模式设置,保障异地多中心的容灾能力。
4、开发 Spark 组件支持数据的快速读取
数据库集群具备行列引擎,满足 HTAP 特性。深度整合了 Spark Catalyst 引擎,支持数据的快速读取能力。借助组件可以使用 Spark 生态圈提供的多种工具进行数据处理,分布式数据库结合 Spark 组件可实现基于同一个平台进行事务和分析两种工作,优化系统架构,便于后期运营维护。

客户价值
1、整合工业数据资源,打破数据孤岛,实现开放共享;
2、有效提升工业大数据资源的管理、服务及安全水平,促进工业互联网创新发展,提升数据赋能实体经济的能力;
3、数据库集群为两地三中心架构,在北京主、备中心和重庆分中心完成建设,组成高可用容灾方案体系。“一写多读”设计架构实现了主中心写入,备中心和分中心实时同步;并在多地多中心的建设中实现就近读写、区域容灾等核心功能;
4、大数据建设中心集成运维管理工具与日志健康系统,实现集中运维管控,降低工业互联网项目的运维成本;基于 KaiwuDB 数据库深度挖掘数据应用价值,有助于大幅提升大数据中心的性能,辅助决策分析。




