点击蓝字,关注我们
5月24日举办的「AICon 全球人工智能开发与应用大会」上,在“Data for AI,驱动智能的下一代数据基础 ”专题论坛中,蚂蚁集团图计算开源负责人范志东分享了「Chat2Graph:Graph + AI 时代的未来智能体架构」以下为分享内容整理,亮点包含:
Graph + AI 技术背景 探索 Graph 增强的 Agent 架构 Chat2Graph(首个Graph原生智能体系统)技术解读
一、Graph + AI技术背景
1、从「数智融合」到「图智融合」
Graph+AI的技术路线:双向赋能
AI提升图处理效率:优化人与图数据交互的链路成本(如存储、计算)。 图反向赋能AI:通过图的结构性增强AI的可解释性与推理质量。
2、Graph:面向连接的数据建模
Graph以“连接”为核心:能更自然地表达真实世界的普遍联系。 关系确定性与可解释性:通过边的连接实现数据溯源和多跳查询的归因分析。 高维数据结构:相对于表,图是一种更高维的数据结构。 连接主义:神经网络本质是计算图结构,大模型的训练、后训练、推理的本质在发掘文本语义的连接。
3、Graph+AI:「图智互融」的思想基础
1、人工智能三大学派特点:
符号主义(Symbolism):
优势:基于逻辑规则的强可解释性。 劣势:依赖人工规则,专家规则扩展性差。
连接主义(Connectionism):
优势:仿生神经网络,通过反向传播和迭代训练实现自动化智能。 劣势:基于概率的“幻觉”问题(如大模型的不确定性)。
行为主义(Behaviorism):
优势:通过智能体与环境交互(如强化学习)获取智能。
2、Graph+AI的融合方向:结合符号主义与连接主义的优势,实现优势互补。
4、TuGraph+AI:开源产品矩阵
1、TuGraph产品矩阵
Graph层:TuGraphDB(单机图数据库)、TuGraph Analytics(分布式流图引擎)、miniGU(图数据产学研平台)、GraphUniverse(统一图数据管理)。 AI层:Text2GQL、GraphRAG、Graph Agent(Chat2Graph)。 App层:OSGraph(开源图谱洞察工具)。
2、本次重点分享AI层技术方向:
Text2GQL 图语言微调。 GraphRAG 图检索增强生成(结合知识图谱与大模型)。 Chat2Graph 图原生智能体。
二、探索 Graph增强的 Agent 架构
1、大模型时代的同频共振
2023年:SFT(监督微调)主导,如GPT、SFT。 2024年:RAG(检索增强生成)兴起,如MRC、RAG、MM。 2025年:智能体(Agent)成为焦点,如LRM、MCP、Manus等等。
2023年:启动Text2GQL,基于国际化标准 ISO/GQL,探索自然语言与图查询语言的直接翻译。 2024年:引入知识图谱技术,精细化管理外部知识,构建GraphRAG。 2025年:GraphRAG面临复杂问题与开放知识的双重挑战,引入任务规划器、工具调用(如搜索引擎、企业系统)动态补充知识库,是GraphRAG必然会过渡到GraphAgent。
2、Text2GQL:领域语料合成与图查询直译
核心难点在于语料稀缺:当前图查询语言生态尚未成熟,缺乏足够的训练语料,是Text2GQL面临首要难题。 解决方案:
语法树解析:将编程语言转化为语法树,提取终结符与中间值。 语义描述与模板填充:用自然语言描述语法树结构,填充变量生成语句模板。
数据集构建:利用生成的语料对(statement-pair)作为训练数据。 微调方法:结合经典微调方式(如LoRA、QLoRA)及增强学习(如激励模型)进行优化。 初步成果:
文本相似度(92%+)、语法准确性(98%+)表现良好。 执行结果准确率超50%(受限于GQL生态成熟度)。
发布Text2GQL的基准测试(benchmark)。 与LDBC合作推进标准化工作。
3、GraphRAG:图谱驱动的私域知识检索
0.5.6版本:完成GraphRAG的基础RAG框架开发。 0.6.0版本:支持Community Summary(社区摘要)。 0.6.1版本:支持文档图谱关联,实现内容溯源,解决法律/财务高敏感场景的“幻觉”问题。 0.7.0版本:支持Hybrid Search(混合搜索),包含向量检索、关键词匹配、文本意图理解。
信息损失:知识图谱抽取无法完全还原原文信息。 语义检索局限:传统关键词/向量检索无法捕捉用户查询的筛选条件。 意图理解:复杂查询需智能体规划与多步骤任务分解。
4、Graph Agent:用图实现更广义的「仿生」
RAG的尽头是Agent,对于GraphRAG在知识库检索的时候,也避不开工具调用和复杂任务规划,甚至引入多智能体的逻辑,而目前多智能系统也存在预测成功率低的问题,我们也在思考能不能用Graph去改进智能体呢?用图来实现更广义的仿生。
三、Chat2Graph:首个Graph原生智能体系统
1、Graph Native 智能体设计
通过智能体在人和图系统之间插入中间层,来解决一系列的问题。横向来看,是AI for Graph的逻辑。通过助手让自由操作图系统,降低成本,提升效率。垂直来看,则是的是Graph for AI的逻辑,通过图结构对智能体系统的多个关键模块进行建模与优化。
1、Graph for 记忆 知识:通过图谱化方式实现知识的结构化沉淀,将专家经验以图谱形式存储,为智能体提供可复用的知识基础。
2、Graph for 工具:针对工具调用中存在的前后向依赖关系,采用图的方式进行管理,确保工具调用的逻辑连贯性与执行效率。
3、Graph for 推理 & 规划 & 协作:智能体的任务规划与协作机制本身即是一个图结构模型,通过图描述任务间的关联性、智能体的依赖关系,实现多智能体间的高效协同。
2、Chat2Graph的架构特色
架构:单主动-多被动的混合架构。 推理:快&慢思考结合的双LLM推理机。 规划:CoA式任务分解与图规划器。 记忆:分层记忆系统。 知识:支持 VectorRAG和 GraphRAG。 工具:利用图结构组织工具和行动。 SDK:智能体构建与服务API。 配置:一键配置智能体。 集成:支持 Neo4j 和 TuGraph图数据库。 界面:支持 RestfulAPI 和 WebUI。 可干预:支持任务的暂停和恢复。 持久化:作业状态和消息的持久化。
3、Chat2Graph的物理架构和产品交互
Chat2Graph提供标准化SDK支持外部系统集成,用户可通过其界面与图系统交互。对话的核心抽象为Session,用于管理多轮对话的状态(如上下文、用户意图)和历史消息,确保对话连贯性。执行过程中Leader角色负责问题拆解与任务分发,将复杂查询分解为子任务并分配给Expert。外部尝试用工作流生成器来优化工作流、知识库来补充知识、工具优化器来优化工具库的表达。
Github 地址:https://github.com/TuGraph-family/chat2graph,欢迎大家讨论参与共建。
4、Chat2Graph推理机(一):快慢思考结合的双模推理
基于「元认知」的提示工程设计 Thinker-Actor双模推理机
架构设计:
Thinker Model:负责深度思考,生成任务指令。 Actor Model:执行工具调用,将结果反馈给Thinker Model以迭代优化。
LRM的逻辑成本较高,依赖后训练优化,限制了工程实践的自由度。Thinker-Actor双模推理机在软件工程层面,灵活度更高,支持持续改进。长期来看,还是需要持续关注LRM的进展,动态评估这两种技术路径。
5、Chat2Graph推理机(二):记忆、工具、环境集成
任务输入:每个具体任务会携带推荐工具列表。 推荐逻辑:结合用户任务指令(instruction),将任务与工具推荐交给推理机处理。
双模推理:推理机由两个LLM协同工作,形成模型服务能力(Model Service)。 记忆融合:推理机结合自身记忆(如历史对话、知识库)完成任务处理。
函数调用解析:通过解析函数参数(如输入输出格式、依赖关系),执行工具调用。 环境交互:工具执行需操作环境(如读写数据),涉及两种服务类型:
外部工具(Outer Tools):如调用云服务(MCP)、代码接口等外部资源。 内部服务(Inner System Services):智能体内部提供的能力(如内存管理、任务调度)。
关键创新在于将内部服务视为环境的一部分,而非独立模块,从而增强智能体的自我集成与资源调度能力,实现更广泛的工具集合调用。
6、Chat2Graph 任务规划与智能体协作
当复杂问题输入时,由Leader负责任务拆解。 采用图结构表达任务依赖关系,支持多分支与并行化,提升表现力和调整灵活性。
调度器分配:拆解后的子任务由任务调度器分配至不同Expert。 执行流程示例:
建模智能体:执行建模后尝试导入数据,若失败则触发重试机制。 分析阶段:若分析无法完成,Expert会向Leader请求帮助,要求重新拆解问题。 文档查询:Expert可能向质量保证模块(Qa)提问,例如“文档中的某个手册如何操作?”,获取指导后再执行查询,结果返回后继续分析。
7、Chat2Graph 分层记忆系统
基于图谱的DIKW分层理论:数据(Data)→信息(Information)→知识(Knowledge)→智慧(Wisdom),对应系统内的:推理机( Reasoner)→ 工作流 (Workflow)→智能体(Agent)→会话层 (Session)。
智能体分层,形成递进式架构
高层组件 Session 直接面向用户,协调整个系统的运行,管理抽象逻辑。 中高层组件 Agent 负责自动任务分配,专家合作协调,经验学习与应用。 中低层组件Workflow 负责协助任务调度,工作流程组织,结构化输出与评估。 底层组件 Reasoner 执行具体操作。
当前团队正在探索并构建更成熟的分层记忆系统,目标是实现知识管理的自动化与结构化。欢迎大家关注项目进展并加入共建,推动技术落地。
8、Chat2Graph 工具图谱设计
工具集局限性:当前智能体可用工具数量有限。 未来趋势:工具精细化,数量激增,需系统化管理。
2、工具图谱设计
工具注册:将工具集纳入统一管理框架。 生成Action:总结工具的功能(如“生成代码”“修改代码”)。 建立关系:分析Action与工具之间的关联(如“修改代码”需调用哪些工具)。 图结构表达:用知识图谱描述工具与Action的关系。 工具推荐:基于图谱推荐合适的工具交付给推理机调用。
目前工具图谱的优化(借助RL实现评估与优化)还在建设中,欢迎加入共建,共同完善。
9、定制与拓展:一句话生成专属智能体
1、构建编码智能体是结构化的表达形式
构建智能体:将推理机、知识库、工具库设计为算子级能力,表达LLM、数据、计算的基本抽象,可以直达AI软件工程的本质。通过结构化配置实现智能体系统定义,过程几乎无需编写代码。 大模型优势:大模型擅长处理结构化数据,可要求大模型生成确定性结构的数据(如智能体配置)。
2、智能体定制与拓展
技术路径:利用大模型生成结构化YAML配置,替代传统代码开发,通过智能体生成器实现低代码/无代码的智能体构建。 应用场景:快速构建演示程序、复杂系统(如多工具协作);动态扩展多智能体能力,解决领域外问题。 未来方向:通过智能体生成,逐步向多智能体系统的自我迭代进行演进。
四、未来展望
1、Agent Task Compiler:将智能体任务生成视为“编译过程”,利用编译器思想优化任务规划与执行,这个探索方向我们认为是有价值和意义的并且非常有趣。
2、Computer/Browser Use:多智能体系统正从单一的内容生成向生产力工具集成方向演进,通过Computer Use/Browser Use扩展智能体能力边界。
3、World Model:通过世界知识增强大模型推理上下文,那么世界模型的设计和形态究竟如何,将是非常值得探索的过程。
4、More Connection, Less Hallucination。图的确定性语义,可以多角度地增强智能体能力,降低智能体推理幻觉。

·END·

欢迎关注TuGraph代码仓库✨
https://github.com/tugraph-family/tugraph-db
https://github.com/tugraph-family/tugraph-analytics




