暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

图谱动态|学苑周刊 NO.222

图谱学苑 2025-04-29
182

本期将分享近期全球知识图谱相关

行业动态、近期会议、论文推荐




行业动态


 

医疗语音AI助手


医疗AI公司Infinitus发布全球首个面向患者和医护的可信语音AI助手系统,其核心创新是医疗专用知识图谱架构:1)实时验证患者信息与医保计划、病史等200+数据源的关联性;2)通过多模态校验确保每次交互符合医疗规范,杜绝AI幻觉;3)已在美国医保机构Zing Health部署,使新会员健康评估效率提升3倍。该系统独创"离散动作空间"技术,将LLM的对话能力限制在预设医疗流程内,配合SOC2/HIPAA认证的安全体系,解决了医疗AI的信任难题。

该平台已处理超1亿分钟医疗对话,被Fast Company评为2025全球最具创新力企业,标志着知识图谱技术在医疗合规AI领域取得关键突破。

https://t.hk.uy/bRuu


 工业故障诊断

 


日本大金与日立公司在大阪堺工厂启动生成式AI诊断系统商业化试验,其核心技术突破包括:1)将工厂设备图纸转化为可计算知识图谱,实现设备拓扑关系的数字化表达;2)融合历史维修记录与操作技术数据训练AI模型,诊断准确率达90%以上;3)现场工程师通过平板设备10秒内即可获取故障原因与解决方案。该系统基于日立Lumada物联网平台构建,此前在滋贺工厂钎焊产线已实现工艺优化验证。

该项目预计2025年9月完成测试,未来将推广至大金全球生产基地,标志着知识图谱技术在工业设备预测性维护领域进入规模化应用阶段。

https://t.hk.uy/bRuv


近期会议


 www2025



自 1989 年万维网发明以来,Web 会议(前身为国际万维网会议,简称 WWW)是一年一度的国际学术会议,主题是万维网的未来发展方向。2025 ACM Web Conference 将于2025年4月28日-5月2日在悉尼举行,本次会议是一场面对面的会议,具有丰富的虚拟组件,包括主题演讲、口头报告、研讨会和教程的直播,以及访问预先录制的演讲视频,以及用于与所有与会者互动的 Whova 平台。

详情访问:https://www2025.thewebconf.org/


 ICBAR 2025



第五届大数据、人工智能与风险管理国际学术会议(ICBAR2025)将于2025年5月09-11日在中国成都隆重举行。大会旨在为从事大数据、人工智能与风险管理科技研究的专家学者、工程技术人员、研发人员提供一个共享科研成果和前沿技术,了解学术发展趋势,拓宽研究思路,加强学术研究和探讨,促进学术成果产业化合作的平台。大会诚邀国内外高校、科研机构专家、学者、企业界人士及其他相关人员参会交流。

详情访问:https://www.ais.cn/attendees/index/2QAYBU


FRSE2025





论文推荐

LLaTA

本周推荐的是arxiv 2025.3上的论文:Rethinking Graph Structure Learning in the Era of LLMs,作者来自北京科技大学和蚂蚁。


图结构学习 (GSL) 一直是提高图神经网络 (GNN) 性能的关键研究领域,尤其是在处理噪声或不完整的图数据时。 随着大型语言模型 (LLM) 的兴起,出现了一个利用其语言理解能力来增强图表示的机会,特别是对于节点包含丰富文本描述的文本属性图 (TAG)。


LLaTA 概述图 1:LLaTA 方法的概述,展示了上下文构建、树优化、改进的结构生成和实证评估。

论文“LLM 时代重新思考图结构学习”介绍了 LLaTA(大型语言和树助手),这是一种新颖的方法,它从根本上重新构想了如何通过利用 LLM 的语义理解能力来学习图结构。 LLaTA 没有遵循专注于训练边预测器的传统 GSL 范式,而是提出了一种更高效、解耦且免训练的架构,该架构利用基于树的 LLM 上下文学习。

背景与动机

传统的 GSL 方法通常涉及学习添加、删除或重新加权图中的边,以提高下游任务的性能。 这些方法通常依赖于训练边预测器,以确定节点之间连接的可能性。 虽然有效,但它们在计算上可能很昂贵,并且可能无法充分利用 TAG 中可用的丰富文本信息。

最近将 LLM 集成到图学习中的尝试,例如 GraphEdit 和 LLM4RGNN,已经显示出希望,但仍保持了传统 GSL 范式的复杂性。 它们通常需要大量的微调或复杂的指令数据集,这可能耗费大量资源,并且可能无法充分利用 LLM 的上下文学习能力。

作者确定了研究领域的一个关键差距:需要一种 GSL 框架,该框架可以有效地利用 LLM,同时避免不必要的计算开销。 这推动了 LLaTA 的开发,它将 GSL 目标从训练边预测器重新定义为构建语言感知的树采样器。

LLaTA 方法

LLaTA 通过提出三个关键创新,代表了 GSL 的范式转变:

1. 重新定义 GSL 目标:LLaTA 没有训练边预测器,而是专注于构建一个语言感知的树采样器,该采样器捕获拓扑和语义信息。

2. 解耦且免训练的模型设计:LLaTA 将图学习过程与特定的 GNN 主干分离,使其可以应用于各种下游模型,而无需进行大量的微调。

3. 基于树的 LLM 上下文学习:LLaTA 利用分层编码树为 LLM 提供结构上下文,使其能够更好地理解拓扑和文本关系。


论文、讨论链接:https://www.alphaxiv.org/overview/2503.21223,感兴趣的读者可以关注。



更多链接


辞旧迎新 | 回顾gStore的2024
图解李白的“朋友圈”
图解《狂飙》人物关系
用知识图谱打开梁山好汉一百单八将
公开课程 | 玩转gStore 更新啦!
公开课程 | 图数据管理与挖掘 最终讲-第九讲:面向知识图谱的自然语言问答
图说《人民的名义》
导师访谈 | 邹磊:对数据科学以及本科生科研的思考

内容:袁知秋、程湘婷、王图图





诚邀您加入我们的gStore社区,我们将在群内解决使用问题,分享最新成果~


请在微信公众号图谱学苑发送“社区”入群~



免责声明本文全部内容均来源于网络开放信息整理,如有侵权,请联系删除
欢迎关注北京大学王选计算机研究所数据管理实验室微信公众号“图谱学苑“
实验室官网:https://mod.wict.pku.edu.cn/

微信社区群:请回复“社区”获取

实验室开源产品图数据库gStore
gStore官网:https://www.gstore.cn/
GitHub:https://github.com/pkumod/gStore
Gitee:https://gitee.com/PKUMOD/gStore

文章转载自图谱学苑,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论