暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

最近3篇图神经网络GNN与信息瓶颈(IB)相关的论文

1641

点击上方 蓝字关注我们

Information bottleneck给定输入数据X和标签Y,信息瓶颈(IB)原则旨在发现潜在表示 Z, 使其同时满足:(1)对于Y而言信息量最大(Sufficient);(2)包含尽可能少的输入数据X的信息(Minimal)。


论文名称:Graph information bottleneck(NeurIPS'20)

https://arxiv.org/abs/2010.12811

作者:Tailin WuHongyu RenPan LiJure Leskovec


图神经网络 (GNN) 提供了一种有效融合网络结构和节点特征信息的表达方式。然而,GNN 容易受到对抗性攻击。针对此问题,本文基于传统信息论中Information bottleneck (IB)提出了图信息瓶颈 (GIB),即最大化表示和目标之间的互信息,同时约束表示和输入数据之间的互信息来学习得到给定任务最小的sufficient表示。与一般的 IB 不同的是GIB 对结构和特征信息进行了正则化。文中设计了两种用于结构正则化的采样算法,并提出两个新模型实例化 GIB 原理:GIB-Cat 和 GIB-Bern。实验证明,该模型对图结构和顶点属性均具有更强的抗扰动性。


论文名称:使用子图信息瓶颈预测可识别的子图(ICLR'21)


Recognizing Predictive Substructures with Subgraph Information Bottleneck  

https://arxiv.org/abs/2103.11155

作者: Junchi Yu, Tingyang Xu, Yu Rong, Yatao Bian, Junzhou Huang, Ran He


图卷积网络(GCN)的出现极大地推动了图学习的进步。然而,图数据中的噪声和冗余以及预测结果的可解释性差阻碍了GCN的进一步发展。受信息瓶颈(IB)原则的启发,本文提出了一种新颖的子图信息瓶颈(SIB)框架来识别此类子图,称为 IB-subgraph。由于互信息难通常难以处理且图数据往往具有离散性,难以对SIB 的目标函数进行优化。为解决此问题,文中结合不规则图的互信息估计器引入了一种双层优化方案。此外,在connectivity loss中选择子图部分采用连续松弛,从而提高模型的稳定性。文章从理论上证明了互信息估计方案的误差界限和 IB 子图的噪声不变性。


论文名称:利用对抗性图增强改进图对比学习(arxiv'21)

Adversarial Graph Augmentation to Improve Graph Contrastive Learning  

https://arxiv.org/abs/2106.05819

作者:Susheel Suresh, Pan Li, Cong Hao, Jennifer Neville


图对比学习 (GCL) 通过最大化相同图在不同增强形式中表示之间的对应关系,能够在无标签的情况下训练得到稳健且可转移的GNN。然而,由传统 GCL 训练的GNN容易提取出冗余的图特征,降低模型的鲁棒性且严重阻碍特征应用在下游任务上的效果。针对这些问题,本文提出了一种新的原则,称为对抗性GCL (AD-GCL),它使GNN 能够通过优化 GCL 中使用的对抗性图增强策略来避免在训练期间捕获冗余信息。文中通过理论分析解释AD-GCL原则,并基于AD-GCL实例化了一个可训练的edge-dropping图增强模型。通过与SOTA图对比学习方法比较,AD-GCL在无监督学习、转移、和半监督学习中分别实现了14%,6% 和3%的性能提升。



往期推荐



KDD2021最佳论文奖揭晓!胡侠获新星奖,论文接收率仅15%

图神经网络GNN在自监督学习与推荐系统相关研究论文

图神经网络GNN求解组合优化问题相关的四篇综述

保持图上位置/距离/度来提升GNN表示能力

ICML2021 | Max Welling等顺序等变图神经网络Equivariant Graph Neural Network

GitHub: awesome equivariant network等变神经网络一览

New course || 图神经网络课程基石

KDD 2020 | MTGNN: 基于图神经网络的多变量时间序列预测模型

从图(Graph)到图卷积(Graph Convolution): 漫谈图神经网络模型(三)

2021时间序列-对比学习必读的四篇论文

SIGIR2021 | GCN在推荐系统上的研究与应用

【硬核书】流形几何结构,358页pdf,Maryland大学WILLIAM教授编著

比9种SOTA GNN更强!谷歌大脑提出全新图神经网络GKATs

SIGIR'21|SGL基于图自监督学习的推荐系统

2021下半年会议论文投稿时间小结与历年接受率回顾(欢迎收藏)

资源分享 | 深度图表示学习的论文/视频教程/博客合集

蛋白质能量预测的 SOTA || Fresh picks from ArXiv Related GNN

Mutual Mean-Teaching:为无监督学习提供更鲁棒的伪标签||最高提升18%

ICML2021 | 具有局部和全局的自监督图表示学习

ICML 2021 | 针对图神经网络的通用因果解释方法


文章转载自深度学习与图网络,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论