暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

更强表达力的图神经网络GNN:位置感知,几何感知与身份感知图神经网络

1126

点击上方 蓝字关注我们

转载请备注:作者知乎号:风雨无阻,

编辑:图与推荐

原文链接:https://zhuanlan.zhihu.com/p/397689557

根据(Xu et al., 2019),基于图消息传递架构的GNN的表达能力上限是1-WL图同构测试(1-Weisfeiler-Lehman graph isomorphism test),也就是说,在只使用图结构信息的情况下,这些GNNs不能区分开处于同构位置的两个节点。举个例子,如下图中的节点和有相同的局部邻居结构,GNN会把它们映射到Embedding空间中相同的点上。

下面的三篇文章从不同的角度出发来增强GNN的表达能力。

1. 位置感知图神经网络与结构感知图神经网络

题目:P-GNNs:Position-aware Graph Neural Networks


Position-aware: 如果图节点的Embedding可以保留两个节点在图上的最短路径的信息,我们称这种图节点的Embedding是Position-aware的。

Structure-aware:如果图节点的Embedding是该节点的q阶邻居的函数,那么这种图节点的Embedding是Structure-aware的。


大部分的基于图上的信息传递范式的GNN都是structure aware的,如GCN、GraphSage、GAT等。


作者证明了:仅当图中不存在具有同构q阶邻居的节点对的时候,才存在从structure-aware到position-aware的映射函数。


这其实就是在说,不对GNN进行本质上的改造,是不可能学到position-aware的embeddings的。


作者利用Bourgain Theorem,借助锚点集合的方式,可以从理论上保证空间的弯曲度(distortion)在一定的程度内。从使用锚点集合来作为图上的相对位置的基点,在计算节点的Embedding时融合距离信息,从而学习到带有位置信息的Embedding。

P-GNNs的整体流程如下:

(1)从图上选择k个锚点集合;

(2)计算点关于锚点集合中的点的消息,消息计算函数融合了两个点之间的距离;

(3)聚合点关于锚点集合中的点的消息;

(4)聚合点的所有锚点集合的消息。

P-GNNs的伪代码如下:

几个关键点:

实验结果


2. 几何图神经网络

题目:GEOM-GCN: GEOMETRIC GRAPH CONVOLUTIONAL NETWORKS

作者观察到基于消息传递的GNN存在丢失结构信息和缺乏在不确定性图上学习远程依赖的能力。提出了几何聚合模式来克服这两个缺点。


确定性图:图中的相似节点更可能互相接近,相近的接节点更可能相似。如论文引用网络。


不确定性图:相似的节点在结构上高度相似,但互相距离很远。

如下图左图所示,如果每个节点的都有相同的feature,消息传递GNN区分不开两个处于不同结构里的节点:

GEOM-GCN构造了隐空间,在隐空间中构建了节点间的近邻关系,同时聚合隐空间的近邻关系和原图上的近邻关系信息。GEOM-GCN利用了节点在隐空间里的相对位置关系,可以区分这两个节点(如右图所示)。


整体流程如下:

(1)用于构造隐空间(latent space)的节点Embedding表示,把节点映射到latent space里:如Isomap、Poincare embedding、struc2vec等可以保留图上的拓扑模式的方法,得到节点在隐空间的表示。

(2)利用隐空间里的距离构造近邻关系,记为s。论文中使用的是欧式距离。

(3)再加上图结构的近邻关系g,有两个近邻关系(g,s)

(4)Bi-level聚合:在两个近邻关系里分别聚合,聚合到虚拟节点上,然后再把虚拟节点上的信息做聚合得到节点的Embedding表示。


Bi-level聚合的细节:

把两个近邻关系聚合到虚拟节点上:节点在第层输出的虚拟节点为

其中,deg(v)表示节点在图中的度,delta是示性函数:第一个参数与第二个参数相等时为1,否则为0;函数是几何操作函数,用于描述两个节点的相对位置,是保留几何空间里位置关系的关键:

表示两个节点的相对位置关系,取值空间是{upper left, upper right, lower left, lower right}。

主要实验结果

另外,作者使用邻居节点的label的相同比例来度量同质性(下表中的beta),发现在同质性较低的网络上,GEOM-GCN的提升效果更明显。


3. 身份感知图神经网络

题目:ID-GNN: Identity-aware Graph Neural Networks


作者发现基于消息传递的GNN表达力的上界是1-WL图同构测试,不能预测节点的聚类系数、最短路径距离,无法区分不同的d-regular graphs(图中的各个节点的度都是d)。作者提出了ID-GNN,表达力可以超越1-WL图同构测试。在计算节点的embeding时,抽取节点的自我中心网络,在计算消息函数时使用异构的消息函数,中心节点和周围节点使用不同的消息函数。


ID-GNN的整体流程如下:

(1)对于要计算embedding的节点v,抽取以它为中心的K-阶自我中心网络;

(2)对于K-阶自我中心网络中的节点u,利用其邻居节点进行消息聚合计算,在聚合中心节点v时,使用不同的消息函数;

(3)重复(2)步骤K次;

(4)得到中心节点v的 Embedding。

ID-GNN的核心点就是计算节点的Embedding时,针对中心节点和周围节点使用不同的消息函数。


ID-GNN-Fast


主要实验结果

作者在模拟数据集和真实数据集上与GNN做了对比实验。

与其他比常见GNN表达力更强的算法的对比,如上文中的P-GNN。

参考资料

[1] Xu, K., Hu, W., Leskovec, J., and Jegelka, S. How powerful are graph neural networks? International Conference on Learning Representations, 2019.

[2] You, J.; Ying, R.; and Leskovec, J. Position-aware graph neural networks. International Conference on Machine Learning (ICML) , 2019.  [3] Pei, H., Wei, B., Chang, K. C.-C., Lei, Y., and Yang, B. Geom-gcn: Geometric graph convolutional networks. In ICLR, 2020.

[4] Jiaxuan You, Jonathan Gomes-Selman, Rex Ying, and Jure Leskovec. IdentityAware Graph Neural Networks. In AAAI, 2021.


往期推荐



最近3篇图神经网络GNN与信息瓶颈(IB)相关的论文

重磅!《几何深度学习》课程发布!帝国理工/DeepMind等图ML大牛共同讲授: 从图几何到深度学习

序列建模常用 || 超越ReLU却鲜为人知,3年后被挖掘:BERT、GPT-2等都在用的激活函数

KDD2021最佳论文奖揭晓!胡侠获新星奖,论文接收率仅15%

图神经网络GNN在自监督学习与推荐系统相关研究论文

图神经网络GNN求解组合优化问题相关的四篇综述

文章转载自深度学习与图网络,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论