本文介绍6篇最近关于Graph的相关论文,也是小编关注和感兴趣的,其中涉及Motif High-order学习;标签一致性的GNN;从信号处理角度展开的图综述;Ricci曲率收敛;动态图学习;孪生训练等1.基于Motifs的图卷积多层网络的图表示学习 原文标题:Representation Learning of Graphs Using Graph Convolutional Multilayer Networks Based on Motifs地址:http://arxiv.org/abs/2007.15838作者:Xing Li, Wei Wei, Xiangnan Feng, Xue Liu, Zhiming Zheng 小编:motif在CS224W课程中有较多的提到。Motif可以简单的理解为图像中的纹理,patterns等等. Graph中的motif一般从三个节点连接成的形状开始,如下面图所示,用motif可以有效提取高阶信息,有兴趣可以回头在看看CS224W的课程。 摘要:图结构是一种常用的数据存储模式,事实证明,图中节点的低维嵌入式表示在各种典型任务(例如节点分类,链路预测等)中非常有用。但是,现有方法没有利用图中的高阶局部结构(即Motifs)。在这里,我们提出了mGCMN-一种新颖的框架,该框架利用节点特征信息和图的高阶局部结构来有效生成先前未见数据的节点嵌入。通过研究,我们发现不同类型的网络具有不同的关键主题。在引文网络和社交网络数据集中,我们的方法相对于基线方法的优势已经得到证明。同时,揭示了分类精度的提高与聚类系数之间的正相关。相信使用高阶结构信息可以真正体现网络的潜力,这将大大提高图神经网络的学习效率,促进全新的学习模式的建立。 2.基于标签一致性的GNN标题:Label-Consistency based Graph Neural Networks
for Semi-supervised Node Classification 作者:Bingbing Xu, Junjie Huang等地址:https://arxiv.org/pdf/2007.13435.pdf小编:本文来自计算技术研究所Xu Bingbing同学,上次公众号介绍过一篇GraphHeat也是这位同学写的,这篇论文发表在SIGIR20。本文方法简单明了,值得一读~图神经网络(GNN)在半监督节点分类中取得了巨大的成功,它利用了来自相邻节点的信息来改进目标节点的表示学习。GNN在节点分类上的成功有一个假设即所连接的节点倾向于具有相同标签。但是,这种假设并不总是可行的,这限制了GNN在节点分类时的性能。在本文中,我们提出了基于标签一致性的图神经网络(LC-GNN),它利用未连接但具有相同标签的节点对扩大了GNN中节点的接受范围。在基准数据集上进行的实验表明,所提出的LC-GNN在基于图的半监督节点分类中优于传统的GNN。我们进一步展示了在只有少数标记节点的稀疏情况下LC-GNN的优越性 3.用于机器学习的图信号处理:综述与新视角 原文标题:Graph signal processing for machine learning: A review and new perspectives地址:http://arxiv.org/abs/2007.16061作者:Xiaowen Dong, Dorina Thanou, Laura Toni, Michael Bronstein, Pascal Frossard小编:本文是一篇综述涉及图上的信号处理,也就是谱分解的角度去理解图卷积摘要:大规模结构化数据的有效表示、处理、分析和可视化,尤其是那些与诸如网络和图之类的复杂域相关的数据,是现代机器学习中的关键问题之一。图信号处理(GSP)是信号处理模型和算法的一个分支,旨在处理图上支持的数据,为应对这一挑战打开了新的研究途径。在本文中,我们回顾了GSP概念和工具(例如图过滤器和变换)对新型机器学习算法开发的一些重要贡献。特别是,我们的讨论集中在以下三个方面:开发数据结构和关系先验,提高数据和计算效率以及增强模型的可解释性。此外,我们对GSP技术的未来发展提供了新的观点,GSP技术一方面可以充当应用数学和信号处理之间的桥梁,另一方面可以充当机器学习和网络科学之间的桥梁。 4.随机几何图的Ollivier-Ricci曲率收敛 原文标题:Ollivier-Ricci curvature convergence in random geometric graphs地址:http://arxiv.org/abs/2008.01209作者:Pim van der Hoorn, William J. Cunningham, Gabor Lippner, Carlo Trugenberger, Dmitri Krioukov小编:数学系的几位大佬写的,涉及图上的曲率,不感兴趣的同学直接跳过~摘要:连续世界和离散世界之间的联系往往难以捉摸。一个例子是曲率。尽管存在许多曲率的非等价定义,但严格地讲,没有一个方法能够收敛到任何对黎曼流形的传统曲率定义的限制。在这里,我们表明,任何黎曼流形中的随机几何图的Ollivier曲率在连续极限内收敛到基础流形的Ricci曲率。该结论在随机图的曲率定义与平滑空间曲率的传统定义之间建立了严格的联系,并且是第一个。 5.Global Topology Preserving动态图嵌入原文标题:GloDyNE: Global Topology PreservingDynamic Network Embedding地址:http://arxiv.org/abs/2008.01935作者:Chengbin Hou, Han Zhang, Shan He, Ke Tang小编:之前有看过这位同学先前的论文,也非常有意思。这篇论文还在TKDE Major Revision中, 期待有一个好的结果。这篇论文解决的是动态图学习;不过侧重使用skip-grapm+增量学习的方法,非GCN-based的方法。摘要:由于许多现实世界网络的时间演变特性,在动态环境中学习网络的低维拓扑表示备受关注。动态网络嵌入(DNE)的主要和共同目标是有效地更新节点嵌入,同时保留每个时间步的网络拓扑。大多数现有DNE方法的思想是刻画受影响最大的节点(而不是所有节点)处或周围的拓扑变化,并相应地更新节点嵌入。不幸的是,这种近似虽然可以提高效率,但是由于没有考虑接收通过高阶邻近传播的累积拓扑变化的非活动子网,因此无法在每个时间步上有效地保留动态网络的全局拓扑。为了解决这一挑战,我们提出了一种新颖的节点选择策略,以通过网络多样化地选择代表性节点,并与基于Skip-Gram嵌入方法的新的增量学习范例进行了协调。广泛的实验表明,仅需选择一小部分节点的GloDyNE就已经可以实现卓越的性能或可比的性能。在三个典型的下游任务中使用最新的DNE方法。特别是,GloDyNE在图重建任务中明显优于其他方法,这证明了其全局拓扑保留的能力。源代码位于https://github.com/houchengbin/GloDyNE 6.图卷积网络的孪生训练对节点少样本分类的性能评估原文标题:Performance Evaluation of Graph Convolutional Networks with Siamese Training for Few-Shot Classification of Nodes作者:Nichita Uțiu地址:https://logicalreasoninggnn.github.io/papers/19.pdf摘要:孪生网络学习嵌入对嵌入空间施加几何约束,并在单/少样本学习上下文中使用。在本文中,我们将此框架应用于图卷积网络(GCNs)进行了实证研究。我们测试了在节点的单/少样本学习任务中,一些轻量级架构是否比普通多层感知器(MLPs)的性能有所提高。我们证明,在我们的基准测试中,即使使用快速简化的图卷积网络(SGCN)也可以取得良好的性能。