暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

CVPR 2021 | 三篇弱/自监督学习与图神经网络相关论文

1322
与ICML, NeurIPS会议论文相比,在CV领域的图论文,思路基本都非常的直观,没有太多冗长的证明。下面介绍发表在CVPR2021的三篇与弱监督和图神经网络相关的论文,为什么是弱监督呢?因为除了原始的监督信号引入一些其他的监督信息,这些监督信号可能存在于数据本身。论文题目,分别是:
  • SelfSAGCN: Self-Supervised Semantic Alignment for Graph Convolution Network

  • Learning Graphs for Knowledge Transfer With Limited Labels

  • Learning Graph Embeddings for Compositional Zero-Shot Learning



1. SelfSAGCN 图卷积网络的自监督语义对齐
SelfSAGCN: Self-Supervised Semantic Alignment for Graph Convolution Network
作者:Xu Yang等

图卷积网络 (GCN) 是一种强大的深度学习方法,已成功应用于各种实际应用中的图表示学习。尽管取得了成功,但 GCN 的两个基本弱点限制了它们表示图结构数据的能力:当标记数据严重稀缺时性能不佳,以及堆叠更多层时无法区分特征也就是oversmoothing。在本文中,作者提出了一个简单而有效的自监督语义对齐图卷积网络(SelfSAGCN)以解决这些问题,它由两个关键方法组成:身份(Identity)聚合和语义对齐。
背后的基本思想是同一类中的节点embeding从语义和图结构两个方面学习,他们的最终表示应该相似。具体而言,Identity Aggregation 用于从labeled节点中提取语义特征,Semantic Alignment 用于使用类中心相似度对齐从不同方面获得的节点特征,相当于一种无监督对齐。通过这种方式,过度平滑现象得到缓解,同时未标记特征与来自同一类的标记特征之间的相似性得到增强。在五个流行数据集上的实验结果表明,所提出的 SelfSAGCN 在各种分类任务上优于最先进的方法。

2. 有限标签知识转移的学习图
Learning Graphs for Knowledge Transfer With Limited Labels
作者:Pallabi等

本文作者思路十分直白,十分简单,也就是在中间层应用triplet loss,使得图中的有连边的节点的表示相似,没有连边的节点不相似,如下图所示。anchor是蓝点,绿色点是positive, 红色点是negative.


3. 用于Compositional Zero-Shot learning的图嵌入

Muhammad Ferjad Naeem等
在compositional zero-shot learning中,目标是识别训练集中观察到的视觉原语状态(例如老、可爱)和对象(例如汽车、狗)的看不见的组合(例如老狗)。这是具有挑战性的,因为相同的状态可以例如改变狗的视觉外观与汽车截然不同。

本文提出了一种称为组合图嵌入 (CGE) 的新型图范式,它以端到端的方式学习图像特征、组合分类器和视觉基元的潜在表示。关键是利用图结构中状态、对象及其组合之间的依赖关系来强制相关知识从可见组合转移到看不见组合。通过学习对概念之间的语义进行编码的联合兼容性,模型允许在不依赖外部知识库(如 WordNet)的情况下泛化到看不见的组合。

文章转载自深度学习与图网络,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论