暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

数据库与数据挖掘协会周刊第14期

时空实验室 2024-11-27
68

Latest News

Wiki

感受野

感受野(Receptive Field)指的是神经网络中某个神经元能够感知或影响的输入数据范围。在卷积神经网络(CNN)中,感受野某一层的神经元在输入特征图上所“看到”的区域大小,反映了该神经元对输入数据的感知范围。感受野由网络的卷积核大小、步幅、填充以及层数共同决定,随着网络深度的增加,感受野通常会逐渐增大。感受野的大小直接影响网络提取特征的能力:较小的感受野有助于捕捉局部特征,如边缘和纹理,而较大的感受野则有助于理解全局信息。而在图神经网络(Graph Neural Network, GNN)中,感受野指的是一个节点能够通过网络传播和聚合操作访问到的邻居节点的范围。换句话说,感受野定义了一个节点在多次消息传递后能够感知到的图结构和特征信息的范围。随着网络层数的增加,每一层都会将节点的感受野扩展到更远的邻居节点,使得模型可以学习更广泛的图局部或全局信息。然而,过深的网络可能导致过度平滑(over-smoothing)问题,使得节点特征变得难以区分。因此,在GNN中合理控制感受野的大小对于捕捉有意义的图信息至关重要。


Academic Push

The Snowflake Hypothesis: Training and Powering GNN with One Node One Receptive Field
来源: KDD 2024(CCF-A)
作者: Kun Wang, Guohao Li, Shilong Wang, Guibin Zhang, Kai Wang, Yang You,Xiaojiang Peng, Yuxuan Liang, Yang Wang
链接:https://dl.acm.org/doi/pdf/10.1145/3637528.3671766

简介:图神经网络已经成为解决多种图表示学习任务的领先模型,包括节点分类、链接预测以及图分类 。尽管GNN前景广阔,但在GNN深入发展为卷积神经网络一样更深层次的网络时,仍面临过拟合过平滑以及梯度消失等长期存在的问题。然而 ,图表示学习迫切需要更深层的GNN,特别是在处理具有密集连接的大规模图时。最近的一些研究表明,训练更深层GNN是可行的。尽管CNN的继承设计(如残差/跳跃连接)可以部分缓解过平滑问题,但这些改动未能有效地探索聚合策略与网络深度之间的关系。在本文中,作者假设图中的每个节点应具有其独特的感受野。这一假设通过逐元素裁剪邻接矩阵得以实现。这一过程能够在节点聚合深度方面实现“提前停止”的功能,不仅增强了可解释性,还帮助缓解了过平滑问题。基于大量实验观察,提出了雪花假说。即在使用GNN模型和节点特征拟合来自自然界的抽象图时,通过对邻接矩阵进行逐元素裁剪,可以揭示每个节点应该聚合的独特感受野,这类似于每片雪花都具有其独特的模式和结构。这种方法能够克服过平滑问题并训练更深层的GNN。


Question

上期链接:数据库与数据挖掘协会周刊第13期
上期答案:B) 冗余块数为 n-k,能容忍最多 n-k 块数据同时丢失

Reed-Solomon码的容错能力与冗余块数(n-k)直接相关,能够容忍最多 n-k 块数据同时丢失,这是其在数据存储和传输中的核心优势。本题中,选项B描述正确,因为Reed-Solomon码通过冗余数据的设计能够修复这些丢失的块。选项A错误,因为容错能力取决于冗余块数而非原始数据块数k;选项C错误,容错能力与冗余块数有关,与数学运算复杂性并非无关;选项D错误,Reed-Solomon码不仅可以修正单符号错误,还可以处理块数据丢失。因此,正确答案为 B. 冗余块数为 n-k,能容忍最多 n-k 块数据同时丢失。
一个易错点在于这里是针对的丢失数据,如果说是针对错误数据,那么在大部分信道上,最多是(n-k)/2,但在BEC信道上,数据要么被准确接收,要么被标记为“丢失”(即可以知道那些数据是错误的),所以这时候依然可以容忍n-k块数据错误,和B选项一致。



数据库与数据挖掘协会(DataBase & DataMining Association,简称DBDMA)一个致力于促进重庆大学数据库和数据挖掘领域发展的学生社团,我们的目标是让世界了解重大数据库,让重大数据库走向世界!

文字:DBDMA-尚游
编辑:DBDMA-王伟俨
校对:DBDMA-王伟俨

文章转载自时空实验室,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论