努力理解 GCNN(图卷积神经网络)

数据挖掘 神经网络 卷积 图表
2021-10-14 19:50:34

尽管我已经与 CNN 合作了一年多,但我很难理解 GCNN 如何在其简化方面工作论文我已经阅读了几篇论文,当他们谈论切比雪夫多项式或傅里叶空间时,我发现自己超出了我的理解范围。

这些描述谈到使用邻接矩阵作为输入,也许我的主要困惑是我如何将这样的矩阵提供给卷积神经网络(如果这是实际上所做的)。我不能只对矩阵进行卷积,就好像它是图像一样,因为矩阵中的空间相似性(即彼此靠近的行/列)并不表示图中节点之间的实际接近程度。因此,问题是,邻接矩阵如何适应使用空间滤波器的 CNN 框架以及分层堆栈/图中的逻辑运算(非线性回归)。

由于这个 GCNN 不如具有更多解释材料的 CNN 成熟,因此一些关于这些方法有何不同的进一步解释材料会有所帮助。是否存在可以使用 GCNN 的使用来得出特定于该方法/框架的结果的简单情况?

1个回答

“图卷积神经网络”这个名称有点误导,因为根本没有发生“传统”卷积(如在 CNN 的上下文中)。您是对的,对图的邻接矩阵执行卷积实际上没有意义。GCNNs 与 CNNs 的共同点是有一个被利用的“本地邻域”的概念。

在 CNN 中,这个邻域由每个像素的周围像素组成。在通过非线性之前,对邻域中的像素应用线性变换(离散卷积)。

然而,在 GCNN 中,每个节点的邻域由与该节点共享边的其他节点集给出。在应用线性变换和随后的非线性之前,每个节点的表示均与其邻域中节点的表示进行平均。执行局部平均的方法可以使用邻接矩阵的一些矩阵算术技巧来完成,这可能是您感到困惑的地方。

在简化版本中,他们删除了非线性步骤,这极大地简化了隐藏表示和线性变换步骤的计算。