图神经网络是卷积神经网络的泛化吗?

人工智能 神经网络 卷积神经网络 比较 图神经网络
2021-10-19 19:08:32

本课程的第 4 讲中,讲师认为 GNN 是 CNN 的泛化,并且可以从 GNN 中恢复 CNN。

他展示了下图(右侧),并提到它同时代表 CNN 和 GNN。他特别提到,如果我们将图移位算子(即矩阵 S,在 GNN 的情况下可以表示邻接矩阵或拉普拉斯算子)具体化来表示有向线图,那么我们得到一个时间卷积滤波器 (在观看此之前我没有听说过,但现在我知道它所做的只是在每个时间步将图形信号沿箭头方向移动)。

在此处输入图像描述

那部分我理解。我不明白的是我们如何从 GNN 获得 2D CNN(例如我们将应用于图像的那些)。我想知道是否有人可以解释。

编辑:我在这里找到了部分答案但是,定义的图像卷积似乎与我习惯的有点不同。似乎卷积只考虑“当前”像素的左侧和上方的像素,而我习惯于考虑左侧、右侧、上方和下方的卷积

1个回答

原谅我不够严谨。尽管我相信对于 GNN 的某些定义可以严格证明这一点,但这个术语对于我来说仍然太松散,无法诚实地对此提出一种或另一种说法。希望以下想法无论如何都会有所帮助。

我更喜欢使用消息传递网络这个术语来概括人们喜欢称之为 GNN 的许多东西。在通用消息传递网络中,每个节点都有一个关联的向量。每个节点的向量,X一世, 然后根据自身及其邻居进行更新。(为了便于阅读,我省略了时间索引……)

例如:

X一世:=üpd一个e(X一世,Xjñ(X一世)ess一个Ge(X一世,Xj,e一世j))

在哪里ñ(X一世)是与相邻节点相关联的向量集X一世üpd一个eess一个Ge是任意参数化函数。

在这种情况下ess一个Ge(X一世,Xj,e一世j)=e一世jXje一世j是一个标量,并且üpd一个e(一个,b)=b,这变为以下内容:

X一世:=Xjñ(X一世)e一世jXj

这意味着每个节点都成为其邻居的加权和,这正是卷积(假设您的步幅为 1 ......并且您有填充......并且该图是一个网格,其中所有向上的边都相等,所有左边缘相等,所有右边缘相等,所有向下边缘相等。)