理解论文《Hierarchical Graph Pooling with Structure Learning》中的节点信息分数

人工智能 文件 几何深度学习 图神经网络 光谱分析
2021-10-27 06:52:15

论文Hierarchical Graph Pooling with Structure Learning (2019) 介绍了以下之间的距离度量:

  1. 图的节点表示矩阵H, 和
  2. 从每个节点的邻居信息构建的近似值D1AH

在这里,我们正式将节点信息分数定义为节点表示本身与从其邻居构造的节点之间的曼哈顿距离:

p=γ(Gi)=||(Iik(Dik)1Aik)Hik||

(在哪里AD分别是图的邻接矩阵和对角矩阵)

在 RHS 上扩展我们得到的产品(为简单起见忽略索引符号):

||H(D1AH)||

问题:我不明白如何D1AH是一个“节点表示......从它的邻居构建”。

ID1A显然等同于Random Walk Laplacian,但对我来说如何乘以它并不是很明显H提供每个节点的信息,说明从其邻居重建节点的能力。

1个回答

这里,H是一个nd矩阵n是图中的总节点数,并且d是每个节点的嵌入维度。

使用问题中的符号,没有自循环的基本 GNN 公式是:D1AH. 如果你仔细研究这个方程,你会发现ith一排AH生成ith通过对其相邻节点的节点表示求和来表示节点的表示。乘以D1使聚合表示相对于节点的程度(邻居数)进行归一化。

通过定义一个称为信息分数的指标:

||H(D1AH)||
对于由其本地邻域节点很好地表示的节点,我们将获得较低的值,而对于难以由其相邻节点表示/汇总的节点,我们将获得高值。为了逼近图信息,作者选择保留不能被其邻居很好表示的节点,即在池化图的构建中将保留节点信息分数相对较大的节点,因为作者认为它可以提供更多信息。