预训练的图嵌入

数据挖掘 图表 嵌入
2022-02-14 13:49:56

DL 以与词嵌入类似的方式使用预训练图嵌入是否有任何先例?

3个回答

据我了解,主题嵌入不能在图之间移植,因为每个图都有自己需要学习的特征。在词嵌入领域,它是不同的,因为域保持不变(词)。

在图领域,您通常在稍后将嵌入的同一图上训练模型。在同一个图上训练也很重要,因为节点的标签通常是图特定的节点 ID。在词嵌入领域,该方法通过名称(字母序列)识别词,而在图形中,节点通过它们的 ID 来识别。

希望它解释一下。如果您想了解图嵌入,一般来说,我建议您阅读这个故事

有几个。最受欢迎的可能是 Facebook 研究团队使用他们的 Pytorch Big Graph (PBT) 在整个 Wikipedia 内容上进行的嵌入。就节点/主题的数量以及文件大小(30+GB gzip 文件!)而言,预训练的嵌入非常大

你真的在找graph neutral network吗?

请注意,大多数(流行的)图嵌入算法都是无监督学习,从这个意义上说,获得“预训练模型”并没有太大意义。