可以将深度神经网络层视为 Hopfield 网络吗?

人工智能 神经网络 深度学习 深度神经网络 拓扑 hopfield网络
2021-10-24 22:20:38

Hopfield 网络能够存储一个向量并从它的嘈杂版本开始检索它。他们这样做是为了在所有神经元都设置为等于向量值时最小化能量函数,并使用它的噪声版本作为输入来检索向量,并允许网络稳定到能量最小值。

撇开无法保证网络会稳定在最接近的最小值等问题不谈——这些问题最终用玻尔兹曼机解决,最终用反向传播解决——突破是它们是具有抽象表示的起点。同一文档的两个版本会调用相同的状态,它们将在网络中由相同的状态表示。

正如 Hopfield 本人在他 1982 年的论文《具有新兴集体计算能力的神经网络和物理系统》中所写

然后,当前的建模可能与实体或格式塔如何根据表示其特征集合的输入被记住或分类有关。

另一方面,深度学习的突破是能够构建输入的多个分层表示,最终使 AI 从业者的生活更轻松,简化特征工程。(参见例如表示学习:回顾和新观点,Bengio,Courville,Vincent)。

从概念的角度来看,我相信可以将深度学习视为对 Hopfield 网络的概括:从单一表示到表示的层次结构。

从计算/拓扑的角度来看也是如此吗?不考虑 Hopfield 网络有多“简单”(2 态神经元、无向、能量函数),我们可以将网络的每一层视为 Hopfield 网络,而将整个过程视为对先前记忆的格式塔的顺序提取,以及对这些格式塔?

1个回答

深度学习不是 Hopfield 网络的泛化。深度学习是由 Rumelhart 和 McClelland 开创的神经网络/连接主义领域的“概括”。

有两种神经网络:

  • 定向(感知器、MLP、ConvNets、RNN 等)
  • 无向(Hopfield 网络、玻尔兹曼机、基于能量的模型等)

这些中的任何一个都可以变得很深。正如你所说,玻尔兹曼机是 Hopfield 网络的概率版本,在这些模型上的深度比 Hopfield 网络要多得多:深度玻尔兹曼机、深度信念网络和深度能量模型。Hinton 确实是您想要了解这些模型的人,但您可以查看比较这三种模型的这篇论文。

不确定格式塔组织。我想我会把它留给你的解释。