当输入到达时,神经元会立即前馈吗?

人工智能 神经网络 机器学习 循环神经网络 残差网络
2021-11-13 07:15:46

假设我有一个 5 层的神经网络,包括输入层和输出层。每层有5个节点。假设层是全连接的,但是第 2 层的第 3 个节点连接到第 4 层的第 5 个节点。对于示例,所有这些数字都是随机选择的。

第 4 层中的第 5 个节点何时前馈?

让我们一步一步来。第一层通常前馈到第二层。第二层通常前馈到第三层,但第三层节点也会前馈到第四层的第五层节点。

此时,第 4 层中的第 5 个节点现在是前馈,还是在第 3 层完成前馈时才前馈?第一种方法意味着节点将被前馈 2 次,我担心的是,如果输出仍然有效。

此外,它还会出现 2 个异步输出,如何解释这些输出?

因为在大脑中,我听说,当冲动到达时,神经元会被激发,所以这相当于第一种方法。

1个回答

目前尚不清楚您指的是哪种网络,没有一个单一的神经网络模型可以想象这两种情况都可以存在并服务于某些目的,但是如果您正在寻找一个模拟自然和真实神经元的网络,那么您就错过了至少 2 个成分(时间以及静息电位和不应期的机制),这反过来又为神经网络引入了新的计算。

如果我做对了,这就是你的网络图:

在此处输入图像描述

如果第 3 列中有输入,则在没有不应期和没有时间的静息电位的神经网络中的计算将立即修改 node4 第 5 层 (n4-L5) 的权重:

在此处输入图像描述

除非您在任何层上有一些其他显式计算,否则其他列上的额外输入只会加起来。

如果你想模拟一个神经元,每个节点都需要有一个静息电位,即:它会触发的水平(在上面的例子中为零)和不应期:它再次触发之前的时间,如以及保持同步的时钟,这将是一个粗略的实时传真:

http://codepen.io/k3no/pen/WRQbYV

在此处输入图像描述

一种常见的替代方法是使用顺序阶段或步骤。

参考/来源

人工智能:一种现代方法,作者 S. Russell 和 P. Norvig。处理人工智能的一般步骤方法

Gateway to Memory,作者 Mark A. Gluck 和 Catherine E. Myers 介绍了对神经网络建模的精彩且易读的介绍。

我在一篇中篇文章中发表了这个小神经网络模型:内存和机器,相关来源在那里。