CNN:从一个神经元体积到下一个神经元体积会发生什么?

人工智能 卷积神经网络 神经元 特征图
2021-10-27 02:06:49

我在网上浏览了几篇关于 CNN 的描述,它们都遗漏了一个关键部分,就好像它是微不足道的。

一个“体积”的神经元由几个平行层(“特征图”)组成,每个层都是与不同内核卷积的结果。

在卷之间,通常有一个步骤,其中层被池化和二次采样。

下一卷具有不同数量的并行层。

一个卷的特征图如何连接到下一卷的特征图?是一对多吗?多对多?N 个内核是否适用于第一卷中的每个 M 个特征图,在第二卷中产生 N*M 个特征图?对于第一卷中的每个特征图,这些 N 个内核是否相同,或者不同的内核是否适用于每个?

或者,第二卷的地图数量不一定是第一卷的倍数?如果是这样,第一卷中的地图是否会以某种方式交叉合成?或者,第二卷中的地图数量可能与第一卷中的每张地图不同?

或者,它是无数万亿种可能性中的其他一些吗?

2个回答

简短答案:一对多
长答案:

关键是您在 CNN 中使用了 3D 卷积。每个内核的大小为 n*m*C(C 是特征图的数量),每个特征图都有自己的内核(=权重)和偏差。

一个例子:

第 2 层的大小为 9x9x10(步幅 1,无填充),内核大小为 3x3x10。

下一层的维度是 3x3xn(n 是第 2 层的内核数)。

在这里,我找到了一个非常清楚的解释。

我希望这有帮助。

如果您真的想了解 CNN 中发生的事情并将其可视化,那么您可以阅读.

本课程需要一些先决条件,例如对正向和反向传播有一定程度的了解,并了解网络如何自我学习。

CNN 只是从完全连接层(每个输入连接到每个输出)移动到部分连接层的一种方式。