根据我对卷积神经网络的研究,这种网络中的每一层都有一个下采样操作,其中降低了图像的分辨率,以提高网络的泛化能力。因此,CNN 可以由卷积和子采样层的交替组成。然而,当使用反向传播来训练卷积神经网络时,我不太明白如何训练卷积层。当你在训练一个卷积层的时候,难道不需要下一层的权重来计算delta吗?根据我对反向传播的理解,找到隐藏层增量的方程如下:
Neuron.Delta = Neuron.Output * (1 - Neuron.Output) * ErrorFactor
但是,要找到 ErrorFactor,您需要当前层与下一层之间的连接权重。如果下一层是子采样层,则不会有任何权重可用于计算 delta。我目前对这个问题的解决方案是简单地查看下一层的权重来计算当前层的增量。所以,如果第 1 层是卷积层,第 2 层是子采样层,第 3 层是卷积层,我会查看连接第 2 层和第 3 层的权重来计算第 1 层的 delta。这是对如何训练卷积神经网络?