如何训练 CNN

人工智能 卷积神经网络 反向传播
2021-10-31 12:38:51

谈到 CNN,我在训练过程中有两件事不明白:

  1. 当卷积层之间存在池化层时,如何将错误传回?

  2. 如果我知道它是如何完成的,我可以像普通前馈神经网络中的层一样训练所有层吗?

1个回答

是的。您可以进行端到端的训练。将具有相关池化层的卷积核引入到信号上的前馈操作序列中并不会改变基本原理。

  • 梯度下降估计收敛到最佳行为所需的增量变化。
  • 校正误差必须分布,最有效的方法是通过对从输出回到输入的每组参数(无论是卷积核还是衰减输入到激活向量的矩阵)顺序使用激活函数的导数。

考虑在 Jefkine.com 上研究卷积神经网络中的反向传播,它阐明了这些原理与卷积池对的应用。

还有另一种方法,借鉴了仪器模拟反馈开发中获得的智慧。有时,可以通过多个反馈循环更好地训练一系列操作,这需要在中间阶段确定一些错误或健康状况,并将系统分解为各个部分,每个部分都根据这些中间标准进行训练。

这种另一种方法是分层的,整体收敛可以通过更高级别的反向传播来控制,将每个段视为一个黑匣子。与模拟电路一样,具有半独立收敛机制的多自由度已被证明允许更深的序列,而不会严重损失收敛可靠性或准确性。