谈到 CNN,我在训练过程中有两件事不明白:
当卷积层之间存在池化层时,如何将错误传回?
如果我知道它是如何完成的,我可以像普通前馈神经网络中的层一样训练所有层吗?
谈到 CNN,我在训练过程中有两件事不明白:
当卷积层之间存在池化层时,如何将错误传回?
如果我知道它是如何完成的,我可以像普通前馈神经网络中的层一样训练所有层吗?
是的。您可以进行端到端的训练。将具有相关池化层的卷积核引入到信号上的前馈操作序列中并不会改变基本原理。
考虑在 Jefkine.com 上研究卷积神经网络中的反向传播,它阐明了这些原理与卷积池对的应用。
还有另一种方法,借鉴了仪器模拟反馈开发中获得的智慧。有时,可以通过多个反馈循环更好地训练一系列操作,这需要在中间阶段确定一些错误或健康状况,并将系统分解为各个部分,每个部分都根据这些中间标准进行训练。
这种另一种方法是分层的,整体收敛可以通过更高级别的反向传播来控制,将每个段视为一个黑匣子。与模拟电路一样,具有半独立收敛机制的多自由度已被证明允许更深的序列,而不会严重损失收敛可靠性或准确性。