当使用具有多个输出的神经网络时,通常建议什么作为尽早停止训练过程的最佳策略?
鉴于我目前正在监控净验证损失(来自 n 个不同输出神经元的验证损失加在一起),并且已经注意到我的训练在收敛之前的一个或多个损失之前提前停止,我很好奇什么是最佳实践这种情况。
- 是否应该监控净验证损失,或者是否有任何方法可以实现提前停止,以便监控 n 个输出中的 m 个(m 从 1 到 n)输出的验证损失,并且在某个范围内的所有/振荡收敛时停止训练临界点。
- 如何在避免过度训练某些输出节点同时防止其他节点训练不足的情况下实现这一点?
我是这个领域的新手,如果你还没有猜到,如果这个问题没有很好地放在一起,请多多包涵!