我一直在阅读“drop”是一种更好地规范模型的方法。它的目的是只更新反向传播中的部分权重,它可以帮助您不要过度拟合模型。但我想知道,这种方法在小批量中是否有用?
以正则化为目的的小批量中的权重下降点
数据挖掘
神经网络
正则化
小批量梯度下降
2022-03-12 07:36:27
1个回答
是的,辍学在这种情况下也很有用。dropout 的目的是通过使用给定层的所有可用权重来使模型更好地泛化。它应该使后续层不依赖于前一层的少量激活,而是全部使用它们。
其它你可能感兴趣的问题