以正则化为目的的小批量中的权重下降点

数据挖掘 神经网络 正则化 小批量梯度下降
2022-03-12 07:36:27

我一直在阅读“drop”是一种更好地规范模型的方法。它的目的是只更新反向传播中的部分权重,它可以帮助您不要过度拟合模型。但我想知道,这种方法在小批量中是否有用?

1个回答

是的,辍学在这种情况下也很有用。dropout 的目的是通过使用给定层的所有可用权重来使模型更好地泛化。它应该使后续层不依赖于前一层的少量激活,而是全部使用它们。