在卷积神经网络中,如何防止过拟合?

机器算法验证 神经网络 深度学习 过拟合 卷积 深度信念网络
2022-03-26 08:30:14

给定一定数量的标记数据,我们定义网络结构,例如层数、层类型、卷积层数、池化层数等。

并使用反向传播训练参数,同时我们显示训练过程中的损失并查看验证数据集的测试准确性。

但是,训练集的损失几乎为零,无论如何降低学习率,测试精度都保持不变。

  • 在这种情况下,是否过拟合?
  • 我们应该改变网络结构吗?
  • 更多层以获得更多参数?
  • 您能否推荐一些建议或参考资料?
2个回答

我会说在使用反向传播时计算错误时可能存在错误。

还有你的数据有多大?您在模拟中使用了多少个 epoch?你的训练是如何进行的?如果我能获得更多数据,我可以为您提供更多帮助。

这可能会对您有所帮助:http ://www.cs.toronto.edu/~hinton/csc2515/notes/lec4.htm

也许你可以试试 dropout 技术。我听说它可以有效防止过度拟合。

  • 辍学:防止神经网络过度拟合的简单方法,作者 Nitish Srivastava、Geoffrey E. Hinton、Alex Krizhevsky、Ilya Sutskever、Ruslan R. Salakhutdinov 机器学习研究杂志,2014 年。PDF

最近,谷歌甚至为这项技术申请了专利!!!