给定一定数量的标记数据,我们定义网络结构,例如层数、层类型、卷积层数、池化层数等。
并使用反向传播训练参数,同时我们显示训练过程中的损失并查看验证数据集的测试准确性。
但是,训练集的损失几乎为零,无论如何降低学习率,测试精度都保持不变。
- 在这种情况下,是否过拟合?
- 我们应该改变网络结构吗?
- 更多层以获得更多参数?
- 您能否推荐一些建议或参考资料?
给定一定数量的标记数据,我们定义网络结构,例如层数、层类型、卷积层数、池化层数等。
并使用反向传播训练参数,同时我们显示训练过程中的损失并查看验证数据集的测试准确性。
但是,训练集的损失几乎为零,无论如何降低学习率,测试精度都保持不变。
我会说在使用反向传播时计算错误时可能存在错误。
还有你的数据有多大?您在模拟中使用了多少个 epoch?你的训练是如何进行的?如果我能获得更多数据,我可以为您提供更多帮助。
这可能会对您有所帮助:http ://www.cs.toronto.edu/~hinton/csc2515/notes/lec4.htm
也许你可以试试 dropout 技术。我听说它可以有效防止过度拟合。
最近,谷歌甚至为这项技术申请了专利!!!