我想训练我的神经网络以过度拟合训练数据。我是否应该通过使用 K-fold 验证并将 epochs 设置为无穷大来继续使用相同的训练数据来拟合我的模型?然后,在它达到接近 100% 的预测后,我可以停止训练。这是正确的方法吗?
训练我的神经网络以过度拟合我的训练数据集
数据挖掘
神经网络
深度学习
2021-10-05 01:06:15
3个回答
如果你想过拟合,那么是的,你只需要通过你的网络继续拟合训练数据,直到你达到尽可能接近零的训练损失(请注意,零损失比 100% 预测更强,并且会导致更大的损失过拟合)。无需使用交叉验证。如果您的网络足够复杂,那么在训练数据上达到非常高的准确性不会花费很长时间。
为了故意过拟合神经网络,将停止阈值和误差度量设为零,让神经网络运行大量迭代,直到达到零误差。
并且不执行任何正则化、输入或隐藏层丢失、交叉验证。
了解过拟合/欠拟合和偏差误差/方差误差之间的区别非常重要。
三件事很可能过度拟合:
- 具有大量参数的复杂模型,用于训练的样本数量与参数数量之间存在关系。阅读有关乐观的信息
- 少量训练样本
- 训练大量迭代,直到训练误差非常接近于零
知道这些东西会增加过拟合的概率是非常重要的,但另一个重要的因素是问题本身。如果您有两个使用特征空间可分离的类,即使在所有这些条件下,即使训练误差为零,您也可能不会过度拟合。
其它你可能感兴趣的问题