验证损失与训练损失不同
数据挖掘
神经网络
情绪分析
迁移学习
2022-03-04 03:32:02
1个回答
这种过度拟合在微调大型 LM 时很典型。
“避免”它的常用方法是:
- 提前停止:选择具有最佳验证损失的检查点。
- 随机重启:从头开始训练多次,选择验证性能最好的模型。
这种过度拟合在微调大型 LM 时很典型。
“避免”它的常用方法是: