我试图以验证数据集的形式了解第三次拆分的目的。我不一定在这里谈论交叉验证。
在下面的场景中,模型似乎对训练数据集过度拟合。
Train dataset {acc: 97%, loss: 0.07}
Test dataset {acc: 90%, loss: 8.02}
但是,在这种情况下,它看起来更加平衡。
Train dataset {acc: 95%, loss: 1.14}
Test dataset {acc: 93%, loss: 1.83}
如果我的训练和测试准确性/损失一致,我是否需要验证数据?设置 10% 的验证拆分的目的是为了在训练集上评估模型之前确保这种平衡吗?它证明了什么?