我的主要问题是关于试图了解 k 折交叉验证如何适合具有训练/验证/测试集的上下文(如果它完全适合这种上下文)。
通常,人们谈到将数据拆分为训练、验证和测试集——比如在 Andrew Ng 的课程中以 60/20/20 的比例进行——其中验证集用于识别模型训练的最佳参数。
但是,如果想在数据量相对较小的情况下使用 k-fold 交叉验证来获得更具代表性的准确度度量,那么在这个 60/20/20 拆分中,k-fold 交叉验证到底需要什么?设想?
例如,这是否意味着我们实际上会结合训练集和测试集(80% 的数据)并对它们进行 k 折交叉验证以获得我们的准确度度量(通过明确的“测试集”有效地丢弃?如果是这样,我们在 a) 生产中使用哪个训练模型,以及 b) 用于验证集并确定最佳训练参数?例如,a 和 b 的一个可能答案可能是使用最佳折叠模型。