我知道在交叉验证之外执行超参数调整会导致对外部有效性的偏高估计,因为用于测量性能的数据集与用于调整特征的数据集相同。
我想知道这是一个多么糟糕的问题。我可以理解这对特征选择有多么不利,因为这会给你大量的参数来调整。但是,如果您使用的是 LASSO(它只有一个参数,即正则化强度),或者没有特征选择的随机森林(它可以有几个参数,但没有像添加/删除噪声特征那样引人注目)怎么办?
在这些情况下,您期望您对训练误差的估计有多乐观?
我将不胜感激有关此的任何信息——案例研究、论文、轶事等。谢谢!
编辑:澄清一下,我不是在谈论在训练数据上估计模型性能(即,根本不使用交叉验证)。“交叉验证之外的超参数调整”是指仅使用交叉验证来估计每个单独模型的性能,但不包括外部的第二个交叉验证循环来纠正超参数调整过程中的过度拟合(不同于训练过程中的过度拟合)。参见例如这里的答案。