我的同事最近提出了一项工作,他们在小数据集上校准增强回归树(BRT)模型()。他们使用 R2、RMSPE 和 RPD 指数使用留一法交叉验证 (LOOCV) 验证模型。他们还提供了通过在完整数据集上训练和验证模型计算得出的这些指数。通过 LOOCV 获得的 R2、RMSPE 和 RPD 值几乎严格等于在训练数据集上验证时获得的 R2、RMSPE 和 RPD 值。
我的问题是:
BRT 上的 LOOCV 是否会出现这样的结果?
这是因为 BRT 对异常值(和单个个体?)相对不敏感,在 LOOCV 期间排除一个个体不会产生影响,提供几乎相似的校准模型,在排除的个体上具有相同的性能指标?
在这种情况下,与重复的 k 倍 CV 相比,BRT 的 LOOCV 是否有意义?
先感谢您