我在这个论坛上看到过其他帖子,但没有找到任何令人信服的答案。
随机森林设计有另一种通过OOB调整超参数的方法。OOB 和 CV 不一样,OOB 误差是根据 Forest 中的部分树木而不是完整 Forest 计算的。
那么使用 OOB 而不是 CV 的优缺点是什么?
通过使用 OOB 来训练更多数据是否正确?
我在这个论坛上看到过其他帖子,但没有找到任何令人信服的答案。
随机森林设计有另一种通过OOB调整超参数的方法。OOB 和 CV 不一样,OOB 误差是根据 Forest 中的部分树木而不是完整 Forest 计算的。
那么使用 OOB 而不是 CV 的优缺点是什么?
通过使用 OOB 来训练更多数据是否正确?
OOB 样本是获得随机森林误差估计的一种非常有效的方法。从计算的角度来看,OOB 绝对比 CV 更受欢迎。
此外,它认为如果引导样本的数量足够大,CV 和 OOB 样本将产生相同(或非常相似)的误差估计。因此,如果您执行许多引导样本,我建议您在 OOB 样本的过程中执行交叉验证,直到 OOB 错误收敛。