梯度树中的迭代次数只是增加了树的数量吗?

数据挖掘 机器学习 xgboost 助推
2021-09-25 01:46:40

我已经搜索了一段时间,但找不到任何迹象。当人们谈论 XGBoost 或 LightGBM 或 Catboost 等算法中的迭代时,他们是否意味着将构建多少个决策树,即基础学习器?即 XGboost m=100 表示算法将构建总共 100 个基础学习器,每个基础学习器都针对之前预测的残差进行计算和优化?
还是更像深度学习中的 1 个纪元?

1个回答

你的第一个解释是正确的。每个提升迭代/轮次都会添加一个基础学习器,这可能是人们在谈论迭代时所指的。

来自维基

一个自然的正则化参数是梯度提升迭代的次数 M(即当基础学习器是决策树时模型中的树的数量)。

迭代发生在算法的其他部分,例如在梯度下降中,但如果它被简单地称为“迭代”,我认为这不是讨论的内容。

当我试图理解 GBM 时,这真的很有帮助