我正在阅读XGBoost 指南,并且对它在决策树和分类/回归树的评分系统之间的区别感到困惑。我挂断的段落是:
CART [分类和回归树] 与决策树有点不同,决策树的叶子只包含决策值。在 CART 中,真实分数与每个叶子相关联,这为我们提供了超越分类的更丰富的解释。
我完全不确定这意味着什么。我对回归决策树的理解是,每个叶子都有一个值,它是分配给该叶子的所有训练示例的平均标签(在遵循树的结构之后)。在多树模型中,当预测一个新示例时,我们通过每棵树导航它,然后平均它最终所在的叶子的值;这个平均值是最终的预测。
我的问题是:
a) 我对决策树的理解是否正确?
b) XGBoost 和 LightGBM 使用的 CART 树有什么不同?从引用段落下方的图中,似乎每片叶子都有一个“预测分数”,它在整个树中求和,然后以某种方式处理成最终的回归预测?