可解释的 xgboost - 计算覆盖特征的重要性

数据挖掘 机器学习 Python 决策树 xgboost 可解释的ai
2022-03-04 10:25:03

当试图解释梯度提升(或任何决策树)的结果时,可以绘制特征重要性。

xgb api中有相同的参数,例如:weight、gain、cover、total_gain 和 total_cover。我还没有完全得到掩护。

“cover”是分割的平均覆盖率,它使用覆盖率定义为受分割影响的样本数

我正在寻找一个更好的封面定义,也许还有一些伪代码来更好地理解它。

1个回答

更详细的cover解释可以在代码中找到

cover:分类到叶子的训练数据的二阶梯度之和,如果是平方损失,这简单地对应于该分支中的实例数。节点在树中越深,该指标越低

你可以在这里找到:代码中的覆盖定义

这基本上意味着对于每个分割,都会计算指定损失的二阶梯度(每个样本)。然后这个数字按样本数缩放。