当试图解释梯度提升(或任何决策树)的结果时,可以绘制特征重要性。
xgb api中有相同的参数,例如:weight、gain、cover、total_gain 和 total_cover。我还没有完全得到掩护。
“cover”是分割的平均覆盖率,它使用覆盖率定义为受分割影响的样本数
我正在寻找一个更好的封面定义,也许还有一些伪代码来更好地理解它。
当试图解释梯度提升(或任何决策树)的结果时,可以绘制特征重要性。
xgb api中有相同的参数,例如:weight、gain、cover、total_gain 和 total_cover。我还没有完全得到掩护。
“cover”是分割的平均覆盖率,它使用覆盖率定义为受分割影响的样本数
我正在寻找一个更好的封面定义,也许还有一些伪代码来更好地理解它。
更详细的cover解释可以在代码中找到
cover:分类到叶子的训练数据的二阶梯度之和,如果是平方损失,这简单地对应于该分支中的实例数。节点在树中越深,该指标越低
你可以在这里找到:代码中的覆盖定义
这基本上意味着对于每个分割,都会计算指定损失的二阶梯度(每个样本)。然后这个数字按样本数缩放。