Xgboost 预测概率

数据挖掘 预测建模 scikit-学习 xgboost 可能性
2021-09-23 20:49:57

使用 xgboost 的 python / sklearn API 时,是通过predict_proba“真实概率”方法获得的概率还是我必须使用logit:raw并手动计算 sigmoid 函数?

我想尝试不同的截止点。目前binary:lgistic通过sklearn:XGBClassifier从该prob_a方法返回的概率使用类似于 2 个类,而不是一个连续函数,其中更改截止点会影响最终得分。

这是获得试验截止值的概率的正确方法吗?

在此处输入图像描述

2个回答

好奇的 Georg,如果您在尝试生成概率的过程中遇到了这篇文章。值得注意的是,binary:logisticmulti:softprob返回每个数据点属于每个类的预测概率。

您可以在这里查看如何使用以下代码: XGBoost Predict_Proba 代码

LightGBM 论坛就是答案 ;) https://github.com/Microsoft/LightGBM/issues/272#issuecomment-276168493

  • 显然,我的模型非常适合结果,即非常确定类概率
  • 我没想到会有如此明确的界限,因此如果这可能是正确的,我会感到困惑。