我目前正在使用 XGBoost 进行风险预测,它似乎在二元分类部门做得很好,但概率输出还差得很远,即在一个观察中改变一个特征的值非常小的量可以使概率输出从 0.5 跳到 0.99。
我几乎看不到 0.6-0.8 范围内的输出。在所有情况下,概率都小于 0.99 或 1。
我知道训练后校准方法,例如 Platt Scaling 和 Logistic Correction,但我想知道在 XGBoost 训练过程中是否有什么可以调整的。
我使用 FFI 从不同的语言调用 XGBoost,所以如果我可以在不引入其他校准库的情况下解决此问题,例如,将评估指标从 AUC 更改为日志损失,那就太好了。