XGBoost 中的“二元:逻辑”目标函数是什么?

机器算法验证 机器学习 数据挖掘 助推
2022-03-19 15:56:02

我正在阅读 Chen 的XGBoost论文。他写道,在tth迭代,下面的目标函数被最小化。

L(t)=inl(yi,y^i(t1)+ft(xi))+Ω(ft)

这里,l是一个可微的凸损失函数,ft代表tth树和y^i(t1)表示预测的ith迭代中的实例t1.

我想知道什么l何时使用 XGBoost 进行二元分类?

2个回答

似乎有一个选项目标:“binary:logistic”

“binary:logistic”——二元分类的逻辑回归,输出概率

“binary:logitraw”——二元分类的逻辑回归,逻辑转换前的输出分数

请参阅http://xgboost.readthedocs.io/en/latest/parameter.html

(所以日志丢失)

我只是在问题描述下总结评论:

l是伯努利分布的对数似然,其中 logistic(y^i(t1)+ft(xi))是概率。所以公式应该是

l=yilog(logistic(y^i(t1)+ft(xi)))+(1yi)log(1logistic(y^i(t1)+ft(xi)))

或代数等价,

l=yi(y^it1+ft(xi))log(1+exp(y^it1+ft(xi)))
使用该属性σ(z)=1σ(z).