我正在阅读 Chen 的XGBoost论文。他写道,在迭代,下面的目标函数被最小化。
这里,是一个可微的凸损失函数,代表树和表示预测的迭代中的实例.
我想知道什么何时使用 XGBoost 进行二元分类?
我正在阅读 Chen 的XGBoost论文。他写道,在迭代,下面的目标函数被最小化。
这里,是一个可微的凸损失函数,代表树和表示预测的迭代中的实例.
我想知道什么何时使用 XGBoost 进行二元分类?
似乎有一个选项目标:“binary:logistic”
“binary:logistic”——二元分类的逻辑回归,输出概率
“binary:logitraw”——二元分类的逻辑回归,逻辑转换前的输出分数
请参阅http://xgboost.readthedocs.io/en/latest/parameter.html
(所以日志丢失)
我只是在问题描述下总结评论:
是伯努利分布的对数似然,其中
是概率。所以公式应该是
或代数等价,
使用该属性.