我有一个分类问题。在梯度树提升中,我读到-
1. 最初,在整个训练数据集上安装了一个弱学习器。
2.得到每个训练行的输出。就我而言,它将是 {0,1}。3. 现在,第二个分类器将在预测的残差上进行训练,即{初始预测 - 最终预测}。
我的疑问是在分类问题的情况下计算残差似乎很奇怪,而当我查看 mse 的残差计算时它是可以的。
因此,在分类目标变量的情况下实际发生了什么。残差是如何计算的,它适合哪个损失函数?
提前致谢。
我有一个分类问题。在梯度树提升中,我读到-
1. 最初,在整个训练数据集上安装了一个弱学习器。
2.得到每个训练行的输出。就我而言,它将是 {0,1}。3. 现在,第二个分类器将在预测的残差上进行训练,即{初始预测 - 最终预测}。
我的疑问是在分类问题的情况下计算残差似乎很奇怪,而当我查看 mse 的残差计算时它是可以的。
因此,在分类目标变量的情况下实际发生了什么。残差是如何计算的,它适合哪个损失函数?
提前致谢。
我外行的理解是二进制分类通常使用logit变换计算。
我相信残差是响应和预测概率之间的差异,并且此应用程序的默认度量是曲线下面积 (AUC)。