戴夫的评论是正确的。我将尝试扩展它们。
序数回归介于分类和实值回归之间。当您对序数数据执行多类分类时,无论何时分类器预测错误的类,无论是哪一类,您都会分配相同的惩罚。
例如,假设在您的某个输入向量的问题中,正确的预测是。假设您正在训练两个分类器和。第一个预测,而另一个预测。在多元分类器的意义上,和距离一样远,它们错过了正确的类别。但从序数回归的角度来看,显然比好,因为它只错过了一个正确的“类”,而不是三个。xaC1C2bdC1C2C1C2
为了将这一点推向极端,想象一下执行非常多类分类而不是回归。即你有预测变量和一个实值响应变量。您可以将的值视为类:是一个类,是另一个类,依此类推。如果您有个观察值,您可能有个不同的类(假设所有都不同)。你可以尝试训练一个多类分类器,但你很可能会失败,因为每个类只有一个观察值。即使你成功了(因为你很幸运拥有相同的xyyy=3.14159y=1.4142NNyy的重复多次),您实际上将拥有许多独立的模型,其中每个模型只会预测其自己的类别,而不会太在意其他模型。
这样的模型集合也将非常复杂。如果每个模型都有个参数,并且如果你有个类来预测,那么你的集成将有个参数。相反,回归模型的复杂性可能与不同值的数量无关。您会提前选择线性、二次或任何函数来拟合您的数据,并且函数的形式将决定参数的数量。MK(K<N)M⋅Ky
在序数回归中,例如比例优势逻辑回归,通常具有所有“类”(即序数值)共有的一组参数(向量)和一组标量来区分各个序数值。这同样适用于支持向量序数回归(参见例如http://www.gatsby.ucl.ac.uk/~chuwei/paper/svor.pdf),你有相同的模型,由相同的 ' s (拉格朗日系数)用于所有“类”,并且仅通过相应的(每个“类”一个)来区分类。αb