有人可以解释为什么多项式(softmax)和 One-vs-Rest Logistic Regression 的多类分类的决策边界不同。下图示例
我的错误印象是两者都会产生相同的决策边界,只是softmax给出的概率是标准化的和可解释的。
有人可以解释为什么多项式(softmax)和 One-vs-Rest Logistic Regression 的多类分类的决策边界不同。下图示例
我的错误印象是两者都会产生相同的决策边界,只是softmax给出的概率是标准化的和可解释的。
很可能是因为在 One-versus-rest 中,您正在使用 sigmoid 函数训练独立的二元分类器。
在多项逻辑回归中,您使用另一个不同的函数,即 softmax 函数,它强制输出总和为.
由于功能不同,边界也会不同。