我对 SVM 的理解是它与逻辑回归(LR)非常相似,即将特征的加权和传递给 sigmoid 函数以获得属于某个类的概率,而不是交叉熵(逻辑)损失函数,训练是使用铰链损失进行的。使用铰链损失的好处是可以使用各种数值技巧来提高核化效率。然而,一个缺点是生成的模型比相应的 LR 模型具有的信息更少。因此,例如,如果没有核化(使用线性核),SVM 决策边界仍将位于 LR 输出概率为 0.5 的同一位置,但无法判断属于某个类的概率从决策边界。
我的两个问题是:
- 我上面的解释正确吗?
- 使用铰链损失如何使将 SVM 结果解释为概率无效?