SVM 和 Logistic 回归的区别

数据挖掘 机器学习 分类 支持向量机 逻辑回归 概括
2021-09-14 04:19:07

我正在阅读SVM并且我已经面临非内核化只不过SVMs是线性分隔符的问题。SVM因此,逻辑回归和逻辑回归之间的唯一区别是选择边界的标准吗?

显然,SVM选择最大边距分类器和逻辑回归是最小化cross-entropy损失的分类器。是否存在比逻辑回归更好的情况,SVM 反之亦然?

2个回答

如果你使用逻辑回归和cross-entropy成本函数,它的形状是凸的,并且会有一个最小值。但是在优化过程中,您可能会发现权重接近最佳点,而不是完全在最佳点上。这意味着您可以有多个分类来减少错误,并可能将训练数据设置为零,但权重略有不同。这可能导致不同的决策边界。这种方法是以统计方法为基础的。如下图所示,您可以有不同的决策边界,权重略有变化,并且它们在训练示例上的误差均为零。

逻辑回归决策边界

所做的是SVM尝试找到降低测试数据出错风险的决策边界。它试图找到一个与两个类的边界点距离相同的决策边界。因此,对于没有数据的空白空间,两个类将具有相同的空间。SVM几何动机而不是统计动机

在此处输入图像描述

无核化 SVM 只不过是线性分隔符。因此,SVM 和逻辑回归之间的唯一区别是选择边界的标准吗?

它们是线性分隔符,如果你发现你的决策边界可以是一个超平面,最好使用一个SVM来减少测试数据出错的风险。

显然,SVM 选择了最大边距分类器和逻辑回归,即最小化交叉熵损失的分类器。

是的,如上所述SVM是基于数据的几何特性,而logistic regression基于统计方法。

在这种情况下,是否存在 SVM 比逻辑回归表现更好的情况,反之亦然?

从表面上看,他们的结果并没有太大的不同,但确实如此。SVMs 更适合泛化1 , 2

逻辑回归并不像线性 SVM 那样试图找到类边界本身。LR 尝试使用预测变量对 logit 转换的 y 分数进行建模。用一个愚蠢的类比,LR 试图将函数“通过点”,而 SVM 试图将支持向量“在点之间”