我正在阅读SVM
并且我已经面临非内核化只不过SVMs
是线性分隔符的问题。SVM
因此,逻辑回归和逻辑回归之间的唯一区别是选择边界的标准吗?
显然,SVM
选择最大边距分类器和逻辑回归是最小化cross-entropy
损失的分类器。是否存在比逻辑回归更好的情况,SVM
反之亦然?
我正在阅读SVM
并且我已经面临非内核化只不过SVMs
是线性分隔符的问题。SVM
因此,逻辑回归和逻辑回归之间的唯一区别是选择边界的标准吗?
显然,SVM
选择最大边距分类器和逻辑回归是最小化cross-entropy
损失的分类器。是否存在比逻辑回归更好的情况,SVM
反之亦然?
如果你使用逻辑回归和cross-entropy
成本函数,它的形状是凸的,并且会有一个最小值。但是在优化过程中,您可能会发现权重接近最佳点,而不是完全在最佳点上。这意味着您可以有多个分类来减少错误,并可能将训练数据设置为零,但权重略有不同。这可能导致不同的决策边界。这种方法是以统计方法为基础的。如下图所示,您可以有不同的决策边界,权重略有变化,并且它们在训练示例上的误差均为零。
所做的是SVM
尝试找到降低测试数据出错风险的决策边界。它试图找到一个与两个类的边界点距离相同的决策边界。因此,对于没有数据的空白空间,两个类将具有相同的空间。SVM
是几何动机而不是统计动机。
无核化 SVM 只不过是线性分隔符。因此,SVM 和逻辑回归之间的唯一区别是选择边界的标准吗?
它们是线性分隔符,如果你发现你的决策边界可以是一个超平面,最好使用一个SVM
来减少测试数据出错的风险。
显然,SVM 选择了最大边距分类器和逻辑回归,即最小化交叉熵损失的分类器。
是的,如上所述SVM
是基于数据的几何特性,而logistic regression
基于统计方法。
在这种情况下,是否存在 SVM 比逻辑回归表现更好的情况,反之亦然?
逻辑回归并不像线性 SVM 那样试图找到类边界本身。LR 尝试使用预测变量对 logit 转换的 y 分数进行建模。用一个愚蠢的类比,LR 试图将函数“通过点”,而 SVM 试图将支持向量“在点之间”