与 SVM 相比,支持向量回归有何不同?

机器算法验证 回归 机器学习 支持向量机
2022-02-28 03:06:48

我知道有关 SVM 和 SVR 的基础知识,但我仍然不明白如何找到最大化边距的超平面的问题适合 SVR。

其次,我读到了一些关于在 SVR 中用作容差的内容。这是什么意思?ϵ

三、SVM和SVR中使用的决策函数参数有什么区别吗?

1个回答

用于分类和回归的 SVM 都是通过成本函数优化函数,但区别在于成本建模。

考虑一下用于分类的支持向量机的图示。

在此处输入图像描述

由于我们的目标是两个类的良好分离,我们尝试制定一个边界,在最接近它的实例(支持向量)之间留下尽可能宽的边距,尽管实例落入这个边距是可能的产生高成本(在软保证金 SVM 的情况下)。

在回归的情况下,目标是找到一条曲线,使点与它的偏差最小。对于 SVR,我们也使用边距,但目标完全不同 - 我们不关心位于曲线周围某个边距内的实例,因为曲线在某种程度上适合它们。这个边距由SVR落在边际范围内的实例不会产生任何成本,这就是我们将损失称为“epsilon-insensitive”的原因。ϵ

在此处输入图像描述

对于决策函数的两边,我们分别定义了一个松弛变量来解释 -zone 之外的偏差。ξ+,ξϵ

这给了我们优化问题(参见 E. Alpaydin,机器学习简介,第 2 版)

min12||w||2+Ct(ξ++ξ)

受制于

rt(wTx+w0)ϵ+ξ+t(wTx+w0)rtϵ+ξtξ+t,ξt0

回归 SVM 边缘之外的实例会在优化中产生成本,因此,作为优化的一部分,旨在最小化该成本可以优化我们的决策函数,但实际上并没有像 SVM 分类那样最大化边缘。

这应该已经回答了您问题的前两部分。

关于你的第三个问题:正如你现在可能已经知道的那样,是 SVR 情况下的一个附加参数。常规 SVM 的参数仍然存在,因此惩罚项以及内核所需的其他参数,例如ϵCγ