支持向量回归的成本函数

数据挖掘 机器学习 回归 支持向量机
2021-09-30 04:56:07

支持向量回归的优化问题是(参见http://alex.smola.org/papers/2003/SmoSch03b.pdf):

最小化:

Ci=0l(ξi+ξi)+12w2

受限于:

是的一世-<w,X一世>-bε+ξ一世<w,X一世>+b-是的一世ε+ξ一世*ξ一世,ξ一世*0

我不明白在哪里w2来自。我明白如何w2 是在支持向量分类的情况下推导出来的(通过最大化边距),但不是在回归的情况下推导出来的。

论文说“目标是找到一个函数 F(X) 最多有 ε 与实际获得的目标的偏差 是的一世对于所有的训练数据,同时尽可能平坦。换句话说,我们不关心错误,只要它们小于ε, 但不会接受任何大于此的偏差。”

但我不确定“平坦”是什么意思。

有人知道吗?

1个回答

Flat 表示平行于 x 轴;有一个小坡度。w越小,f(x)越接近b;回顾F(X)w,X+b. 考虑这一点的一种方法是作为正则化的一种形式。函数越扁平,它就越简单或更简约。这适用于分类和回归。