支持向量回归的优化问题是(参见http://alex.smola.org/papers/2003/SmoSch03b.pdf):
最小化:
受限于:
我不明白在哪里来自。我明白如何 是在支持向量分类的情况下推导出来的(通过最大化边距),但不是在回归的情况下推导出来的。
论文说“目标是找到一个函数 最多有 与实际获得的目标的偏差 对于所有的训练数据,同时尽可能平坦。换句话说,我们不关心错误,只要它们小于, 但不会接受任何大于此的偏差。”
但我不确定“平坦”是什么意思。
有人知道吗?
支持向量回归的优化问题是(参见http://alex.smola.org/papers/2003/SmoSch03b.pdf):
最小化:
受限于:
我不明白在哪里来自。我明白如何 是在支持向量分类的情况下推导出来的(通过最大化边距),但不是在回归的情况下推导出来的。
论文说“目标是找到一个函数 最多有 与实际获得的目标的偏差 对于所有的训练数据,同时尽可能平坦。换句话说,我们不关心错误,只要它们小于, 但不会接受任何大于此的偏差。”
但我不确定“平坦”是什么意思。
有人知道吗?
Flat 表示平行于 x 轴;有一个小坡度。w越小,f(x)越接近b;回顾. 考虑这一点的一种方法是作为正则化的一种形式。函数越扁平,它就越简单或更简约。这适用于分类和回归。