我目前正在尝试了解逻辑回归的正则化。
到目前为止,我不太确定我是否真的明白了。基本上,问题是当我们向模型添加额外的特征时,我们可能会过度拟合训练集。这导致了一种算法与训练集完美匹配,但对于未来的值却失败了(因为它与过去的值完全匹配)。
所以,这就是我们引入正则化的原因。有了这个,我们减少了特征的影响,所以模型可能会产生一个算法,它在训练集上做得(看起来)更差,但总体上效果更好。
这个对吗?
我目前正在尝试了解逻辑回归的正则化。
到目前为止,我不太确定我是否真的明白了。基本上,问题是当我们向模型添加额外的特征时,我们可能会过度拟合训练集。这导致了一种算法与训练集完美匹配,但对于未来的值却失败了(因为它与过去的值完全匹配)。
所以,这就是我们引入正则化的原因。有了这个,我们减少了特征的影响,所以模型可能会产生一个算法,它在训练集上做得(看起来)更差,但总体上效果更好。
这个对吗?
对,那是正确的。
例如,考虑一个多项式应该适合 100 个数据点哪里都有由一个带有一些噪声的多项式生成。当然,您总是可以将模型完美地拟合到产生 MSE 错误的数据
为 0。但考虑到存在噪音,您实际上可能更喜欢“更简单”的模型。考虑简单性的一种方法是使用权重哪个更小。这是通过向误差添加正则化项来完成的。一种常见的正则化是 正则化 (),另一个是 正则化 ()。