我的问题与线性回归和逻辑回归中的正则化有关。我目前正在学习 Andrew Ng在 Coursera 上的机器学习课程的第 3 周。我了解过度拟合如何成为一个常见问题,并且我对正则化如何减少过度拟合有一些直觉。我的问题是我们可以通过以不同方式规范不同参数来改进我们的模型吗?
例子:
假设我们正在尝试适应. 这个问题是关于为什么我们惩罚高以同样的方式惩罚高的价值价值观。
如果我们对我们的功能一无所知被构造出来,当我们做正则化时,以同样的方式对待它们是有意义的:高价值应该产生与高一样多的“惩罚”价值。
但是假设我们有额外的信息:假设我们最初只有 2 个特性:和. 一条线不适合我们的训练集,我们想要一个更弯曲的决策边界,所以我们构建了和. 现在我们可以拥有更复杂的模型,但它们越复杂,我们就越有可能将模型过度拟合到训练数据中。因此,我们希望在最小化成本函数和最小化模型复杂性之间取得平衡。那么,代表更高指数的参数(,) 极大地增加了我们模型的复杂性。所以我们不应该因为高,价值比我们惩罚高价值观?