使用正态方程法进行多元回归分析中的特征缩放(归一化)?

机器算法验证 回归 机器学习 多重回归 正常化 梯度下降
2022-03-21 20:04:33

我正在使用多个特征/变量进行线性回归。我决定使用正规方程法来找到线性模型的系数。如果我们使用梯度下降进行多变量线性回归,我们通常会进行特征缩放以加快梯度下降收敛。现在,我将使用带公式的正规方程法:

β^=(XTX)1XTy=X+y
来源:正规方程组(Andrew Ng 讲义,第 11 页)

我有两个相互矛盾的信息来源。首先指出,正规方程不需要特征缩放。在另一个我可以看到必须进行特征规范化。

资料来源:

  1. http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=MachineLearning&doc=exercises/ex3/ex3.html
  2. http://puriney.github.io/numb/2013/07/06/normal-equations-gradient-descent-and-linear-regression/

在这两篇文章的末尾,提供了有关正规方程中特征缩放的信息。


问题是:在正规方程分析之前我们需要做特征缩放(归一化)吗?

1个回答

好吧,在第二篇文章中有一句话:

请注意,在进行线性回归之前,您应该对数据进行标准化。一种方法是,有些使用 作为分母。两者都有效。ximean(x)Range(x)sd(x)

但并不是说它专门适用于正规方程。在梯度下降部分,没有任何关于归一化的说法。所以我认为在 Normal Equation 部分而不是 Gradient Descent 中包含该句子是一个小错误。

无论如何,Andrew Ng 在机器学习话题上相当权威,所以你可以相信他的话:

使用这个公式不需要任何特征缩放,并且您将在一次计算中得到一个精确的解决方案:没有像梯度下降那样的“直到收敛的循环”。