我正在使用多个特征/变量进行线性回归。我决定使用正规方程法来找到线性模型的系数。如果我们使用梯度下降进行多变量线性回归,我们通常会进行特征缩放以加快梯度下降收敛。现在,我将使用带公式的正规方程法:
来源:正规方程组(Andrew Ng 讲义,第 11 页)
我有两个相互矛盾的信息来源。首先指出,正规方程不需要特征缩放。在另一个我可以看到必须进行特征规范化。
资料来源:
在这两篇文章的末尾,提供了有关正规方程中特征缩放的信息。
问题是:在正规方程分析之前我们需要做特征缩放(归一化)吗?
我正在使用多个特征/变量进行线性回归。我决定使用正规方程法来找到线性模型的系数。如果我们使用梯度下降进行多变量线性回归,我们通常会进行特征缩放以加快梯度下降收敛。现在,我将使用带公式的正规方程法:
来源:正规方程组(Andrew Ng 讲义,第 11 页)
我有两个相互矛盾的信息来源。首先指出,正规方程不需要特征缩放。在另一个我可以看到必须进行特征规范化。
资料来源:
在这两篇文章的末尾,提供了有关正规方程中特征缩放的信息。
问题是:在正规方程分析之前我们需要做特征缩放(归一化)吗?
好吧,在第二篇文章中有一句话:
请注意,在进行线性回归之前,您应该对数据进行标准化。一种方法是,有些使用 作为分母。两者都有效。
但并不是说它专门适用于正规方程。在梯度下降部分,没有任何关于归一化的说法。所以我认为在 Normal Equation 部分而不是 Gradient Descent 中包含该句子是一个小错误。
无论如何,Andrew Ng 在机器学习话题上相当权威,所以你可以相信他的话:
使用这个公式不需要任何特征缩放,并且您将在一次计算中得到一个精确的解决方案:没有像梯度下降那样的“直到收敛的循环”。