“最小二乘”和“线性回归”,它们是同义词吗?

机器算法验证 回归 最小二乘 术语
2022-01-27 19:11:29

最小二乘和线性回归有什么区别?是一样的吗?

2个回答

线性回归假设自变量和因变量之间存在线性关系。它没有告诉你模型是如何拟合的。最小二乘拟合只是其中一种可能性。其他训练线性模型的方法在评论中。

非线性最小二乘法很常见(https://en.wikipedia.org/wiki/Non-linear_least_squares)。例如,流行的 Levenberg–Marquardt 算法可以解决以下问题:

β^=argminβS(β)argminβi=1m[yif(xi,β)]2

这是最小二乘优化,但模型不是线性的。

他们不是一回事

除了@Student T 的正确答案,我想强调最小二乘是优化问题的潜在损失函数,而线性回归是优化问题。

给定某个数据集,线性回归用于找到可能的最佳线性函数,这解释了变量之间的联系。

在这种情况下,“最佳”可能由损失函数确定,将线性函数的预测值与数据集中的实际值进行比较。最小二乘是一种可能的损失函数。

最小二乘的维基百科文章还在右侧显示了使用最小二乘解决线性回归以外的其他问题的图片,例如:

  • 锥形拟合
  • 拟合二次函数

以下来自维基百科文章的 gif 显示了使用最小二乘法拟合到数据集的几个不同的多项式函数。其中只有一个是线性的(多项式为 1)。这是从德国维基百科文章中获取的主题。

在此处输入图像描述