决定系数和最小二乘误差之间的区别?

数据挖掘 回归 模型选择
2022-03-07 20:53:22

我应该在何时何地将 R^2 视为回归拟合优度的度量?
通常我选择最小二乘模型作为最佳模型。
最小二乘模型是否可能没有最高的 R 平方?
我应该将两者都用作回归的评估吗?
你能给我一个直观的例子吗?

1个回答

R 平方是许多模型诊断之一。一种计算方法是(1-var(residuals)/var(response variable))由于响应变量是常数,因此您希望最小化残差均方(方差),这与最小二乘法相同

仅使用 R 平方的问题在于,如果模型中有很多变量,您可能会得到较高的 R 平方,但这并不意味着该模型是好的。事实上,如果你有 100 行数据、100 个自变量和 1 个响应变量,你很有可能会得到 1 的 R 平方,但模型会完全过拟合。

这个问题有两种常见的解决方案:

  1. 添加一个惩罚项,当模型有更多变量时,它会减少(或增加,取决于什么是最优的)模型的“分数”。
  2. 使用一种验证形式来查看模型在未训练的数据上是否表现良好。

通常这两种方法都在不同程度上被使用,但这里有几个例子:

  1. AIC 或 Aikaike Information Criterion 是-2*log(P(Y|X)) + 2*p,其中P(Y|X)是在当前模型下给定 X 的 Y 的概率密度,p是预测变量 ( X) 的数量。目标是最小化 AIC。

  2. 在 K 折交叉验证中,其中 K 是您将数据分成的子集的数量,您在组合的 K-1 个集合上训练数据,然后在剩余的集合上对其进行测试并报告错误。您对 K-1 个训练集和 1 个剩余集的每个组合重复此过程,并组合 K 个结果(通常通过平均误差)。

第一种方法通常是线性回归模型的安全选择,但通常,尤其是当您使用更复杂的算法时,您需要验证算法以确保它不会过度拟合训练数据。此外,使用验证可以更轻松地在不同模型(尤其是非参数模型)之间进行比较。

对于评估模型的更多方法,我建议阅读不同的正则化技术和不同的验证技术。