据我了解,解释了模型对观察结果的预测程度。调整后是考虑更多观察值(或自由度)的值。那么,Adjusted能更好地预测模型吗?那为什么这小于?看起来它应该经常更多。
如果调整后的 R 平方能更好地预测模型,为什么调整后的 R 平方小于 R 平方?
机器算法验证
回归
r平方
2022-02-16 08:34:16
3个回答
显示了自变量和因变量之间的线性关系。它被定义为,即误差平方和除以总平方和。 ,它们是回归平方的总误差和总和。随着自变量的添加,将继续上升(并且由于是固定的)将下降,而将不断上升,无论您添加的变量有多有价值。
调整后的试图解释统计收缩。具有大量预测变量的模型在样本中的表现往往比在样本外测试时更好。调整后的 “惩罚”您添加不会改进现有模型的额外预测变量。它有助于模型选择。对于一个预测变量,调整后将等于添加变量时,它将小于。
R^2 解释了线性回归模型的自变量 (X) 解释的因变量 (Y) 的变化比例。
调整后的 R^2 表示因变量 (Y) 的变化比例由线性回归模型的1 个以上自变量 (X) 解释。
即使您添加与因变量无关的变量,R-Squared 也会增加,但调整后的 R-Squared 会注意这一点,因为每当您添加与因变量无关的变量时,R-Squared 会减少,因此在注意后很可能减少。
其它你可能感兴趣的问题