我的数据集()有一个因变量(DV)、五个独立的“基线”变量(P1、P2、P3、P4、P5)和一个感兴趣的自变量(Q)。
我为以下两个模型运行了 OLS 线性回归:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
即,添加预测变量 Q 减少了线性模型中解释的方差量。据我了解,这不应该发生。
需要明确的是,这些是 R 平方值,而不是调整后的 R 平方值。
我已经使用Jasp和 Python 的statsmodels验证了 R 平方值。
我有什么理由看到这种现象吗?也许与 OLS 方法有关?