在反向消除中,我听到了通过每次都删除最高 p 值(又名无关紧要的自变量)来拟合模型的步骤,如下所示
- 选择一个显着性水平以留在模型中(例如 SL = 0.05)
- 用所有可能的预测变量拟合完整模型
- 考虑具有最高 P 值(P > SL)的预测器
- 删除预测器
- 拟合没有此变量的模型(重复步骤 3-5 直到 P <= SL)
但是我不明白的部分是为什么具有更高的 p 值会使相应的自变量变得不显着。具有高 p 值是否意味着它更接近原假设,因此该变量更显着?
在反向消除中,我听到了通过每次都删除最高 p 值(又名无关紧要的自变量)来拟合模型的步骤,如下所示
- 选择一个显着性水平以留在模型中(例如 SL = 0.05)
- 用所有可能的预测变量拟合完整模型
- 考虑具有最高 P 值(P > SL)的预测器
- 删除预测器
- 拟合没有此变量的模型(重复步骤 3-5 直到 P <= SL)
但是我不明白的部分是为什么具有更高的 p 值会使相应的自变量变得不显着。具有高 p 值是否意味着它更接近原假设,因此该变量更显着?
实际上,零假设是预测变量不显着。摘自《统计学习简介》一书:
如果我们有一个高 p 值,我们有一个表达结果表明原假设是正确的,因此估计的系数来自零附近的正态分布,可以被丢弃。我希望这能回答您的问题,如果您需要更多帮助,请发表评论。