假期让我有机会在《统计学习要素》中蜷缩在火边。从(频繁的)计量经济学的角度来看,我很难掌握收缩方法的使用,如岭回归、套索和最小角度回归 (LAR)。通常,我对参数估计本身以及实现无偏性或至少一致性感兴趣。收缩方法不会那样做。
在我看来,当统计学家担心回归函数对预测变量过于敏感时使用这些方法,它认为预测变量比实际更重要(通过系数的大小来衡量)。换句话说,过拟合。
但是,OLS 通常会提供无偏且一致的估计值。(脚注)我一直认为过度拟合的问题不是给出太大的估计值,而是给出太小的置信区间,因为没有考虑到选择过程( ESL 提到了后一点)。
无偏/一致的系数估计导致对结果的无偏/一致的预测。与 OLS 相比,收缩方法将预测推向更接近平均结果,似乎将信息留在了桌面上。
重申一下,我看不出收缩方法试图解决什么问题。我错过了什么吗?
脚注:我们需要全列排名条件来识别系数。误差的外生性/零条件均值假设和线性条件期望假设决定了我们可以对系数给出的解释,但即使这些假设不正确,我们也会得到无偏或一致的估计。