我正在学习关于回归模型的课程,并且为线性回归提供的属性之一是,当包含截距时,残差总和为零。
有人可以很好地解释为什么会这样吗?
我正在学习关于回归模型的课程,并且为线性回归提供的属性之一是,当包含截距时,残差总和为零。
有人可以很好地解释为什么会这样吗?
这直接来自正规方程,即 OLS 估计器求解的方程,
括号内的向量当然是残差向量或投影到列空间的正交补上,如果你喜欢线性代数。现在在矩阵,顺便说一下,它不必像通常那样在第一列中,导致
在二变量问题中,这更容易看出,因为最小化残差平方和使我们得到
当我们对截距求导时。由此我们继续获得熟悉的估计量
我们再次看到我们的估计器的构造强加了这个条件。
如果您正在寻找一个相当直观的解释。
从某种意义上说,线性回归模型不过是一种奇特的均值。求算术平均值超过一些值,我们发现一个值是中心性的度量,从某种意义上说,所有偏差的总和(其中每个偏差定义为) 平均值的右侧等于该平均值左侧的所有偏差的总和。这种衡量方式没有任何内在的原因是好的,更不用说描述样本均值的最佳方式了,但它肯定是直观和实用的。重要的一点是,通过以这种方式定义算术平均值,必然会得出,一旦我们构造了算术平均值,根据定义,所有与该平均值的偏差必须总和为零!
在线性回归中,这没有什么不同。我们拟合这条线,使得我们的拟合值(位于回归线上)与线上方的实际值之间的所有差异之和恰好等于回归线与低于回归线的所有值之间的所有差异之和线。同样,没有内在的原因,为什么这是构建拟合的最佳方式,但它直截了当且直观地吸引人。就像算术平均值一样:通过以这种方式构造我们的拟合值,通过构造,它必然遵循该线的所有偏差必须总和为零,否则这将不是 OLS 回归。
当一个截距包含在多元线性回归中时,
一个关键的观察结果是,因为模型有截距,,即设计矩阵的第一列, 可以写成
所以,