当我有样本元素的多变量线性回归模型时:
那么 OLS 估计量由以下等式确定:
为什么我们不能简单地取消两边?
如果我们碰巧有那个样本量怎么办? 那么有可能吗?
当我有样本元素的多变量线性回归模型时:
为什么我们不能简单地取消两边?
如果我们碰巧有那个样本量怎么办? 那么有可能吗?
为什么我们不能简单地取消
我记得 300 年前看到回归方程时,我问自己几乎完全相同的问题这是我生命中的第一次。不同的是我告诉自己:我们为什么不简单地解决它? 事实证明,您和我的问题的答案几乎相同。
“取消”如何运作?在一个简单的代数中,你得到以下
问题是两者都没有也不存在时. 这些是您可以轻松看到的矩形矩阵,实际上在您的第二个问题中提到了这些矩阵。矩形矩阵没有求逆。稍后我将限定最后一个语句。
什么时候,你可以按照我一开始的建议去做,即,因为不再需要最小二乘问题。它退化为具有唯一解的简单线性代数方程。如评论中所述,甚至不是每个方阵都有解决方案。例如,如果您有一个具有两个相同行的矩阵,则它没有逆矩阵。
回到矩形矩阵的逆。您可能听说过矩阵伪逆运算。你可以用它来反转矩形矩阵,但这里没有捷径:这确实会解决最小二乘方程,所以你会回到起点:)