有没有比倒置更快的方法来计算线性回归问题的标准误差? 在这里,我假设我们有回归:
在哪里是矩阵和是向量。
为了找到最小二乘问题的解决方案,做任何事情都是不切实际的,您可以在矩阵上使用 QR 或 SVD 分解直接地。或者,您可以使用渐变方法。但是标准错误呢?我们真的只需要对角线(自然是 LS 解决方案来计算标准误差的估计值)。有没有具体的标准误计算方法?
有没有比倒置更快的方法来计算线性回归问题的标准误差? 在这里,我假设我们有回归:
在哪里是矩阵和是向量。
为了找到最小二乘问题的解决方案,做任何事情都是不切实际的,您可以在矩阵上使用 QR 或 SVD 分解直接地。或者,您可以使用渐变方法。但是标准错误呢?我们真的只需要对角线(自然是 LS 解决方案来计算标准误差的估计值)。有没有具体的标准误计算方法?
假设您使用奇异值分解 (SVD) 解决了最小二乘问题, 由
在哪里和是单一的,并且是对角线。
然后
存在当且是满秩(或具有严格的正奇异值),在这种情况下
(请参阅我在 Math.SE 上对相关问题给出的答案。)
如果你已经有和, 计算需要对对角矩阵求逆和平方(一个操作矩阵),缩放矩阵的列(或行)(操作),和一个单一的矩阵乘法(不幸的是)。这种方法在数值上表现良好。
有一些快速方法可以获取稀疏矩阵的逆对角元素(参见Yousef Saad 小组的工作和Lin Lin等人的工作)。但是,在您的情况下,可能并不稀疏(即使是),即使是这样,它也可能是病态的,以至于这些快速方法会产生不准确的结果。