向量乘法与协方差矩阵的直观含义

机器算法验证 协方差矩阵 直觉 线性代数
2022-03-23 08:15:08

我经常在文献中看到与协方差矩阵的乘法。但是,我从来没有真正理解通过与协方差矩阵相乘可以实现什么。鉴于其中随机变量的协方差矩阵,有人可以给我一个直观的解释给了我什么吗?Σr=sΣnXis

我已经(至少认为)理解的是一般的协方差原理和协方差矩阵在线性基方面的含义,其中第之间的协方差,对于iXiXj1jn

我已经收集到的一些直觉如下:通过乘以 ,我们根据对样本加权。在固定的情况下,为我们提供了的加权协方差的总和,这意味着方向上“协变”的程度 的方向上”是什么意思?这个结果对什么真正有用?我经常看到这样的值: 这个值有什么用?ΣrXiriyiXiXj1jnXir
rrTΣ1r

(而且我知道的特征值和特征向量的良好属性)Σ

4个回答

你的回答很好。请注意,由于是对称的和正方形的,所以也是如此。矩阵、它的转置或逆矩阵都将您的向量投影在同一空间中。ΣΣ1Σr

由于是正定的,所有特征值都是正的。因此,与向量的乘法总是在空间的同一个半平面中结束。ΣΣ1

现在,如果将是一个对角矩阵,那么乘法将仅重新加权(或撤消重新加权)每个维度中目标向量的长度(如您所见)。如果它们是满矩阵,那么矩阵确实是满秩的,因为它是 PSD,存在特征分解并且,这里是一个正交特征向量矩阵,因为是 PSD , 和具有特征值的对角线。因此首先由旋转,然后由旋转回来同样的事情也适用ΣΣ1Σ=VΛV1VΣΛrV1ΛVΣ1,但随后以相反的方式旋转,并由倒数旋转回来很容易看出它们是相反的过程。rΛ1V1

另外,你可能会想到 作为向量的长度,在校正互相关后由“标准差”重新加权。

rTΣ1r=(Λ1/2VTr)T(Λ1/2VTr)=Λ1/2VTr2
r

希望有帮助。

经过一些进一步的思考,我现在自己得出了一个(某种)直观的解释。如果在协方差和方差的背景下熟悉 PCA,实际上并不难。

我们用表示数据集,其中是维度的随机向量(这与我在问题中使用的符号略有不同)。 如果我们查看相乘的主分量方向上拉伸相应的特征值分量(数据集在主分量方向上的方差) . 这种线性映射的一个很好的特性是,返回数据集在方向上的方差XX1XnXid
ΣrΣrX
rTΣrr(假设,否则返回方差时间)。|r|=1|r|2

话虽如此,让我们看一下术语现在根据主成分缩回 r eigenvectors)),因为这只是相反的操作。这意味着,我们用前一项得到的只是沿的方差(再次假设 这个陈述的一个小证明: ^{-1} r \right)^T r = \left( \Sigma^{-1} r \right)^T \Sigma \Sigma^{-1} r =等于方差rTΣ1rΣ1rrr=Σ1rΣr|r|=1

rTΣ1r=(Σ1r)Tr=(Σ1r)TΣΣ1r=rTΣr
X沿r

注意是一个公正的数字,在很多情况下,我们希望这个数字很小,即尽量解决优化问题。该术语的优点是如果 SPD,则将具有与线性系统相同的解。xTAxA12xTAxbTxAx=b

更多讨论可以在这里找到。

为什么对称正定 (SPD) 矩阵如此重要?

我强烈建议遵循 2 个对我有很大帮助的教程。

线性代数的本质

无痛苦的共轭梯度法介绍

  1. 经验协方差矩阵的特征向量是数据具有最大方差的方向。
  2. 我们知道线性算子的特征向量基是该算子具有对角表示的基。

结合上面这两个事实,我得出结论:

如果向量是从正态分布中得出的,那么与协方差矩阵相乘将得到一个从正态分布但根据经验协方差矩阵得出的向量。xN(0,I)

我相信还有其他的直觉。请与我们分享。