两个变量的相关矩阵是否总是具有相同的特征向量?

机器算法验证 主成分分析 svd 全最小二乘法 相关矩阵
2022-03-14 18:12:26

我使用两个标准化的变量进行主成分分析。这是通过在相关变量的相关矩阵上应用 SVD 来完成的。但是,无论两个变量是什么,SVD 都会给我相同的特征向量(权重)。总是 [.70710678, .70710678]我觉得这很奇怪。当然,特征值不同。

我的问题是:如何解释这个?


PS。我想对两个变量进行总最小二乘回归。我的统计程序不提供 TLS,但幸运的是,据我所知,TLS 等于主成分分析。因此我的问题。问题不直接与 TLS 有关,而是为什么我得到相同的特征向量,而不管我使用哪些变量(只要它们正好是 2)。

2个回答

在代数上,两个变量的相关矩阵如下所示:

(1ρρ1).
根据特征向量的定义,很容易验证(1,1)(1,1)是特征向量,与ρ, 带有特征值1+ρ1ρ. 例如:

(1ρρ1)(11)=(ρ+1)(11).

将这两个特征向量归一化为单位长度产生(2/2,2/2)(2/2,2/2),正如你所观察到的。

在几何上,如果变量是标准化的,那么散点图将始终沿主对角线(将是第一个 PC)拉伸,如果ρ>0,无论是什么值ρ是:

具有不同相关系数的两个标准化变量

关于 TLS,您可能想在此线程中查看我的答案:如何通过 PCA 执行正交回归(总最小二乘)?从上图中应该很明显,如果您的xy是标准化的,则 TLS 线始终是对角线。所以执行 TLS 几乎没有意义!但是,如果变量没有标准化,那么您应该在它们的协方差矩阵(而不是它们的相关矩阵)上进行 PCA,并且回归线可以有任何斜率。


有关三个维度的情况的讨论,请参见此处:https ://stats.stackexchange.com/a/19317 。

因为你的第一个特征向量是(2,2),另一个特征向量是唯一的(我们是二维的)直到因子1/1向量(22). 所以你得到你的对角正交矩阵

2[1111]

不,我们可以重建协方差*矩阵以具有形状

[a+bababa+b]
ab是特征值。我建议仔细查看您的模型或数据的来源。然后您可能会找到您的数据可能被分发为的原因X1=Xa+XbX2=XaXb, 在哪里Var(Xa)=aVar(Xb)=bXaXb是独立的。

如果您的数据遵循连续的多元分布,则几乎可以肯定您的相关矩阵遵循这种和/差关系。如果数据服从离散分布,那么模型仍然很可能X1=Xa+XbX2=XaXb正确描述您的数据。在这种情况下,您不需要 PCA。

但通常最好通过对数据性质的确切洞察来推断这种关系,而不是通过像 PCA 这样的估计程序。

*说相关矩阵,如果a+b=1.