为什么我们处理自相关的特征向量而不是数据本身?

信息处理 自相关 矩阵
2021-12-19 21:18:29

如何直观地理解为什么使用自相关矩阵的特征向量,但是从时间样本构造的矩阵的特征向量没有意义并且没有被使用?例如,在加性噪声中检测和谐信号。

2个回答

为什么最好使用自相关矩阵而不是矩阵与您的观察结果一起工作的一些“直觉”原因:

  • 如果您想考虑所有观察结果并且您拥有大量数据,那么您最终将操纵(反转,乘法)相当大的矩阵。如果您使用自相关矩阵,您可以“汇总”一次数据(在一个相当有效的步骤中,只需要一个 FFT 和一个逆 FFT),然后,您只需操纵大小的自相关矩阵P×P在哪里P是您的模型顺序(例如用于 AR 建模或正弦建模)。
  • 对于某些数据,使用原始观测值在数值上不起作用,因为您遇到必须处理不能保证是正定矩阵的情况。

例如,让我们考虑两种 AR 模型拟合的方法。

直接使用数据矩阵

数据的经验二次重建误差为:

ϵ=xTx+xTΓa+aTΓTx+aTΓTΓa

在哪里a是 AR 系数的向量,x是您的观察向量,并且Γ延迟观察的矩阵。你需要找到的价值a最大限度地减少这一点。经过推导和一些改组后,您的解决方案如下所示:

a=(ΓTΓ)1ΓTx

你被搞砸了,因为你绝对不能保证ΓTΓ可以倒置。在这个过程中,从数值上讲,如果您有很长的观察序列,则必须处理相当大的矩阵乘积。

随机过程视图

如果您对问题采用“随机过程”角度,则必须最小化的数量(误差的预期值)为:

ϵ=rx(0)+2ra+aTRa

你最终会得到更可口的解决方案:

a=R1r

有一个可靠的保证,这将是可计算的,因为R是肯定的!

看起来您的问题是正弦建模(而不是 AR 建模)。这里有很多人在挥手,但我所说的关于 AR 建模和使用原始数据矩阵的障碍;也适用于正弦建模 - 特征值分解是有问题的操作,而不是矩阵求逆。

首先,为算子定义特征向量和特征值。相关是一种操作。

其次,自相关的特征向量特别有趣,因为它们最有效地解释了线性回归中信号的方差。换句话说,对于固定数量的向量,选择特征向量可以最小化均方误差,其中信号被建模为向量的线性和。这种技术被称为主成分分析

如果您可以扩展您对“和谐”信号的概念,也许我可以进一步评论。