如果我们有一些居中的数据集那么特征向量表示数据集的主要成分,它们的物理意义是数据在原始特征空间中遵循的方向。
现在,像以前一样,我们可以创建核矩阵的中心数据,我们可以计算其特征向量和特征值。
我知道利用这种分解可能会有一些好处,例如利用J. Shawe-Taylor等人在本文中讨论的顶级组件的子集。,但是,我不确定我是否理解这种分解的物理意义。现在的方向是什么,特征值的含义是什么?
如果我们有一些居中的数据集那么特征向量表示数据集的主要成分,它们的物理意义是数据在原始特征空间中遵循的方向。
现在,像以前一样,我们可以创建核矩阵的中心数据,我们可以计算其特征向量和特征值。
我知道利用这种分解可能会有一些好处,例如利用J. Shawe-Taylor等人在本文中讨论的顶级组件的子集。,但是,我不确定我是否理解这种分解的物理意义。现在的方向是什么,特征值的含义是什么?
特征值实际上与协方差矩阵的特征值相同。让是奇异值分解;然后
因此,Gram 矩阵的特征向量被视为,. 解释这些的一种方法是:
如果你只取前几列(以及相应的块),您可以将数据尽可能好地投影到最频繁的组件 (PCA) 上。
如果一个数据点的行范数很高,这意味着它使用组件比其他组件多得多,即它具有高杠杆/“突出”。如果,这些都将是一个,在这种情况下,您可以只看第一个值(利用与最佳 rank-k 近似对应的分数)或进行某种软阈值处理。这样做,这在计算上更容易,为您提供 PageRank。
另请参阅此线程和其中的链接,了解您想了解的有关 SVD/PCA 的所有信息,您可能没有意识到这确实是您的问题,但确实如此。