由于 Kernel PCA 与高维空间中的 PCA 相同,因此获得的特征向量不应该是正交的吗?
假设我有数据点,设和是映射数据协方差矩阵的两个特征向量,和是对应的特征向量核 PCA 问题(通过对核矩阵进行特征分析获得)。那么和可以写成输入数据的线性组合,即 and
它们的内积是:
为什么这个值为零?
由于 Kernel PCA 与高维空间中的 PCA 相同,因此获得的特征向量不应该是正交的吗?
假设我有数据点,设和是映射数据协方差矩阵的两个特征向量,和是对应的特征向量核 PCA 问题(通过对核矩阵进行特征分析获得)。那么和可以写成输入数据的线性组合,即 and
它们的内积是:
为什么这个值为零?
是的,它们是正交的。要查看最后一个表达式是否等于 0,请将其写成矢量符号:因为和是的两个不同特征向量。这是一个标准的线性代数结果:
但是请注意,目标空间中的协方差矩阵通常甚至无法定义,因为目标空间可以是无限维的(例如,高斯核就是这种情况)。这意味着你的和可以是无限维的,使得上述计算有些草率......我认为更重要的是,和是正交的 - 这意味着内核 PC 的相关性为零。有关更多详细信息,请参阅我的答案:Kernel PCA with linear kernel 是否等同于标准 PCA?