我试图直观地理解 PCA。就是这样:找到数据集协方差矩阵的特征向量和特征值后,特征值将代表数据集的分布程度,特征向量将代表特征值的方向。我们要做的是将特征向量从最高特征值排序到最低(最高意味着特征更加分散,因此彼此更加独立且冗余更少)并将原始数据集投影到新的“轴”集上(特征向量)。例如,如果我们有一个 3-D 数据集,那么将有三个相互正交的特征向量(因此它们将形成一个 3-D 空间)。接下来,我们将原始数据集投影到这组新的“轴”空间上,如果我们想减少到二维,我们将取出最不重要的“轴”(最小特征值)
我熟悉执行 PCA 的技术步骤,但我很难理解算法背后的实际直觉。我在上面的解释中是否有任何错误或缺陷,尤其是使用“轴”这个词来解释降维的部分?提前非常感谢!