在机器学习课程中,我了解到 PCA(主成分分析)的一个常见用途是加速其他机器学习算法。例如,假设您正在训练一个逻辑回归模型。如果您有一个从 1 到 n 的 i 训练集并且结果向量 x 的维度非常大(假设是维度),您可以使用 PCA 来获得更小维度(比如说 k 维度)的特征向量 z。然后,您可以在训练集上从 1 到 n 训练逻辑回归模型。训练这个模型会更快,因为你的特征向量的维度更少。
但是,我不明白为什么不能通过随机选择 k 个特征并消除其余特征来将特征向量的维度减少到 k 个维度。
z 向量是 a 特征向量的线性组合。由于 z 向量仅限于 k 维表面,因此您可以将 ak 消除的特征值写为 k 个剩余特征值的线性函数,因此所有 z 都可以由您的 k 个特征的线性组合形成。那么,在具有消除特征的训练集上训练的模型是否应该与在通过 PCA 降维的训练集上训练的模型具有相同的能力?它是否仅取决于模型的类型以及是否依赖于某种线性组合?