当我们将原始空间减少到 2 维或更高维空间时,PCA 是如何工作的?

人工智能 数学 优化 线性代数 主成分分析
2021-11-06 06:37:38

当我们将原始空间缩减为二维或更高维空间时,PCA 是如何工作的?我理解我们将维度降低到的情况1,但不是这种情况。

maximizeTr(wTXXTw)subject towTw=1

2个回答

您可能想查看PCA的维基百科文章,其中说:

“这kth 分量可以通过减去第一个k1主要成分来自X:"

X^k=Xs=1k1XwswsT

然后重复该过程以找到下一个组件:

wk=argmaxwTX^kTX^kw
s.t. wkTwk=1

您也可以从约束优化的角度来理解逻辑。引入拉格朗日函数:

L=Tr(wTXXTw)λwTw
并取关于的导数w
Lw=2(XXTλ)w
对于维度的一般情况1 w是一组向量w=(w1w2wn). 这个表达式消失了,如果对于某个索引i wi是一个 的特征向量XXT与特征值λi,并且所有其他组件都设置为零。换句话说,静止点是XXT.

条件wTw=1对特征向量施加正交性条件。事实上,回到最初的功能,人们会看到,wiXXTwj=λjwiTwj=0为了ij. 因此,我们终于:

L=λiλ
对于任何k1,通过取k最大特征值。