SVD:为什么右奇异矩阵写为转置

机器算法验证 svd 矩阵分解
2022-03-11 14:29:51

SVD 总是写成,

A = U Σ V_Transpose

在此处输入图像描述

问题是,为什么右奇异矩阵写成 V_Transpose?

我的意思是说,W = V_Transpose

然后将 SVD 写为 A = U Σ W

SVD 图片来源:https ://youtu.be/P5mlg91as1c

谢谢

3个回答

出于线性代数的原因,它被写成转置。

考虑平凡的秩一情况,其中是单位向量。该表达式告诉您,作为线性变换,将向量设为的正交补集设为零。您可以看到转置是如何自然显示的。A=uvTuvAvuv

SVD 对此进行了概括,它告诉您任何线性变换都是此类 rank-one 映射的总和,此外,您可以将总和安排为正交的。具体来说,分解 表示,对于一些(更一般地,任何可分离希尔伯特空间上的紧算子),你可以找到正交集使得

A=UΣVT=i=1kσiuiviT
ARnn{vi}{ui}

  1. {vi}跨越ker(A)

  2. A带到,对于每个viσiuii

这种情况的一个特殊情况是正半定矩阵的谱分解,其中的特征向量--- 和 u_i是秩一正交投影。对于 Hermitian “几乎等于” ---如果相应的特征值为负,则必须取以便AU=VuiAuiuiTAUVui=viσi0

VT是 V 的 Hermitian 转置(复共轭转置V

V本身包含 A 的右奇异向量,的(正交)特征向量到那个程度:如果我们写,那么将不再代表的特征向量。此外,将 SVD 定义为:允许我们直接使用的意义上对矩阵进行对角化,因为其中的秩(即) . 最后使用AATAATA=VS2VTW=VTWATAA=USVTUVAvi=siuiirrAAV=USUSVT还简化了我们在对称矩阵的情况下的计算,在这种情况下将重合(直到一个符号),它允许我们将奇异分解直接链接到特征分解为了清楚起见:“是的,使用而不是有点习惯”,但很有帮助。AUVA=QΛQTVTW=VT

我的回答比其他人都傻...

可以说,W = V_Transpose

然后将 SVD 写为 A = U Σ W

有了这个,您要求读者再记住一个变量(),但是对于一个简单的表达式,因为是不值得的,IMO。WVT