我偶然看到Hervé Abdi写的关于广义 SVD 的文章。作者提到:
广义 SVD (GSVD) 分解矩形矩阵并考虑施加在矩阵的行和列上的约束。GSVD通过较低级矩阵给出给定矩阵的加权广义最小二乘估计,因此,通过足够的约束选择,GSVD实现所有线性多变量技术(例如,规范相关,线性判别分析,对应分析,请-回归)。
我想知道 GSVD 如何与所有线性多元技术相关(例如,典型相关、线性判别分析、对应分析、PLS 回归)。
我偶然看到Hervé Abdi写的关于广义 SVD 的文章。作者提到:
广义 SVD (GSVD) 分解矩形矩阵并考虑施加在矩阵的行和列上的约束。GSVD通过较低级矩阵给出给定矩阵的加权广义最小二乘估计,因此,通过足够的约束选择,GSVD实现所有线性多变量技术(例如,规范相关,线性判别分析,对应分析,请-回归)。
我想知道 GSVD 如何与所有线性多元技术相关(例如,典型相关、线性判别分析、对应分析、PLS 回归)。
文章的第 4.1 节描述了矩阵 M 和 W 必须是什么才能使广义 SVD 产生与对应分析相当的结果。作者还引用了他的参考文献 #3 来解释广义 SVD 如何产生与提到的其他多元方法相当的结果。