为什么当然,这当然是可能的。正如您已经指出的,字典学习与稀疏恢复紧密耦合,这是压缩感知所需要的。
在 DL 中,我们试图将,这只有在做出额外假设的情况下才有可能。通常,这包括的一些额外的归一化约束。还有一些条件甚至可以使问题变得独特。请注意,可能不是基础,通常它甚至不是平方。DL 的典型策略包括交替优化(看看基于 MOD 的算法):从猜测其中一个开始,估计另一个,然后轮流进行。这利用了这样一个事实,即虽然找到和都是一个困难(非凸)问题,但在给定另一个的情况下找到其中一个要容易得多:Y=DXXDDDX
- 给定(和 )找到是一个线性最小二乘问题DXY
- 在给定(和 )的情况下找到是一个稀疏恢复问题(它本身也是非凸的,但具有很好的凸松弛,已经得到很好的研究)。XDY
在 CS 设置中,我们遇到了类似的情况,除了这里,通常由我们知道的测量矩阵(例如 )和一些我们可能知道或可能不知道的稀疏字典或基础(例如 )组成即和。在这种情况下可以是一个基(即,它是正方形),但它也可以是一些更通用的字典(即,平面)。另一方面,矩阵鉴于此,上述策略仍然适用,您可以应用交替优化:DΦAD=ΦAY=DX=ΦAXAΦ
- 找到给定、和是一个线性最小二乘问题(除非您需要作为基础,这会增加一个正交约束)AΦXYA
- 在给定、和的情况下找到是一个稀疏恢复问题(与 CS 上下文中已经使用的问题没有任何不同)。XΦAY
也就是说,有一些策略可以联合优化和,例如 K-SVD。它们可能不直接适用。DX