大号0L0压缩感知中的伪范数最小化

信息处理 压缩传感 优化
2022-02-16 05:08:47

我最近开始研究压缩感知相关的论文。有些事情对我来说不是很清楚,或者我可能无法像所说的那样想象场景。就像范数最小化如何是 NP 一样困难?的矩阵和向量的例子(可能是一步一步的例子吗?)来解释,如何最小化相同的 NP 很难?l0y=Axl0

1个回答

稀疏恢复问题的解由下式给出:

min||x||0
s.ty=Ax

的定义为否。中的非零条目这也称为向量的稀疏性。||x||0x

即,我们要求满足xy=Ax

考虑最简单的情况,其中是 1-sparse,但您不知道该非零条目的位置。在这种情况下,对于 1-稀疏向量,我们有\binom{N} {1}个可能性,为了找到解决方案,我们必须检查所有\binom{N} {1} 个可能性的值以找到唯一的最小化器. 同样,如果你被告知xk稀疏的,你需要搜索\binom{N} {k}个可能性。即,算法随着\binom{N}{k}随着k的增加而增长。由于k不是先验已知的,因此您必须检查k的所有N个可能值x(N1)(N1)xk(Nk)(Nk)kkNk

因此,算法的复杂度为这被称为 NP 难题,它是非多项式时间复杂度的首字母缩写。i=1N(Ni)