为什么图像去模糊仍然是一个悬而未决的问题?

信息处理 图像处理
2022-01-25 01:06:05

写这个问题不是为了批评人们在图像去模糊方面的努力,说实话,我只是不知道技术之间的区别。

我的问题是标题,为什么去模糊图像仍然是开放的问题,并且每天都有很多技术和方法为此发布?

当我们有一张模糊的图像时,我们可以通过简单的反卷积来去模糊,或者使用渐变来去模糊,我们可以使用锐化过滤器,或者使用不锐化蒙版。

为什么我们每天都会看到新的图像去模糊技术?它们之间有什么区别?

什么指标定义了一种技术比另一种更好?或者是什么让一种技术比另一种更弱?我们在图像去模糊方面有什么权衡?

图像去模糊中的问题是什么,当前的去模糊算法都无法解决,而所有的科学家都在努力解决这个问题?

另外,我正在寻找任何关于此的文章或书籍(图像模糊、去模糊和不同的方法),但我找不到

1个回答

线性卷积问题表述为:

y=xh+n

y观察,x原始数据,h模糊内核和n对于信号、图像或其他数据,噪声是 DSP 中的原型问题。许多解决方案试图最小化数据保真度术语的某些度量(xx^)结合惩罚,以确保解决方案在某种程度上是正确的。即使在最简单的情况下,h已知且不存在噪声(n=0),平滑核h可能会从中删除数据x那是无法挽回的。即,如果它的傅里叶变换H在频域中消失,从Y=XH,无论何时你都会得到H(ω)=0, 你有不确定性X在从X(ω)H(ω)=0. 这就是病态意味着的一部分当模糊内核像您的那样具有有限支持时,这种情况会发生很多3×3高斯示例。

以下是其他几个问题:

  • 模型不是线性的:噪声是非相加的,测量值会经历非线性效应(饱和)或基线/背景,
  • 该模型不是移位变量:模糊内核随位置而变化,数据被下采样,导致超分辨率问题,
  • 模糊内核是未知的,应该从 Fat32 所写的观察中得出,
  • 质量指标不适合该目的,
  • 算法指标(数据保真度、惩罚)与目的不一致。

他们每个人本身就是一个完整的问题我的观点是,我们需要在音质指标上做更多的工作(除了 SNR、SSIM 等),但研究可能是保守的,并且使用与以前其他指标相同的指标。

基本上,至少 x是未知的,因此有很多潜在的估计器,并且很难获得 ONE。然而,新颖的去模糊可能很有用,因为它是一个原型问题。理论环境中的一个好的算法可能会在实际案例中发挥作用,甚至可以在另一个 DSP 环境中重用。