引用图像处理、分析和机器视觉,第 4 版。
要由计算机处理的图像必须使用适当的离散数据结构来表示,例如矩阵。传感器捕获的图像表示为平面中两个坐标的连续函数 f(x, y)
我不太明白数码相机中的传感器如何将图像捕获为连续信号而不仅仅是离散的数字信号。在我看来,“连续图像的分辨率”是无限的。如果这是真的,我们可以通过采样使数字化图像具有我们想要的任何分辨率,对吗?
我仍然被介绍到图像处理。如果你觉得这个问题很幼稚,请原谅我。
引用图像处理、分析和机器视觉,第 4 版。
要由计算机处理的图像必须使用适当的离散数据结构来表示,例如矩阵。传感器捕获的图像表示为平面中两个坐标的连续函数 f(x, y)
我不太明白数码相机中的传感器如何将图像捕获为连续信号而不仅仅是离散的数字信号。在我看来,“连续图像的分辨率”是无限的。如果这是真的,我们可以通过采样使数字化图像具有我们想要的任何分辨率,对吗?
我仍然被介绍到图像处理。如果你觉得这个问题很幼稚,请原谅我。
正如您所说,数码相机/传感器中的图像表示为离散数字矩阵。
(空间)数字化由一组传感器组成,每个传感器都有一些对光敏感的非零区域,由非敏感区域框定,可能是增加填充率(有效光敏感区域)的微透镜,可能光学低通滤波器(一些玻璃排列,将图像的空间偏移副本馈送到传感器,从而在采样之前提供一点模糊)。
在我看来,文本只有不幸/复杂的单词选择。
-k
我同意克努特英格
在许多图像处理书籍中,图像被定义为连续的二维函数(即)。这是因为有时数学在连续函数中比在离散函数中更容易完成。
例如,偏微分方程中有一个完整的区域,其中证明和定理以及诸如此类的东西是为连续图像制作的。然后将算法应用于离散图像,该图像被认为是所述图像的离散化。
这个想法和哲学是认为“真实”图像不是相机看到的,图像是影响相机传感器的真实场景。由于在现实世界中没有离散化(或离散化是在原子级别,即光子),因此图像被认为是连续的,并且相机中的图像只不过是在空间上离散化、量化并添加了一些噪声的同一图像。
当您尝试减少噪点时,以这种方式思考图像特别有用。那是因为您可能认为您想在添加噪声之前恢复原始图像并对理论图像进行采样。有时除了噪声之外,还有一个称为 PSF(点扩散函数)的函数的卷积,但这仅在对摄像机移动(或在摄像机前移动的物体)或在显微镜或望远镜中建模时相关。
我希望这对你有用。