计算机视觉深度学习算法的最佳图像 PPI

数据挖掘 深度学习
2022-02-03 09:09:26

对于使用深度学习的计算机视觉任务,我应该担心图像大小(例如 256 x 256)还是 PPI(每英寸像素数)?

我发现计算机视觉/深度学习文献中没有讨论 PPI。

对于 256 x 256 大小的图像,最佳 PPI 是多少?

2个回答

PPI 仅与物理对象相关,例如屏幕或纸上的表示。它是每英寸像素数,定义了图像 X 乘 Y 像素出现在该对象上的大小。因此,如果您有一个 256x256 像素的图像,并且您在屏幕上以 256 PPI 显示它,如果您将尺子放在它上面,它将是 1 英寸见方。

许多物理设备具有自然的 PPI 特性。对于“Retina”设备,屏幕通常为 72 PPI、100 PPI 或大约 300 PPI。激光打印机起价为 300 PPI 或更高。

因此,如果您在 100 PPI 屏幕上显示 256x256 图像作为一个图像像素到一个屏幕像素的直接映射,您将获得 2.56 英寸宽的图像。

如果您放大图像,您可以将其在屏幕上放大,现在它将覆盖超过 256 个屏幕像素。底层图像数据仍然是一个 256x256 值的数组

扫描仪是 PPI 很重要的另一个领域。如果您以 300 PPI 扫描 1" 图像,您将获得 300x300 像素的图像。将扫描仪设置为 1200 DPI,您将获得 1200x1200 像素的图像,这是更精细的细节。

总之,PPI 与 CV 或 ML 算法无关,因为它们只关心像素数。

图像分辨率和 PPI 在对象检测和识别方面确实很重要。无论您使用的是卷积神经网络、传统的计算机视觉方法,还是只是用自己的眼睛看,如果您的图像中的对象仅跨越 4 x 4 个像素,那么您将无法可靠地检测到它无论如何,除非它在场景中具有独特和独特的颜色。即使那样,在正确距离处具有相同颜色的另一个对象也会被误认为是它,因为根本没有足够的像素来区分。

这背后的概念称为像素密度。不同的计算机视觉任务,无论他们提出何种解决方案,都需要不同的最小像素密度。例如,如果我们对人类感兴趣,这是一个很好的例子:

在此处输入图像描述