几个月前我刚接触人工智能。我注意到训练数据集中的大多数图像通常质量很低(几乎像素化)。
训练图像的质量会影响神经网络的准确性吗?
我尝试谷歌搜索,但找不到答案。
几个月前我刚接触人工智能。我注意到训练数据集中的大多数图像通常质量很低(几乎像素化)。
训练图像的质量会影响神经网络的准确性吗?
我尝试谷歌搜索,但找不到答案。
对于当前的大多数用例,在将 NN 与图像结合使用的情况下,图像质量(分辨率、颜色深度)可能很低。
例如,考虑图像分类。CNN 从图像中提取特征以区分不同类型的对象。这些特征完全独立于图像的质量(在合理的范围内)。将其与您自己的视觉体验进行比较。尝试逐步降低汽车图像的分辨率,以弄清楚您需要多少细节,直到您无法再将其与飞机区分开来。这类似于现代 CNN,在某些方面甚至可以超越人类视觉。
当小细节开始变得重要时,情况就会改变。也许您需要能够检测毛皮图案的微小差异,以区分不同的猫品种。一旦你丢失了这些细节,检测率就会显着下降。
所以你的问题的答案是,这取决于。只要您不丢失图像的重要特征,低分辨率就可以了。
如果您关心机器学习中使用的图像质量低下的原因 - 分辨率是您可以操纵以扩展 NN 速度的一个简单因素。降低分辨率将显着降低计算需求。
许多 CNN 甚至在其架构中包含池化层,这会在某些处理步骤后人为地进一步降低分辨率。只要您不介意丢失位置信息,这通常是一个好主意。在教 CNN 玩游戏时不应该这样做,因为位置非常重要,但对于图像分类,这已成为提高性能的既定方法。
让我分两部分回答你的问题。