我有一个关于图像识别 ML 模型的相当普遍的问题。我最近使用单个相机开发了一个图像识别模型,收集了 5000 多张图像,然后训练/开发了该模型。
我的问题是如果我改变相机源(也改变分辨率)这会影响模型的准确性吗?我们开发的脚本仍会将图像大小调整为与训练集相同的大小。
我们团队内部对此进行了一些讨论,我希望在图像识别方面具有更多专业知识的人可以增加一些见解。
谢谢!
我有一个关于图像识别 ML 模型的相当普遍的问题。我最近使用单个相机开发了一个图像识别模型,收集了 5000 多张图像,然后训练/开发了该模型。
我的问题是如果我改变相机源(也改变分辨率)这会影响模型的准确性吗?我们开发的脚本仍会将图像大小调整为与训练集相同的大小。
我们团队内部对此进行了一些讨论,我希望在图像识别方面具有更多专业知识的人可以增加一些见解。
谢谢!
一般来说,只要输入图像质量发生轻微变化,精度就会发生变化(即使是谷歌研究团队发现的显着变化)。
参考:
图像质量是一个重要的实际挑战,在机器视觉系统的设计中经常被忽视。通常,机器视觉系统是在高质量图像数据集上训练和测试的,但在实际应用中,不能假设输入图像是高质量的。最近,深度神经网络在许多机器视觉任务上都获得了最先进的性能。在本文中,我们评估了 4 种最先进的深度神经网络模型,用于在质量失真下进行图像分类。我们考虑五种类型的质量失真:模糊、噪声、对比度、JPEG 和 JPEG2000 压缩。我们表明,现有网络容易受到这些质量失真的影响,尤其是模糊和噪声。
最近对神经网络的一项研究发现,对于每一个正确分类的图像,都可以生成一个“对抗性”、视觉上无法区分的图像,这些图像将被错误分类。这表明所有神经网络都存在潜在的深层缺陷,可能包括人脑。
我认为准确性是指验证/测试准确性。任何深度学习模型都受到训练数据分布的高度影响。如果训练集和测试/验证集之间不匹配,那么您的模型将表现不佳。现在,我所说的训练数据分布是什么意思?例如,您自己捕获了 5000 张小狗和猫的图像来构建图像分类器。现在您从互联网上下载了一些小狗和猫的图片并尝试预测它们。您的模型很可能在此测试中表现不佳,因为您的测试数据来自完全不同的分布。如果您确保您的训练和测试数据来自相同的分布(例如您的相机和非常相似的相机),则更改相机/分辨率不会影响您的性能。