根据我实现的 fcn 模型和 PASCAL VOC 基准测试(此处) ,我发现图像中尺寸较大的对象在测试集中获得更好的 IoU 或 AP 分数。为什么 IoU 分数偏向于更大规模的对象?谁能解释为什么会发生这种情况?
Intersection over Union (IoU) 分数是否更喜欢较大的对象?
数据挖掘
深度学习
2022-03-04 23:32:03
1个回答
这种行为有很多原因:
- 训练数据:在您的训练数据中,较大的对象可能比较小的对象多,因此模型没有足够的关于较小对象的信息来学习如何很好地分割它们。
- 训练程序:根据您的训练程序(例如损失函数),您的模型将更多地关注某种类型的对象(在您的情况下,更大的对象......)
- 模型架构:每个模型都有一些优势,因此有些模型在识别各种大小的物体方面效果更好。例如,卷积层和池化层可以增加神经元的感受野,以便它们更容易识别各种大小的对象。此外,一些模型架构专门用于识别不同大小的模型。
可能的方向:
- 训练数据:了解您的数据!:) 检查数据集以查看其中的内容。要查找的内容:所有类都表示得很好,标签(基本事实)是否良好,对象的大小,...
- 训练过程:尝试各种损失函数(交叉熵、骰子损失、交叉熵+骰子损失、焦点损失……)。此外,数据集扩充技术也很重要(例如,通过数据集扩充,您可以创建各种大小的对象……)。
- 模型架构: Resnet、Inception、InceptionResnet - 这些是您可能希望用于主干的主干,因为它们已被证明有利于语义分割。
其它你可能感兴趣的问题