CNNs
如果他们在类似规范的图像上训练但在稍微偏移的图像版本上进行测试,是否可以很好地预测?
我使用mnist
数据集进行了尝试,结果恰恰相反。与 相比,转移的测试集的准确性非常低MLPs
。
CNNs
如果他们在类似规范的图像上训练但在稍微偏移的图像版本上进行测试,是否可以很好地预测?
我使用mnist
数据集进行了尝试,结果恰恰相反。与 相比,转移的测试集的准确性非常低MLPs
。
如果您使用max-pooling
图层,它们可能对小的变化不敏感,但不是那么多。如果您希望您的网络能够对转换保持不变,例如平移和移位或其他类型的常规转换,您有两种解决方案,至少据我所知:
看看 什么是最先进的 MNIST ANN 架构以及为什么卷积神经网络有效。
感谢我们的一位朋友,另一种方法是在数据增强后使用迁移学习。
除边界效应外,卷积是移位等变的。全连接层不是。
池化(没有二次采样/步幅)可以看作是一种平滑,它的输出对于许多相邻位置通常是相同的。对此进行二次采样(应用步幅)会导致操作对小偏移相当不变。
全局池化是完全移位不变的,同样除了边界效应。
至于轮换:标准架构本身对这些架构并不健壮。
试试 MS COCO 数据集:它非常多样化,并尝试训练网络进行检测/分割。像 Mask R-CNN 这样性能最好的网络在测试数据上产生了大约 44% 的 mAP,或者在 0.5 IoU 时产生了 68%。它可以很好地处理所有挑战,包括轮换,但很难训练。