更改预训练卷积网络的图像输入大小

机器算法验证 机器学习 深度学习 卷积神经网络 迁移学习 预训练
2022-04-12 23:23:06

也许这个问题听起来有点像新手,但我想澄清一下。
我正在使用类似 VGG16 的卷积网络,使用 VGG16 权重进行预训练并编辑顶层来解决我的分类问题;具体来说,我删除了三个完全连接的层并用flatten --> fully connected --> dropout(0.5) --> fully connected --> softmax层替换它们。

由于 VGG16 权重是使用 224x224 像素的平方图像进行训练的,我是否仍然可以使用相同的预训练权重,但使用大小为 320x320 的图像?

这是我在CS231n 迁移学习页面上读到的内容:

然而,一些变化是直截了当的:由于参数共享,您可以轻松地在不同空间大小的图像上运行预训练网络。这在 Conv/Pool 层的情况下很明显,因为它们的前向函数与输入体积空间大小无关(只要步幅“适合”)。

我应该如何解释“只要步幅“适合” “?

此外,我使用相同的数据集进行了这两个测试:
1- 带有 320x320 输入图像的 ConvNet 仅针对 100 个 epoch 进行了微调(由于资源限制)。
2- 相同的 ConvNet,但输入图像为 224x224,已针对 250 个 epoch 进行了微调。

在第一个测试中,我得到了比第二个更好的分类结果,即使它被微调得更少。有什么理由可以解释这种行为吗?
太感谢了!

0个回答
没有发现任何回复~