我想确保我对问题的理解是正确的。我想做图像分类,我所在领域的最新技术是通过使用 VGG16 进行迁移学习来实现的。
由于该字段上的图像与 VGG16 训练图像使用的图像完全不同,我们应该解冻“很多”层。
原始 VGG16 模型有超过 130M 的参数。它最后有 13 个隐藏层和 3 个全连接层。如果我只解冻全连接层,我仍然需要训练超过 80M 的参数!!我可能需要解冻一些隐藏层以获得更好的性能,因为我的数据确实不同
所以看起来使用 VGG16 的迁移学习需要大量的计算能力
我对吗?是否可以在没有大量计算能力的情况下使用与训练数据完全不同的图像进行迁移学习?