据我了解,迁移学习有助于整合来自其他相关数据集的数据,并使用较少标记的数据(每个类别可能包含 100 张图像)来完成任务。
少数镜头学习似乎也能做到这一点,每个类别可能有 5-20 张图像。这是唯一的区别吗?
在这两种情况下,我们最初使用大型数据集训练神经网络,然后使用我们的自定义数据集对其进行微调。
那么,few-shot 学习与迁移学习有何不同?
据我了解,迁移学习有助于整合来自其他相关数据集的数据,并使用较少标记的数据(每个类别可能包含 100 张图像)来完成任务。
少数镜头学习似乎也能做到这一点,每个类别可能有 5-20 张图像。这是唯一的区别吗?
在这两种情况下,我们最初使用大型数据集训练神经网络,然后使用我们的自定义数据集对其进行微调。
那么,few-shot 学习与迁移学习有何不同?
他们使用相同的技术,但研究不同的问题。
迁移学习并不意味着新类的样本很少(每个类只有 1 个)。很少有人学习。
迁移学习的目标是获得可用于各种下游判别任务的可迁移特征。一个例子是使用 ImageNet 预训练模型作为任何下游任务的初始化,但请注意,我们需要对这些新类的大量数据进行训练,以使模型适合该任务。
请注意,您不能在几个 COCO 示例上微调 ImageNet 分类器并期望它能够很好地泛化,因为它不会。它没有针对少样本学习进行明确优化。
在少样本学习中,我们的目标是获得可以从少样本中泛化的模型。这可以是迁移学习的(对通常的迁移学习场景进行某些更改),也可以是元学习的。它可能不需要两者,它可以在测试期间使用来自新类的数据进行扩充,并且可以从头开始训练分类器。