是否可以在不同的图像上使用自监督学习来进行借口和下游任务?

人工智能 计算机视觉 图像识别 迁移学习 自监督学习 借口任务
2021-10-22 10:13:45

我刚刚遇到了自我监督学习的想法。当网络在借口任务上进行训练时,似乎有可能在下游任务上获得更高的准确性。

假设我想对自己的一组图像进行图像分类。我在这些图像上的数据有限,也许我可以使用自我监督学习来在这些有限的数据上获得更好的准确性。

假设我尝试在一个借口任务上训练一个神经网络,该任务是预测在数量上很容易获得的不同图像上相对于中心补丁的补丁位置,例如猫、狗等。

如果我尝试初始化我的神经网络的权重,然后对我自己的图像进行图像分类,这与借口任务中使用的图像有很大不同,自我监督学习会起作用,因为借口和下游的图像任务不一样?

TLDR:pretext 任务和下游任务中使用的图像必须相同吗?

1个回答

不,图像不需要相同。您可以为下游任务使用不同的图像,但是在加载模型 state_dict 作为用于借口任务“相对补丁位置”的 CNN 架构时,您需要对模型定义进行一些更改,假设 Alexnet 将期望 2 个补丁作为输入。