我刚刚遇到了自我监督学习的想法。当网络在借口任务上进行训练时,似乎有可能在下游任务上获得更高的准确性。
假设我想对自己的一组图像进行图像分类。我在这些图像上的数据有限,也许我可以使用自我监督学习来在这些有限的数据上获得更好的准确性。
假设我尝试在一个借口任务上训练一个神经网络,该任务是预测在数量上很容易获得的不同图像上相对于中心补丁的补丁位置,例如猫、狗等。
如果我尝试初始化我的神经网络的权重,然后对我自己的图像进行图像分类,这与借口任务中使用的图像有很大不同,自我监督学习会起作用,因为借口和下游的图像任务不一样?
TLDR:pretext 任务和下游任务中使用的图像必须相同吗?