自监督学习是否需要辅助任务?

人工智能 定义 迁移学习 表征学习 自监督学习 借口任务
2021-11-12 00:21:06

自监督学习算法自动提供标签。但是,尚不清楚算法还需要什么才能属于“自我监督”类别:

有人说,自监督学习算法在一组辅助任务[ 1 ] 上学习,也称为借口任务[ 2 , 3 ],而不是我们感兴趣的任务。进一步的例子是 word2vec 或自动编码器 [ 4 ] 或 word2vec [ 5 ]。这里有时会提到目标是“暴露数据的内部结构”。

其他人则没有提及,暗示某些算法如果直接学习我们感兴趣的任务,则可以称为“自监督学习算法”[ 6、7 ]

“辅助任务”是训练设置被称为“自我监督学习”的要求还是只是可选的?


提到辅助/借口任务的研究文章:

  1. Revisiting Self-Supervised Visual Representation Learning,2019 年,由 [ 3 ] 提到:

自监督学习框架只需要未标记的数据即可制定借口学习任务,例如预测上下文或图像旋转,可以在没有监督的情况下计算目标目标。

  1. 通过预测图像旋转进行无监督表示学习,ICLR,2018,由 [ 2 ] 提到:

一个突出的范例是所谓的自我监督学习,它定义了一个无注释的借口任务,仅使用图像或视频上存在的视觉信息,以便为特征学习提供替代监督信号。

  1. 通过上下文预测进行无监督视觉表示学习,2016 年,由 [ 2 ] 提到:

这将一个明显无监督的问题(在单词之间找到一个好的相似性度量)转换为一个“自我监督”的问题:从给定单词学习一个函数到它周围的单词。在这里,上下文预测任务只是一个“借口”,迫使模型学习良好的词嵌入,这反过来又被证明在许多实际任务中很有用,例如语义词相似性。

  1. 缩放和基准测试自我监督视觉表示学习,2019

在判别式自我监督学习中,这是这项工作的主要重点,模型在辅助或“借口”任务上进行训练,其基本事实是免费的。在大多数情况下,借口任务涉及预测数据的某些隐藏部分(例如,预测灰度图像的颜色)

1个回答

大多数(如果不是全部)用于(视觉或文本)表示学习的自我监督学习技术使用前置文本任务,并且近年来已经提出了许多前置文本任务。

但是,正如我在另一个答案(您引用的)中所说,SSL 一词已被使用(至少在机器人技术中:例如,请参阅我非常熟悉的这篇论文)来指代自动(虽然近似)为您的下游任务(即图像识别)标记未标记的数据集,即它们会自动创建一个标记的数据集对(xi,y^i), 在哪里xi是包含对象的图像,并且y^i是自动(并且可能近似)生成的标签(例如“狗”)。后一种使用术语 SSL 更接近于一些弱监督学习 (WSL)技术。实际上,它可以被认为是一种 WSL 技术。

现在,在这篇具体的论文中,他们实际上解决了某种前置任务,即他们利用两个不同传感器之间的关系来产生标签。

更直接地回答您的问题:在我遇到的所有 SSL 论文中,总是解决某种前置任务,即,您需要以某种方式自动生成监督信号,而我们解决的任务是自动生成的学习信号(目的是学习表示或生成标记的数据集)可以被认为是前置任务(可能与下游任务一致,例如,在您训练自动编码器的情况下)用于图像去噪的未标记数据集)。

无论如何,我不会为此烦恼太多。阅读论文时,请记住您的上下文。如果您真的担心,那么您可能应该阅读几乎所有与 SSL 相关的论文,但是,在这种情况下,到最后,您将成为该主题的专家,您将不需要我们的帮助(或我的帮助)。