BERT 只有在微调时才需要监督数据吗?

数据挖掘 机器学习 nlp 无监督学习 监督学习 伯特
2022-03-03 21:55:25

我读过很多文章和论文,提到在预训练BERT 模型时如何进行无监督训练。我想知道是否可以以无监督的方式微调 BERT 模型,还是必须始终对其进行监督

1个回答

有监督和无监督之间的区别在这里有点棘手。BERT 预训练对于下游任务是无监督的,但预训练本身在技术上是一个有监督的学习任务。BERT 被训练来预测在输入中被屏蔽的词,因此目标词在训练时是已知的。因此,无监督微调一词在这里有点令人困惑。

如果我们以一种聪明的方式使用 BERT(例如,使用一种称为iPET的方法),我们可以利用它的语言建模能力在(几乎)样本设置中执行一些任务,这基本上意味着 BERT 学会了在一种无人监督的方式但是,如果这可以称为无监督微调,这是有争议的。

BERT 当然可以通过持续的预训练以无监督的方式进行微调。它可以被视为模型的域适应方式,通常再次跟随有监督的微调。想象一下,你想对法律文本执行一项任务,因此你可以首先使用大量纯文本使 BERT 适应法律文本,然后使用更小的标记数据对其进行微调。