我有一个关于预训练部分(特别是蒙面语言模型)的问题。
在示例中,让我们在这个短剧中坚持即兴创作,通过掩盖单词improvisation,在应用 BERT(之后是 FFNN 和 Softmax)之后,通过查看每个可能的英语单词的概率,我们能够正确预测蒙面词是即兴创作。
是否可以通过使用我自己的示例来实际使用它?我想知道我是否可以输入不同语言的句子(来自多语言模型),并有一个排序列表,其中包含在原始句子中被屏蔽的最可能单词。如果可能,需要调整什么?
任何帮助将不胜感激。
我有一个关于预训练部分(特别是蒙面语言模型)的问题。
在示例中,让我们在这个短剧中坚持即兴创作,通过掩盖单词improvisation,在应用 BERT(之后是 FFNN 和 Softmax)之后,通过查看每个可能的英语单词的概率,我们能够正确预测蒙面词是即兴创作。
是否可以通过使用我自己的示例来实际使用它?我想知道我是否可以输入不同语言的句子(来自多语言模型),并有一个排序列表,其中包含在原始句子中被屏蔽的最可能单词。如果可能,需要调整什么?
任何帮助将不胜感激。
pip install transformers
然后试试这个
from transformers import pipeline
nlp = pipeline("fill-mask", model="bert-base")
nlp(f"This is the best thing I've {nlp.tokenizer.mask_token} in my life.")
您可以model='bert-base-uncased'
使用transformers.pipeline
:
pip install transformers
from transformers import pipeline
unmasker = pipeline('fill-mask', model='bert-base-uncased')
unmasker("a [MASK] in the watergate saga")
这适用于我在 Google Colab 上。