我希望训练两个特定领域的模型:
- 领域 1:宪法和相关法律文件
- 领域 2:技术和相关文件。
对于域 1,我可以访问包含来自宪法的文本且没有问题-上下文-答案元组的文本语料库。对于域 2,我可以访问问答对。
是否可以仅使用上述数据来微调用于问答的轻量级 BERT 模型?
如果有,完成这项任务的资源是什么?
来自拥抱脸/模型库的一些示例是 mrm8488/bert-tiny-5-finetuned-squadv2、sshleifer/tiny-distilbert-base-cased-distilled-squad、/twmkn9/albert-base-v2-squad2。