我正在训练 Bert 进行问答(西班牙语),我有一个很大的上下文,只有上下文超过 512,总问题 + 上下文是 10k,我发现 longformer 就像长文档一样,但是没有西班牙语预训练那么,有什么想法绕过bert。
我尝试的是:
from transformers import BertConfig
config=BertConfig.from_pretrained(BERT_MODEL_PATH)
config.max_length=4000
config.max_position_embeddings=4000
config.output_hidden_states=True
model = MyBertModel(config)
但仍然给我一个错误不匹配
RuntimeError:为 BertModel 加载 state_dict 时出错:bert.embeddings.position_embeddings.weight 的大小不匹配:从检查点复制形状为 torch.Size([512, 768]) 的参数,当前模型中的形状为 torch.Size ([4000, 768])。