将文本和数字特征结合到预训练的 Transformer BERT 中

数据挖掘 nlp 火炬 伯特 微调
2022-03-07 02:13:19

我有一个包含 3 列的数据集:

  1. 文本
  2. 元数据(打算从中提取特征,然后使用那些,即数字特征)
  3. 目标标签

问题 1:如何在文本之外使用预训练的 BERT 实例?

一种理论解决方案建议让 BERT 输入文本和另一个神经网络,并将数值特征输入到这个网络中,然后将它们的输出聚合到另一个神经网络中。

  • 这是最有效的方法吗?

问题 2:如何连接神经网络?

  • 你得到每个的输出,但是然后呢?

  • 你从 BERT 得到分类输出,你从 MLP 得到基于数值特征的分类输出。

  • 您将这些连接起来并将它们提供给另一个 MLP,然后您得到最终的预测?最后的预测不会不那么可靠吗?

  • 换句话说,最后一个 MLP 是否封装了其他 2 个网络?

  • 如果是这样,如果 BERT 预测 90%,但第一个 MLP 只有 50%,会发生什么情况,我们会得到更小的结果吗?

问题 3:关于如何在 pytorch 中实现此功能的任何提示?

1个回答

当他们谈论聚合他们的输出时,他们指的是最终的嵌入(就在分类层之前),而不是网络本身的输出。

您从两个网络中获取嵌入并将它们垂直连接起来。您使用这种串联嵌入来预测您想要的最终输出。

Torch 具有torch.cat用于此目的的功能。