我有一个包含 3 列的数据集:
- 文本
- 元数据(打算从中提取特征,然后使用那些,即数字特征)
- 目标标签
问题 1:如何在文本之外使用预训练的 BERT 实例?
一种理论解决方案建议让 BERT 输入文本和另一个神经网络,并将数值特征输入到这个网络中,然后将它们的输出聚合到另一个神经网络中。
- 这是最有效的方法吗?
问题 2:如何连接神经网络?
你得到每个的输出,但是然后呢?
你从 BERT 得到分类输出,你从 MLP 得到基于数值特征的分类输出。
您将这些连接起来并将它们提供给另一个 MLP,然后您得到最终的预测?最后的预测不会不那么可靠吗?
换句话说,最后一个 MLP 是否封装了其他 2 个网络?
如果是这样,如果 BERT 预测 90%,但第一个 MLP 只有 50%,会发生什么情况,我们会得到更小的结果吗?
问题 3:关于如何在 pytorch 中实现此功能的任何提示?