在 LSTM 嵌入层中添加 BERT 嵌入

人工智能 深度学习 喀拉斯 词嵌入 长短期记忆 伯特
2021-10-30 05:08:39

我计划在 LSTM 嵌入层中使用 BERT 嵌入,而不是通常的 Word2vec/Glove 嵌入。有哪些可能的方法来做到这一点?

1个回答

Embedding()您可以创建一个新bertEmbedding()图层并改为使用它,而不是直接使用该图层。

# Sample code
# Model architecture

# Custom BERT layer
bert_output = BertLayer(n_fine_tune_layers=10)(bert_inputs)

# Build the rest of the classifier 
dense = tf.keras.layers.Dense(256, activation='relu')(bert_output)
pred = tf.keras.layers.Dense(1, activation='sigmoid')(dense)

model = tf.keras.models.Model(inputs=bert_inputs, outputs=pred)
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.fit(...)

本文将引导您完成创建自定义 BERT 层的整个过程以及示例代码。读一读。