在Kerasreturn_sequences=True网站上的示例中,第 189 行的seq2seq_translate.py有一个接一个的 LSTM 层(第一个带有编码器。我的代码如下所示:
encoder = LSTM(latent_dim, return_sequences=True)(encoder_inputs)
encoder_outputs, state_h, state_c = LSTM(latent_dim, return_state=True)(encoder)
我的问题是为什么逐字版本使用两个 LSTM 层?为什么使用 return_sequences?