我熟悉 LSTM 单元(记忆单元、遗忘门、输出门等),但是我很难了解它如何与 Keras 中的 LSTM 实现联系起来。
在 Keras 中,X 的输入数据结构是:(nb_samples, timesteps, input_dim)。
假设 X 的形状为:(1000, timesteps = 10, 40)。
1)这是否意味着 LSTM 单元将只考虑 10 个先前时间步的“批次”?
2) 或者 LSTM 单元的输出是否在这些 10 个时间步的集合之间传递,即你能在 50 个时间步之外捕获长期依赖关系吗?