所以我正在关注 Tensorflow 的LSTM/时间序列教程,但有些东西我不明白。我确实理解开/关会发生什么return_sequences
,但是,据说,return_sequences
在你允许的情况下
同时在多个时间步上训练模型
我不太明白这是什么意思。如果保持关闭,输入将经过所有先前的时间步长,并进行预测。你的损失将是这个预测与实际的误差。你仍然在所有时间步上训练,对吧(虽然我猜不是同时?)。
现在,如果它打开,它会在每个时间步上进行预测——在这种情况下,损失是什么?它是序列中每个预测的平均误差吗?为什么最好打开return_sequences
,就像教程中所做的那样?在这种情况下,模型学习得更多还是更快?它如何影响学习?
还指出,
使用
return_sequences=True
该模型可以一次对 24 小时的数据进行训练。
不还是这样return_sequences=False
吗?在示例中,他们仍在教模型根据前 24 个时间步预测 1 个时间步。