与其他神经网络(如 MLP 或 CNN)相比,我最近对 RNN/LSTM 在时间序列分析中的优势进行了一次精彩的讨论。
对方说:
NN 必须足够深以模拟时间连接
只是使用 RNN,因为它们更快
对于 RNN,较旧的(例如 t-20)时间点与较新的时间点(例如 t-1)相比并不那么相关,因为来自较旧时间点的数据必须经过所有神经元,直到该神经元中的权重更新。
与 RNN 相比,更容易理解普通 NN 的权重矩阵以部分理解 NN 的行为
我对此的回答是:
每个人都建议使用 LSTM 进行时间序列分析
与滑动窗口方法相比,它可以更好地考虑时间,特别是如果序列的长度很长
到 3. 如果你使用 vanilla RNN 而不是 LSTM,就会发生这种情况,因为梯度爆炸
所以我知道我没有完全回答他(也许不是正确的),我现在对大多数时候建议 LSTMS 的真正原因非常感兴趣。也许他是对的?你怎么认为?
- 正常的 NN 可以像 RNN/LSTM 那样对时间连接进行建模,只要它足够深吗?
- 与 NN 相比,RNN 是否需要更多或更少的数据才能获得
相同/更好的结果? - 是否存在正常 NN 或 RNN/LSTM 表现更好的时间序列?
- 是时间数据取决于哪个模型表现最好还是有一些指导方针?
- NN 的行为能比 RNN 的行为更容易理解吗?