在我们试图解决的时间序列问题上RNNs,输入通常具有形状然后我们将这个输入输入到循环层中。另一种方法是展平数据,以便形状为并为我们的时间序列任务使用全连接层。这显然是可行的,我们dense network也能够在不同的时间步长找到数据之间的依赖关系。那么是什么让循环层更强大呢?我将非常感谢直观的解释。
为什么循环层比简单的前馈网络工作得更好?
数据挖掘
机器学习
神经网络
深度学习
lstm
rnn
2022-02-27 22:52:12
1个回答
第一个原因是参数的数量。您提到的前一种情况,对于每个神经元,都应该有相应的条目来增加训练参数的数量。另一个原因是,通过使用简单的前馈神经元,您以某种方式丢弃了数据的时间信息,这意味着您丢弃了数据中的序列信息。这有点像通过卷积层获得的空间数据CNNs。
其它你可能感兴趣的问题