的作用是什么W一个_,W一个_,W是的Wax,Waa,Way在RNN中的前向传播?它们是超参数吗?为什么需要它们?

数据挖掘 神经网络 lstm rnn
2022-03-10 10:34:42

在 Coursera 序列模型课程的 RNN 介绍中,介绍了 RNN 中前向传播的以下公式。的作用到底是什么他们在做什么?Wax,Waa,Way

在讲座中,有人说:

  • Wax:控制从到隐藏层的连接的参数(不确定这到底是什么意思:如果它不受控制会发生什么?)x

  • Waa:管理激活(为什么要管理激活?如果没有管理会发生什么?)

  • Way控制输出预测(控制它的意义何在?如果它不受控制会发生什么?)

在此处输入图像描述

在标准神经网络中,这些是前向传播的公式

z1=w1X1+b1A1=g(Z1)
考虑只有 4 层然后最后一层 我能将这些方程与 相关联,但我无法将 中以黄色突出显示的 角色相关联。请用非常简单的术语解释标准 RNN 中在前向传递中的工作是什么。
z4=w4X4+b4A4 or y^=g(z4)
a<1>Wyay^<1>Wax,Waa,Way

2个回答

不要在这里挂断“治理”这个词。Wax,WayWaa只是权重,原则上它们在前馈网络中扮演相同的角色(除了前馈网络没有Waa):

  • Wax是从输入层到第一个隐藏层的权重(就像它们在前馈网络中一样)
  • Way是从最后一个隐藏层到输出层的权重(就像它们在前馈网络中一样)
  • Waa是从隐藏状态馈送时应用于隐藏状态的权重tt+1(这是您在前馈网络中没有的,因为它们不会随时间传播)

您还可以在深度学习书的相应章节中阅读更多相关信息,我认为这对 RNN 提供了很好的解释。

编辑(根据您的评论):

在前馈网络中,您将拥有y^=g(Way a+by)而你的 RNN 有y^<i>=g(Way a<i>+by)(和i作为时间步长的索引)。关于 RNN 中的输出层,这里真的没有什么新东西。在下图中,您可以看到权重应用于前馈网络和 RNN 中的哪些连接(为简单起见,我省略了偏差):

在此处输入图像描述

路在哪里?

在此处输入图像描述

@Sammy 下面是我在评论中提到的 2 张图片,因为我们的目标是找到 y,所以我无法找到 yhat =Way+b,Way(weights * y) 如何进入图片以预测 Y?