背景:我试图了解变分自动编码器作为生成器的使用。我的理解:
- 在训练期间,对于一个输入点我们想学习潜在的和然后采样并将其馈送到解码器以进行重建.
- 但是我们不能用采样算子做反向传播,所以我们重新参数化并使用在哪里. 我们的重建变成.
但是,当我们完成训练并准备将其用作生成器时,我们会采样并将其提供给解码器:.
让我困惑的部分是,在训练期间,解码操作是使用据我了解,这是使用与不同和对于每个训练示例。然而,在生成期间,解码操作(有效地)在独自从. 我们为什么要设置和在生成期间(即使用)?
背景:我试图了解变分自动编码器作为生成器的使用。我的理解:
但是,当我们完成训练并准备将其用作生成器时,我们会采样并将其提供给解码器:.
让我困惑的部分是,在训练期间,解码操作是使用据我了解,这是使用与不同和对于每个训练示例。然而,在生成期间,解码操作(有效地)在独自从. 我们为什么要设置和在生成期间(即使用)?
训练时,我们在画,然后用解码.
在生成期间,我们正在绘制,然后解码.
所以这回答了你的问题:在生成过程中,我们希望从潜在代码的先验分布中生成样本,而在训练期间,我们正在从后验分布中抽取样本,因为我们正在尝试重建特定的数据点。