这特定于 A. Makhzani 等人提出的生成对抗网络 (GAN)。“对抗性自动编码器”。在传统的 GAN 中,判别器被训练来区分真实样本来自生成器输出的假生成样本。另一方面,变分自编码器对潜在代码使用鉴别器而不是原始样本。
我无法理解的是鉴别器如何能够区分潜在代码的先验分布和后验分布. 判别器模型试图区分非样本的原因是什么,就像在传统的 GAN 中一样?这个鉴别器应该在自动编码器的其余部分之前训练吗?
这特定于 A. Makhzani 等人提出的生成对抗网络 (GAN)。“对抗性自动编码器”。在传统的 GAN 中,判别器被训练来区分真实样本来自生成器输出的假生成样本。另一方面,变分自编码器对潜在代码使用鉴别器而不是原始样本。
我无法理解的是鉴别器如何能够区分潜在代码的先验分布和后验分布. 判别器模型试图区分非样本的原因是什么,就像在传统的 GAN 中一样?这个鉴别器应该在自动编码器的其余部分之前训练吗?
事先分配的目的在任何生成对抗网络中都是能够平滑匹配潜在代码在输入的已知分布中在域中,反之亦然。一个简单的自动编码器的编码器,除了典型的流水线之外没有任何额外的措施
然而,在对抗性自动编码器 (AAE) 中,编码器的工作是双重的:它将输入编码为到相应的代码以便:
后一项任务得到有效执行,因为鉴别器收到:
即使鉴别器一开始可能对这两个分布中的任何一个都不了解,也只是在它知道之前进行足够的迭代。理想的编码器将设法欺骗鉴别器,使其在鉴别过程中具有大约 50% 的准确度。
另请注意可能不仅仅是高斯或均匀分布(例如,某种噪声)。引用 Goodfellow 的深度学习一书(第 20 章):
在开发生成模型时,我们经常希望扩展神经网络以实现. 一种直接的方法是用额外的输入来增强神经网络从一些简单的概率分布中采样,例如均匀分布或高斯分布。然后神经网络可以继续在内部执行确定性计算,但是函数对于无法访问的观察者来说,这将是随机的.
尽管去噪自编码器依靠这方面来学习忽略样本噪声的模型,但关于 AAE 的同一篇论文(第 2.3 节)表明,将噪声与类的单热编码向量相结合可用于合并有关样本的标签信息. 此信息仅提供给鉴别器,但仍会影响编码器的生成方式.