GAN 的对抗性损失函数和训练算法对我来说或多或少是直观的,但我觉得我并不完全了解生成器的领域。具体来说,原始论文中的以下行(Generative Adversarial Nets, Goodfellow et al. 2014)
为了学习生成器在数据,我们定义了输入噪声变量的先验,然后将到数据空间的映射表示为,其中是由多层感知器表示的可微函数带参数。
这是训练算法的第一步:
- 来自噪声先验的个噪声样本
我不确定我对概率分布和随机抽样的理解是否足以理解这部分。有人可以解释发生了什么吗?似乎每个人都跳过了 GAN 算法的一开始(给定随机向量 Z,做一些事情),只谈论对抗性损失。
生成器是从一开始分配的概率分布中采样,还是只是在每次迭代时生成的随机数向量上