有人可以帮我理解 Nvidia 渐进式 GAN 论文中的这一段吗?

人工智能 深度学习 训练 生成对抗网络 生成模型
2021-10-24 21:17:20

此外,我们观察到传统上困扰 GAN 的模式崩溃往往会在十几个小批量的过程中很快发生。通常,它们在鉴别器过冲时开始,导致夸大的梯度,并且在两个网络中的信号幅度升级时会出现不健康的竞争。我们提出了一种机制来阻止生成器参与这种升级,从而克服了这个问题(第 4.2 节)。

当鉴别器过冲时,它们是什么意思?鉴别器变好太快了?两个网络中的信号幅度都在升级?

我目前的直觉是判别器太快变得太好了,这导致生成器出现尖峰并试图追赶。那将是他们正在谈论的不健康的竞争。模型崩溃是生成器难以追赶并决定通过生成略微变化的图像来提高其准确性来确保其安全的副作用。这种解释上述段落的方式是否正确?

3个回答

判别器过冲可能会导致数据集没有彻底清洁,并且可能具有太多相同的特征,因此判别器会出现早期收敛,因为几乎没有变化。这样做的缺点是模型不能很好地泛化。

是的,你的直觉是正确的。这个问题的影响是生成器不能再改进它的输出来稍微欺骗鉴别器——鉴别器没有购买任何生成的输出。在这种情况下,生成器会陷入局部最小值,通常会产生无意义的结果。

我认为你的直觉并不完全正确。在训练开始时,判别器可能会过冲。因此,它会导致反向传播信号的升级。