在训练 GAN 时,生成器努力愚弄鉴别器, 尽管尝试捕获生成的任何输出并将其与真实数据点隔离。他们一起成长,每个时代轮流训练。
假设已经是专家分类器(例如,对鸟类和非鸟类图像进行分类)。如果我冻结重量会发生什么并且只训练(例如,从低分辨率图像生成高分辨率鸟类图像)?这里有数学问题吗?是太好了以至于生成器由于初始错误非常高而无法学习?我显然已经模拟了它并且失败了。
在训练 GAN 时,生成器努力愚弄鉴别器, 尽管尝试捕获生成的任何输出并将其与真实数据点隔离。他们一起成长,每个时代轮流训练。
假设已经是专家分类器(例如,对鸟类和非鸟类图像进行分类)。如果我冻结重量会发生什么并且只训练(例如,从低分辨率图像生成高分辨率鸟类图像)?这里有数学问题吗?是太好了以至于生成器由于初始错误非常高而无法学习?我显然已经模拟了它并且失败了。
生成器无法学习判别器误差是否太小。但是生成器应该始终“领先于”生成器以便学习。
有一篇论文解释了如果鉴别器变得太强,为什么生成器的梯度会消失。这个比例在数学上看起来是怎样的?
TL;DR不要让它太强,但要确保 D 领先以确保最佳学习。GANS 是出了名的不稳定(也很昂贵)