例如,如果判别器是 n 层的普通网络,每层有 n(i) 个单元,那么通常,生成器也将是 n 层的普通网络,每层有 n(ni) 个单元(除了鉴别器,其中 n(n) = 1,而生成器 n(0) = NOISE_SIZE)。
如果鉴别器是 CNN,则生成器通常是对称的“反卷积网络”,其中第 i 层是转置卷积层,与鉴别器的第 ni 层对称。
几乎我见过的所有实现都遵循这种模式,尽管我在理论上看不到任何东西为什么必须如此。然而,我有一个在 MNIST 上训练的数字绘图 GAN 的简单香草实现,效果相当好。我试图通过在不改变生成器的情况下使其成为 CNN(与我在识别 MNIST 数字方面表现良好的架构相同)来改进鉴别器。GAN 不再工作并收敛到生成器总是产生相同的乱码绘图的状态。直观地说,更好的鉴别器应该有助于 GAN,但事实并非如此。似乎在不同样改进生成器的情况下改进鉴别器是行不通的(反之亦然)。这就是人们总是选择对称架构的原因吗?为了保存一个“