关于 GAN的论文说判别器使用以下梯度进行训练:
值被采样,通过生成器生成数据样本,然后判别器使用生成的数据样本进行反向传播。一旦生成器生成数据,它就不再在鉴别器的训练中发挥作用。换句话说,生成器可以完全从度量中移除,方法是让它生成数据样本,然后只处理样本。
不过,我对如何训练生成器有点困惑。它使用以下渐变:
在这种情况下,鉴别器是度量的一部分。它不能像以前的情况一样被删除。常规判别模型中的最小二乘或对数似然之类的东西很容易区分,因为它们有一个很好的、紧密的定义。但是,当指标依赖于另一个神经网络时,我对如何反向传播感到有点困惑。您是否本质上将生成器的输出附加到鉴别器的输入,然后将整个事物视为一个巨大的网络,其中鉴别器部分的权重是恒定的?