WGAN论文具体提出了算法 1(参见第 8 页)。现在,他们还说明了评论家和生成器的损失是多少。
在实现critic loss时(算法1的第5行和第6行),它们最大化参数(而不是像通常那样最小化它们)通过编写. 他们的损失似乎是
功能是critic,即神经网络,在这个youtbe视频(参见11:00到12:26分钟)中,这个损失在PyTorch中实现的方式如下:
critic_real = critic(real_images)
critic_fake = critic(generator(noise))
loss_critic = -(torch.mean(critic_real) - torch.mean(critic_fake))
我的问题是:在我自己对CelebA 数据集的实验中,我发现评论家损失是负的,如果负面评论家损失更高而不是更低,图像的质量会更好,所以因为评论家损失比评论家损失产生更好的生成图像例如
Eq 的 youtube 视频中的实现是否有错误?(1)和WGAN论文的算法1可能吗?在我看来,视频中的实现是正确的,但是我仍然对为什么当损失更高时我得到更好的图像感到困惑......
干杯!