Wasserstein GAN:Critic Loss 的实现对吗?

人工智能 文件 生成对抗网络 执行 瓦瑟斯坦甘
2021-11-12 08:29:54

WGAN论文具体提出了算法 1(参见第 8 页)。现在,他们还说明了评论家和生成器的损失是多少。

在实现critic loss时(算法1的第5行和第6行),它们最大化参数w(而不是像通常那样最小化它们)通过编写ww+αRMSProp(w,gw). 他们的损失似乎是

1mi=1mfw(x(i))1mi=1mfw(gθ(z(i))).(1)

功能f是critic,即神经网络,在这个youtbe视频(参见11:00到12:26分钟)中,这个损失在PyTorch中实现的方式如下:

critic_real = critic(real_images)

critic_fake = critic(generator(noise))

loss_critic = -(torch.mean(critic_real) - torch.mean(critic_fake))

我的问题是:在我自己对CelebA 数据集的实验中,我发现评论家损失是负的,如果负面评论家损失更高而不是更低,图像的质量会更好,所以0.75因为评论家损失比评论家损失产生更好的生成图像1.26例如

Eq 的 youtube 视频中的实现是否有错误?(1)和WGAN论文的算法1可能吗?在我看来,视频中的实现是正确的,但是我仍然对为什么当损失更高时我得到更好的图像感到困惑......

干杯!

0个回答
没有发现任何回复~