我读过一些关于手动设计图像以“欺骗”神经网络的论文(见下文)。
这是因为网络只对条件概率建模?
如果网络可以对联合概率建模,这样的情况还会发生吗?
我的猜测是这种人工生成的图像与训练数据不同,所以它们的概率很低. 因此即使应该很低这样的图像可能会很高。
更新
我尝试了一些生成模型,结果证明没有帮助,所以我想这可能是 MLE 的结果?
我的意思是在使用 KL 散度作为损失函数的情况下,在哪里小不影响损失。所以对于一个不匹配的人为图像, 的价值可以是任意的。
更新
我发现 Andrej Karpathy 的博客显示
这些结果并不特定于图像、ConvNet,它们也不是深度学习中的“缺陷”。