假设我有一个可以识别猫和狗的模型。然而,当我使用杯子或人类的图片时,它会生成一个置信度为 0.70 的随机预测。我应该使用 sigmoid 代替 softmax 吗?
或者是否有任何解决方法可以防止对新类对象产生巨大的信心?
我实际上并没有解决这个问题,但这里有一些资源:
AI.se 问题 - 为什么不教 NN 不仅什么是真实的,什么是不真实的?
如何让神经网络说“不知道”?(也许尝试通过ResearchGate请求全文)
博客文章——让你的神经网络说“我不知道”——使用 Pyro 和 PyTorch 的贝叶斯神经网络
编辑:我刚刚在 DS.se 上发现了以下问题:
多类+负类图像分类策略
微调 CNN 以识别两个类,但也能够判断图像中是否不存在它们