Retina-net 的焦点损失是否实现了它的目标?

人工智能 神经网络 计算机视觉 优化 梯度下降 物体检测
2021-11-18 01:20:20

取出加权因子,我们可以将焦点损失定义为

FL(p)=(1p)γlog(p)

在哪里p是目标概率。这个想法是单阶段目标检测器在前景和背景之间存在巨大的类别不平衡(几个数量级的差异),与正常交叉熵相比,这种损失将缩小所有正分类的结果(CE(p)=log(p)) 以便优化可以专注于其余部分。

另一方面,一般的优化方案使用梯度来寻找下降最陡的方向。存在适应、动量等的方法,但这是一般要点。

θθηθL

焦点损失梯度如下

FL˙(p)=p˙[γ(1p)γ1log(p)(1p)γp]
与正常的交叉熵损失相比
CE˙(p)=p˙p

所以我们现在可以将这些重写为

FL˙(p)=(1p)γCE˙(p)+γp˙(1p)γ1log(p)

第一项,鉴于我们的优化方案将做我们(和视网膜论文的作者)想要的,它缩小了已经分类好的标签的效果,但第二项在参数空间中的解释性稍差,可能会导致一个不想要的结果。所以我的问题是为什么不删除它而只使用渐变

L˙=(1p)γCE˙(p)

其中给出了一个γN产生损失函数

L(p)=log(p)i=1γ(γi)(p)ii

总结:在像焦点损失这样的情况下,我们让损失自适应而不是梯度是有原因的吗?第二个术语是否增加了一些有用的东西?

0个回答
没有发现任何回复~