在实现自定义损失函数时如何使其对batch size. 例如,假设dice loss正在实施。的公式dice loss是:
这个公式没有说明如何处理batch size. 值得注意的是,根据这个公式,如果增加 ,则 的值loss会batch size增加。显而易见的直觉是loss使用batch size. 在这种情况下,我有两个问题。
loss规范化使用在理论上是否有效batch size?- 如何正常化?
- 例如,在图像的情况下
tensor,手头是4D。/可以为每个图像dice score和每个类计算得到如下所示的张量,其中loss2D没有。类和是batch size。
现在聚合loss可以计算为:
- 或者,我们可以从一开始就忽略并在 a 中
batch size生成每个类:loss1Dtensor
因此,归一化的聚合loss将是:
这两种方法有什么根本区别吗?哪一个是正确的(如果有的话)?
- GitHub相关讨论