当我实际上想提高 Precision 时,为什么要降低 F-beta 提名者中的 Precision?

机器算法验证 模型评估 精确召回
2022-03-25 04:06:03

F-beta 分数的计算公式如下:

Fβ=(1+β2)PRβ2P+R

但是,根据一些消息来源,如果我想对 Precision 添加更多的重点,我应该使用beta < 1,并且作为补充,如果我想对 Precision 添加比 Recall更少的重点,我应该使用beta > 1这在某种程度上似乎与我的目的相反;当我实际上想在计算中为 Precision 分配更多权重时,为什么要降低分母中的 beta?

*奖励问题:无论哪种方式,答案都是针对上述问题,如果我想为 Precision 和 Recall 分配不同的权重,是否有任何特定的公式来定义 beta?也许与假阴性和假阳性的成本差异成正比?或者只是简单地使用 beta=0.5 和 beta=2 作为经验法则?

1个回答

通过设置β0我们实际上得到了“精确度”,这是因为召回乘数相互抵消,我们只剩下精确度。通过使用较低的β我们不会以任何方式降低精度的权重,我们会提高权重,因为我们允许它通过分子支配分数的最终值。

如果我们已经知道 FP/FP 的成本,我们可以直接使用它们。β它本身反映了我们在召回和精确度之间的权衡β=RecallPrecision; 因此的值0.52仅仅反映我们假设:“我们对 Precision 的重视是 Recall 的两倍”(对于β=0.5)或“我们对召回率的重视程度是精度的两倍”(对于β=2)。显然,如果我们同等重视它们β=1我们得到了我们的标准F1分数。

Sasaki (2007) F-measure 的真相以一种正式的方式很好地呈现了这个讨论,它坚定地基于 van Rijsbergen 1979 年关于信息检索的原始工作。