深度神经网络二元分类器的非对称成本函数

数据挖掘 分类 深度学习 监督学习 损失函数 成本函数
2022-03-10 08:52:42

我正在构建一个基于深度神经网络的二进制分类器,具有单一输出。我实际上想要最小化的损失函数是

L(y^,y)={0,if y^ = 01,if y^ = 1 & y = 0γ0.7,if y^ = 1 & y = 1
在哪里y{0;1}是样品的标签,y^{0;1}- 分类器的输出和γ- 超参数。我认为这是一个不对称损失的案例。(可以看成是下注:不下注无奖励,下注1美元,下注1.7美元

据我目前所知,这个损失函数可能不太适合反向传播和梯度下降。:有没有更合适的配方?

经常使用的交叉熵损失不允许在精度和召回之间进行权衡调整。LINEX 和 LINLIN 在设计上是不对称的,但我找不到用它们训练的深度神经网络的例子。另一种方法可能是保留损失函数并使用SPSA,但如果可能的话,我想保持简单。

编辑:我想出了

L(y^,y)=(γy^)y(y^)1y
目前,我不知道它是否适用于 NN 学习。我担心(可能是不必要的),如果没有对数,关于 NN 权重它不是凸的。(最后一层有 sigmoid 激活。)这是为了比较而显示的 log loss。
L(y^,y)=(ylogy^+(1y)log(1y^))=log[y^y(1y^)1y]

1个回答

而不是 0 使用 0.1 或其他一些小的非零值。使用真正的 y 作为指示函数,将您的类别概率乘以您的奖励分量,并对所有可能性的项求和以获得可用损失,如下所示:

Loss(y,yp)=(1y)(1)(yp)+(y)(0.7)(yp)+(0.1)(1yp)

在哪里yp=P(y^=1|X)

其它你可能感兴趣的问题