TensorFlow 的softmax_cross_entropy_with_logits文档:
测量类别互斥(每个条目恰好属于一个类别)的离散分类任务中的概率误差。例如,每张 CIFAR-10 图像都标有一个且只有一个标签:图像可以是狗或卡车,但不能同时是两者。
注意:虽然类是互斥的,但它们的概率不一定是互斥的。所需要的只是每一行标签都是一个有效的概率分布。如果不是,则梯度的计算将不正确。
乍一看它可能看起来是矛盾的,但我的猜测是,为类和标签提供这些条件,标签的概率分布总是有一个最大值。例如,labels = [0.5 0.5] 是二进制情况下的有效概率分布,但它不符合类的排他性。如果我错了,我不明白文档背后的想法。
还指出,对于相互难以捉摸的概率,应该使用sparse_categorical_cross_entropy ,但我认为如果标签是 one-hot 编码的,则可以使用softmax_cross_entropy_with_logits,这是一个有效的概率分布(确定性的)
编辑:
再次解决这个问题时,我想知道在多类排他情况下,标签的唯一约束是它们必须是有效的概率分布,标签 = [0.5 0.5] 是否应该是有效的实例标签。这个标签意味着注释器和网络都可以判断这个真实实例是属于 class_0 还是 class_1...