在 tensorflow 的 tf.nn.softmax_cross_entropy_with_logits_v2 文档中,它是这样写的:
反向传播将同时发生在 logits 和标签中。要禁止反向传播到标签中,请在将标签张量提供给此函数之前通过 tf.stop_gradient 传递标签张量。
我不明白反向传播到标签是什么意思。我们如何计算标签的损失?
在 tensorflow 的 tf.nn.softmax_cross_entropy_with_logits_v2 文档中,它是这样写的:
反向传播将同时发生在 logits 和标签中。要禁止反向传播到标签中,请在将标签张量提供给此函数之前通过 tf.stop_gradient 传递标签张量。
我不明白反向传播到标签是什么意思。我们如何计算标签的损失?