具体来说,我想我想知道这个说法:
默认情况下,TensorFlow 的未来主要版本将允许梯度流入 backprop 上的标签输入。
当我使用tf.nn.softmax_cross_entropy_with_logits
. 在同一条消息中,它敦促我查看tf.nn.softmax_cross_entropy_with_logits_v2
. 我查看了文档,但它只指出tf.nn.softmax_cross_entropy_with_logits_v2
:
反向传播将同时发生在 logits 和标签中。要禁止反向传播到标签,请在将标签张量提供给此函数之前通过 stop_gradients 传递标签张量。
与tf.nn.softmax_cross_entropy_with_logits
's 相反:
反向传播只会发生在 logits 中。
作为这个主题的新手(我正在尝试通过一些基本教程),这些陈述不是很清楚。我对反向传播的理解很浅,但是前面的陈述实际上是什么意思?反向传播和标签是如何连接的?tf.nn.softmax_cross_entropy_with_logits_v2
与原版相比,这将如何改变我的工作方式?