我正在阅读有关逐层相关性传播方法的文章,但我无法理解这个特定的段落
LRP 是一种保守的技术,这意味着任何输出 y 的大小通过反向传播过程保持不变,并且等于输入层的相关图 R 的总和。该属性适用于任何连续的层 j 和 k,并且通过输入和输出层的传递性。
这甚至意味着什么?我无法理解作者想要表达的意思。我了解什么是反向传播,但不了解与反向传播有关的内容!
我正在阅读有关逐层相关性传播方法的文章,但我无法理解这个特定的段落
LRP 是一种保守的技术,这意味着任何输出 y 的大小通过反向传播过程保持不变,并且等于输入层的相关图 R 的总和。该属性适用于任何连续的层 j 和 k,并且通过输入和输出层的传递性。
这甚至意味着什么?我无法理解作者想要表达的意思。我了解什么是反向传播,但不了解与反向传播有关的内容!
在这种分层图结构中,相关性守恒性质可以表述如下: 设 j 和 k 是两个连续层的神经元的索引。令 Rk 为神经元 k 与预测 f(x) 的相关性。我们将 Rj←k 定义为重新分配给下层神经元 j 的 Rk 份额。该神经元的守恒性质强加
∑j R j←k = Rk。同样,较低层的神经元聚合来自较高层神经元的所有相关性:了解 Grégoire Montavon 的深度神经网络以获取更多详细信息
答案就在您的问题本身之内。Conservation 是指被保存下来的东西。这里通过反向传播过程,输出是守恒的。并且输出是所有中间神经元/像素的总和,这些神经元/像素有助于确定特定输入向量中的哪个特征对神经网络的输出贡献最大。
希望对你有帮助。。谢谢。。