我正在阅读论文Deep Residual Learning for Image Recognition,我很难 100% 确定地理解残差块在计算上的含义。阅读他们的论文,他们有图 2:
这说明了残差块应该是什么。残差块的计算是否与以下内容相同:
或者是别的什么?
换句话说,也许要尝试匹配论文的符号,是:
真的吗?
请注意,在圆圈求和之后,ReLU 这个词出现在纸上,所以一个 Residual Block 的输出(我表示为) 应该:
具有额外的 ReLU 非线性.
我正在阅读论文Deep Residual Learning for Image Recognition,我很难 100% 确定地理解残差块在计算上的含义。阅读他们的论文,他们有图 2:
这说明了残差块应该是什么。残差块的计算是否与以下内容相同:
或者是别的什么?
换句话说,也许要尝试匹配论文的符号,是:
真的吗?
请注意,在圆圈求和之后,ReLU 这个词出现在纸上,所以一个 Residual Block 的输出(我表示为) 应该:
具有额外的 ReLU 非线性.
是的,这是真的,你可以看看他们的caffe 模型,看看它是如何实现的。