我一直想知道残差块实际上做了什么以及为什么它们是深度卷积网络的必要条件。具体来说,为什么它们在某些生成器网络中如此有用?为了更好地提取特征?我想对这个概念有一个直觉,但在网上找不到可以理解的解释。
块末尾的总和是什么意思?它显示跳过块,但最后它还是单独添加它?x 和 F(x) 在这种情况下真正代表什么?F(x) 是给定输入的图像特征,x 是输入吗?
对我来说,它看起来像是用于特征检测/识别,因为它单独添加单独计算的子结果的方式,但我可能是错的。而且这种方式对我来说也不完全有意义,因为这种特殊方法如何帮助实现这一目标?这是一个重申的原则 - 网络单独计算一些特征,并通过这些手段确定某个纹理是它的本质而不是其他的东西(到处都是更少的错误)?但是然后 - 为什么不把这个也用于鉴别器呢?它从根本上需要同样的技术,不是吗?
仅仅是生成器需要比鉴别器改进更多吗?换句话说——如果鉴别器有这些块,它将开始只对输入图像的精确副本进行分类,而生成器永远不会愚弄鉴别器?但是然后 - 无论如何这有什么重要性 - 生成器无论如何都会在图像生成方面做得一样好。