完全卷积网络是否共享我们从使用最大池的网络中获得的相同平移不变性属性?
如果不是,为什么它们的性能与使用最大池的网络一样好?
完全卷积网络是否共享我们从使用最大池的网络中获得的相同平移不变性属性?
如果不是,为什么它们的性能与使用最大池的网络一样好?
神经网络对翻译不是不变的,而是等变的,
假设我们有输入和输出空间之间的一些地图和. 我们应用转型在输入域中。对于一般地图,输出会以一些复杂且不可预测的方式发生变化。然而,对于某些类别的地图,输出的变化变得非常容易处理。
不变性意味着应用地图后输出不会改变. 即:
对于地图的 CNN 示例,翻译不变的是GlobalPooling操作。
等方差意味着对称变换在输入域上导致对称变换在输出上。这里可以是同一张地图, 恒等映射 - 简化为不变性或其他某种变换。
这张图片是平移等变的说明。
stride=1
:
stride=1
与,的卷积Pooling
(非全局):
GlobalPooling
:
堆叠多个等变层,您可以获得一个整体的等变架构。
对于分类层,将其放在最后是有意义GlobalPooling
的,以便 NN 为移位图像输出相同的概率。
对于分割或检测问题架构应该与相同的地图等变,以便将边界框或分割掩码平移与输入上的变换相同的量。
非全局下采样操作通过平移整数倍的步幅来减少对子组的等方差。
所有卷积网络(有或没有最大池化)都是平移不变的(AKA 空间不变),因为它们的滤波器在图像中的每个位置上滑动。这意味着,如果图像中的任何地方都存在“匹配”过滤器的模式,那么至少应该激活一个神经元。
另一方面,最大池化与空间不变性无关。它只是一种正则化技术,通过缩小网络中的激活层来帮助减少网络中的参数数量。这可以帮助对抗过度拟合,尽管这不是绝对必要的。或者,神经网络可以通过使用步长为 2 而不是 1 的卷积层来实现相同的效果。