在 CNN 中使用池化层有什么影响?

人工智能 神经网络 卷积神经网络 汇集
2021-11-13 16:02:11

我知道池化是如何工作的,以及它对输入维度有什么影响——但我不确定为什么首先要这样做。如果有人能提供一些直觉,那就太好了 - 同时解释博客的以下摘录:

输出特征图的一个问题是它们对输入中特征的位置很敏感。解决这种敏感性的一种方法是对特征图进行下采样。这具有使生成的下采样特征图对图像中特征位置的变化更加鲁棒的效果,这被技术短语“局部平移不变性”所指。

这里的本地翻译不变性是什么?

2个回答

池化有多重好处

  • 强大的特征检测。
  • 使更深的 CNN 在计算上可行

强大的特征检测

考虑一下最大池(最流行的)来理解这一点。考虑一层中的 2*2 框/单元,该层仅映射到下一层中的 1 框/单元(基本上是池化)。假设特征图(内核)检测到花瓣。然后,如果前一层的 4 个单元中的任何一个被触发,则对花瓣进行限定,从而使检测对噪声具有鲁棒性。没有严格的要求必须发射所有 4 个单元来检测花瓣。因此,下一层(池化后)捕获具有噪声不变性的特征。我们也可以说它是局部平移不变性(在紧密的空间意义上),因为移位的特征也将被捕获。但也要记住翻译不变性通常首先通过与内核的卷积来捕获。(查看 1 个内核如何与整个图像进行卷积)

计算优势

图像分类中输入的维度非常巨大,即使只有很少的层,乘法运算的数量也可以达到数十亿。输出层池化减少了下一层的输入维度,从而节省了计算量。但现在也可以瞄准具有与以前相同复杂性的真正深度网络(层数)。

此外,一般来说,它在检测中有些帮助,因为只有最强的特征特征过滤器被激活,所以在某种意义上它会删除额外的信息。

但它显然有缺点,导致检测到的特征组合不是实际的对象。