我正在阅读 Francois Chollet 的Deep learning with python,我遇到了一个关于最大池的部分,这真的给我带来了麻烦。
当他谈到“这个设置有什么问题?”时,我根本不明白他的意思。移除最大池化层如何“减少”我们正在查看的初始图像的数量?
我正在阅读 Francois Chollet 的Deep learning with python,我遇到了一个关于最大池的部分,这真的给我带来了麻烦。
当他谈到“这个设置有什么问题?”时,我根本不明白他的意思。移除最大池化层如何“减少”我们正在查看的初始图像的数量?
最大池化层对两件事很有用:
然而,它们的用处是有限的,并且开始被大步幅的卷积层所取代。你可以阅读这篇关于此事的文章。
实际上,最大池化创建了一个简写来总结每个卷积的响应图。如果我们有一个 2 x 2 步长为 2 的池化窗口,我们将响应图分成 2x2 部分并提出问题,总结这个小区域中发生的事情的最佳方法是什么?这样做有不同的选择,取最大值表示我们只看最强的反应。取平均值会考虑所有像素响应。你甚至可以取一个中位数,尽管从计算上讲存在一些问题。池化后,对所有各种卷积的响应进行了大量小总结。
每次进行池化时,都会降低问题的维数。请记住,您的最终目标是在表示原始输入特征的向量上创建分类器。如果你有一个非常大的向量,你正在处理一个非常高维的空间,这在计算上是昂贵的,以分离出集合。
另一个优点是构建更高级别的特征需要在比局部级别更多的像素之间找到关系。我们使用卷积的原因是因为在以某种方式连接的像素之间建立关系是有意义的,并且排除像素之间的远距离关系有助于减少问题的大小。当我们开始对摘要进行总结时,重复层的响应图和总结使我们能够从更大的领域得出结论。池化后的 2 x 2 区域实际上包含来自原始图像的 4 x 4 区域的信息,并且这与层数成倍增长。如果我们只是在没有池化的情况下进行卷积,我们就无法超越初始区域,因为没有进行总结。
第三,我们正在尝试在权重空间上优化成本函数——在有和没有池化层和全连接层的情况下尝试不同级别的卷积,您将看到权重的数量如何随着我们增加网络。即使使用卷积,我们也需要池化,但是对于这是否对最终目标有害存在一些争论。Geoff Hinton 说 CNN 丢失了太多的空间信息——当我们总结时,我们并不关心最大响应的像素来自哪里。重复的层使得信息的来源非常混乱。它无法分辨真人照片和毕加索人像之间的区别。他提出了胶囊网络,但据我所知,与 CNN 相比,它们并没有取得任何显着的成功。