我了解卷积过滤器(或内核)的目的。我将它们可视化为可学习的特征提取器。例如提取垂直边缘或水平边缘等。
有人可以向我解释堆叠 2 个或更多连续卷积滤波器背后的直觉吗?为什么不能将 2 个过滤器合并为 1 个?
图片来自吴恩达的视频
视频网址
这是 Andrew Ng 的机器学习讲座的链接作为参考
我了解卷积过滤器(或内核)的目的。我将它们可视化为可学习的特征提取器。例如提取垂直边缘或水平边缘等。
有人可以向我解释堆叠 2 个或更多连续卷积滤波器背后的直觉吗?为什么不能将 2 个过滤器合并为 1 个?
图片来自吴恩达的视频
视频网址
这是 Andrew Ng 的机器学习讲座的链接作为参考
有人可以向我解释堆叠 2 个或更多连续卷积滤波器背后的直觉吗?为什么不能将 2 个过滤器合并为 1 个?
不,当有两个连续的卷积层时不能合并为一个。后续过滤器的输入是从前一个过滤器中提取的特征。这导致第二层的特征比前一层更高。
这是整个CNN的基础。沿着网络的深度堆叠多个卷积层,允许网络从输入图像中提取高级特征(不仅仅是边缘和角落)。
编辑。
CNN 的第一个卷积层本质上是一个标准的图像过滤器(+一个 ReLU)。它的目标是获取原始图像并从中提取基本特征(例如边缘、角落)。这些被称为低级特征。
第二个卷积层,而不是原始图像,接受第一个卷积层提取的特征作为其输入。这使它能够将这些基本形状组合成更复杂的特征。
随着网络的深入,提取的特征变得越来越复杂。靠近网络中间的层提取所谓的中级特征,而最后一层提取高级特征。
CNN 是强大的工具,因为它经过训练可以为每个任务提取最佳特征。这导致网络为不同的任务提取不同的特征。
例如,请看下图:

虽然每个任务的低级特征是相同的,但中级和高级特征却大不相同。例如,对于第一个识别人脸的 CNN:
基本上,您可以在一层中有多个卷积模块。它被称为分组并在AlexNet. 在这种情况下,输入是相同的,所有卷积模块的输出应该在通过输入后连接起来。
我从链接中引用了在 conv 网络中分组的好处。
群卷积为讨论许多涉及概率的情况提供了优雅的语言……群卷积自然地扩展了卷积神经网络,所有的东西都非常好地结合在一起。由于卷积神经网络是目前机器学习中最强大的工具之一,这很有趣……
关于堆叠,提供的答案就足够了。
形式上来说:2层不能叠成一层,因为它们之间存在非线性关系。
一般来说,CNN的结构是 . 您无法将其转换为单层,除非是线性函数,在这种情况下 CNN 可能不是很好。
并且添加了非线性来提取特征,抑制无用的特征等,这可能不是很好理解。但是,如果您想更好地了解 CNN 中非线性的使用,我仍然建议您查看这个出色的答案: