在卷积神经网络中使用 2 个连续卷积滤波器背后的直觉是什么?

数据挖掘 机器学习 神经网络 深度学习 美国有线电视新闻网 特征提取
2021-10-12 03:10:29

我了解卷积过滤器(或内核)的目的。我将它们可视化为可学习的特征提取器。例如提取垂直边缘或水平边缘等。

在此处输入图像描述

有人可以向我解释堆叠 2 个或更多连续卷积滤波器背后的直觉吗?为什么不能将 2 个过滤器合并为 1 个?

图片来自吴恩达的视频

在此处输入图像描述

视频网址

是 Andrew Ng 的机器学习讲座的链接作为参考

3个回答

有人可以向我解释堆叠 2 个或更多连续卷积滤波器背后的直觉吗?为什么不能将 2 个过滤器合并为 1 个?

不,当有两个连续的卷积层时不能合并为一个。后续过滤器的输入是从前一个过滤器中提取的特征。这导致第二层的特征比前一层更高

这是整个CNN的基础。沿着网络的深度堆叠多个卷积层,允许网络从输入图像中提取高级特征(不仅仅是边缘和角落)。


编辑。

CNN 的第一个卷积层本质上是一个标准的图像过滤器(+一个 ReLU)。它的目标是获取原始图像并从中提取基本特征(例如边缘、角落)。这些被称为低级特征

第二个卷积层,而不是原始图像,接受第一个卷积层提取的特征作为其输入。这使它能够将这些基本形状组合成更复杂的特征

随着网络的深入,提取的特征变得越来越复杂。靠近网络中间的层提取所谓的中级特征,而最后一层提取高级特征

CNN 是强大的工具,因为它经过训练可以为每个任务提取最佳特征。这导致网络为不同的任务提取不同的特征。

例如,请看下图:

虽然每个任务的低级特征是相同的,但中级和高级特征却大不相同。例如,对于第一个识别人脸的 CNN:

  • 低级特征是基本的几何形状(边、角、圆等)。
  • 中级特征结合先前提取的形状来提取更复杂的特征(眼睛、鼻子、嘴唇),专门用于面部识别任务。
  • 最后,高级特征结合前面的特征来提取更复杂的特征(在这种情况下是不同的人脸)。

基本上,您可以在一层中有多个卷积模块。它被称为分组并在AlexNet. 在这种情况下,输入是相同的,所有卷积模块的输出应该在通过输入后连接起来。

我从链接中引用了在 conv 网络中分组的好处。

群卷积为讨论许多涉及概率的情况提供了优雅的语言……群卷积自然地扩展了卷积神经网络,所有的东西都非常好地结合在一起。由于卷积神经网络是目前机器学习中最强大的工具之一,这很有趣……

关于堆叠,提供的答案就足够了。

形式上来说:2层不能叠成一层,因为它们之间存在非线性关系。

一般来说,CNN的结构是 一世一个GeCnv1F(Cnv1)Cnv2F(Cnv2). 您无法将其转换为单层,除非F(X)是线性函数,在这种情况下 CNN 可能不是很好。

并且添加了非线性来提取特征,抑制无用的特征等,这可能不是很好理解。但是,如果您想更好地了解 CNN 中非线性的使用,我仍然建议您查看这个出色的答案:

科学家们知道人工神经网络内部发生了什么吗?