如果不将任何阶段的输入展平,卷积神经网络模型会不会更好地工作?

人工智能 神经网络 卷积神经网络 训练 卷积
2021-10-27 09:39:45

在此处输入图像描述

上面的模型真正帮助我理解了卷积神经网络的实现,所以基于此,我有一个棘手的假设,我想找到更多关于它的内容,因为实际测试它会涉及开发一个全新的训练模型,如果这个概念还没有在其他地方尝试过。

我一直在构建一个用于图像识别的机器学习项目,并考虑在某些阶段我们如何在卷积和最大池化之后展平输入,但我突然想到,通过展平数据,我们从根本上丢失了位置信息。如果您考虑真实神经元如何基于集群处理信息,那么通过设计一个在决定时考虑神经元接近度的神经网络训练模型,显然生物神经元的接近度比将它们视为平面层具有重要意义。神经元之间形成连接的结构,以便可以利用位置信息并保持相关性,这似乎会提高网络效率。

编辑,为澄清起见,我制作了一张代表我所询问的概念的图像:

在此处输入图像描述

基本上:像素 1 和 4 彼此相关,这是非常重要的信息。是的,我们可以训练我们的神经网络来了解这些关系,但是我们的训练过程需要在一个 3x3 像素网格中成功地教导网络去评估 12 个独特的关系,而一个考虑到神经元接近度的模型,就像真实的世界大脑将保持这些关系的重要性,因为神经元更容易与附近的其他人连接。

我的问题是:有人知道与我假设的概念密切相关的白皮书/实验吗?为什么这会或不会是一个从根本上更好的模型?

2个回答

我以前对神经网络也有过类似的想法。卷积层是有效传递空间数据的二维节点层,所以我们为什么不使用二维隐藏层从它们中接收信息。

我敢肯定有人以前使用过这种类型的实现。我相信下面的论文正在使用它。神经网络的部分意义在于训练权重以优化找到最佳解决方案,因此无论它学习的空间信息如何,都可以“关注”/增加与决定解决方案相关的位置的权重。

想想你的神经网络检查图像并给出真假的问题。如果中心为红色且其中一个角为蓝色,或者如果中心为蓝色且其中一个角为红色,则训练图像为 True。是否扁平化层应该对这个模型基本上没有影响。在其他情况下,例如对象检测或标记轮廓,是的,我相信不展平将使模型受益。话虽如此,展平数据不会消除空间关系,但仍将训练每一层以检测给出正确答案的空间信息,当层是一维而不是二维时,展平层将不会受益于邻居。

在以多类检测为任务的 CNN 中,您可以允许每个类拥有自己的 CNN,例如缩小到决策节点的隐藏层,并决定它们是否与该类匹配。想象一下棕榈树形状,其中棕榈树干是图像卷积,顶部的每一片叶子都是二维隐藏层,它们缩小到输出层。

多维神经网络 和 三维神经网络

我知道我讲了很多抽象,所以如果任何部分没有意义,我会进行编辑以澄清。

阅读完全卷积网络 (FCN)。关于这个主题有很多论文,首先是 Long 的“Fully Convolutional Networks for Semantic Segmentation”。

这个想法与您所描述的非常接近 - 保留图层中的空间局部性。FCN 中没有全连接层。相反,在最后一个低分辨率/高通道层之上有平均池化。效果就像您有几个以不同位置为中心的全连接层,最终结果是通过对它们进行加权投票产生的。

FCN 令人愉快的副作用是它们适用于任何空间图像大小(比感受野更大) - 图像大小不会编码到网络中。