什么时候应该使用 MLP 卷积层而不是普通的卷积层?有共识吗?或者两者都试一试,看看哪一个表现更好?我很想更好地了解两者之间的差异。还有哪些深度学习库支持 MLP 转换层?它们用于本文网络中的网络
MLP 卷积层
数据挖掘
深度学习
卷积神经网络
毫升
2022-03-07 04:56:33
2个回答
现在通常用来指代“MLP 卷积层”的术语是1x1 卷积。
1x1 卷积是普通卷积,但它们的内核大小为 1,即它们只作用于一个位置(即图像一个像素,离散数据一个标记)。这样,1x1 卷积相当于在位置上应用密集层。network-in-network 论文中使用的术语“MLP 卷积层”就是对这一事实的参考。
虽然普通卷积使用空间信息,因此它们可以检测局部模式(空间局部归纳偏差),但 1x1 卷积不能,因为它们的作用窗口是单个位置。它们只是用来改变表示的维度,特别是改变图像中的通道数,或者改变离散数据中的嵌入维度。例如,如果在 2D 卷积网络的某个点,我们有一个宽度为、高度为和通道的张量,我们可以使用 1x1 卷积来获得宽度为、高度和通道的张量,其中。
在普通的卷积层中,使用 ReLU 激活函数。ReLU 是固定的,本身无法训练。MLP Conv Layer 是卷积操作和多层感知器网络的组合。如果你在卷积之后使用 MLP,你可以学习更复杂的函数(将输入映射到输出)。
它还增加了模型的容量,并且可以适应更多数据。
为了比较,您必须自己尝试。论文本身显示了一些比较。
还有另一篇论文做类似的事情。检查:学习激活函数以改进深度神经网络
您可以在 Tensorflow 和 Pytorch 等深度学习框架中制作自己的 MLP 卷积层。也可能有人已经建造了它。
其它你可能感兴趣的问题