我最近阅读了Yan LeCuns 关于 1x1 卷积的评论:
在卷积网络中,没有“全连接层”之类的东西。只有具有 1x1 卷积核和全连接表的卷积层。
ConvNets 不需要固定大小的输入,这是一个很少被理解的事实。
您可以在碰巧产生单个输出向量(没有空间范围)的输入上训练它们,然后将它们应用于更大的图像。
然后,您将获得输出向量的空间图,而不是单个输出向量。每个向量在输入的不同位置看到输入窗口。 在这种情况下,“全连接层”实际上充当 1x1 卷积。
我想看一个简单的例子。
例子
假设您有一个完全连接的网络。它只有一个输入层和一个输出层。输入层有3个节点,输出层有2个节点。这个网络有参数。为了更具体,假设您在输出层和权重矩阵中有一个 ReLU 激活函数
所以网络是 和 .
卷积层如何必须看起来相同?LeCun 的“全连接表”是什么意思?
我想要获得等效的 CNN,它必须具有完全相同数量的参数。上面的 MLP 有参数。