为什么卷积网络不使用互相关

数据挖掘 美国有线电视新闻网 卷积
2021-09-21 14:09:56

据我所知,互相关用于衡量某些值的相似性,比如图像。这同样适用于 CNN 中的特征提取过程,其中输入矩阵乘以滤波器。所以我觉得它们被称为卷积网络很奇怪。

Conv2d的Pytorch 文档甚至说它正在使用互相关运算符。

那么为什么 CNN 在实际使用互相关时被称为卷积呢?

1个回答

这是一个非常有趣的问题。我最近开始研究它,同时试图理解更好的卷积神经网络。

简而言之:是的!它们被称为卷积,而在实际使用中使用互相关算子。所以这是一个用词不当的例子。

我认为要理解的重要一点是,相关性和卷积的不同之处仅在于卷积中存在翻转。所以它们的不同只是因为一个标志。

相关性: F和I之间的相关运算

卷积: 卷积

实际上,主要区别在于卷积是关联的。这意味着

联想属性

这不适用于相关算子。

但是,在训练神经网络时,i 前面的符号差异并不重要,因为您将调整权重以优化目标函数。

这在另一篇文章中也有解释:

CNN中的卷积和互相关

在这篇文章中,还解释了 CNN 实际使用的是互相关算子,而不是卷积算子。

我希望这有帮助。

PS 另外,请参阅David Jacobs CS 课程中关于卷积的注释。