据我所知,互相关用于衡量某些值的相似性,比如图像。这同样适用于 CNN 中的特征提取过程,其中输入矩阵乘以滤波器。所以我觉得它们被称为卷积网络很奇怪。
Conv2d的Pytorch 文档甚至说它正在使用互相关运算符。
那么为什么 CNN 在实际使用互相关时被称为卷积呢?
据我所知,互相关用于衡量某些值的相似性,比如图像。这同样适用于 CNN 中的特征提取过程,其中输入矩阵乘以滤波器。所以我觉得它们被称为卷积网络很奇怪。
Conv2d的Pytorch 文档甚至说它正在使用互相关运算符。
那么为什么 CNN 在实际使用互相关时被称为卷积呢?
这是一个非常有趣的问题。我最近开始研究它,同时试图理解更好的卷积神经网络。
简而言之:是的!它们被称为卷积,而在实际使用中使用互相关算子。所以这是一个用词不当的例子。
我认为要理解的重要一点是,相关性和卷积的不同之处仅在于卷积中存在翻转。所以它们的不同只是因为一个标志。
实际上,主要区别在于卷积是关联的。这意味着
这不适用于相关算子。
但是,在训练神经网络时,i 前面的符号差异并不重要,因为您将调整权重以优化目标函数。
这在另一篇文章中也有解释:
在这篇文章中,还解释了 CNN 实际使用的是互相关算子,而不是卷积算子。
我希望这有帮助。
PS 另外,请参阅David Jacobs CS 课程中关于卷积的注释。