在这个关于 CNN 的精彩教程中,作者构建了一个单层 CNN。初始卷积权重根据均匀分布随机设置。
在本节结束时,作者注意到随机初始化的内核的行为与边缘检测器非常相似,并给出以下输入和输出作为示例。
为什么随机初始化的内核表现得像边缘检测器?
在这个关于 CNN 的精彩教程中,作者构建了一个单层 CNN。初始卷积权重根据均匀分布随机设置。
在本节结束时,作者注意到随机初始化的内核的行为与边缘检测器非常相似,并给出以下输入和输出作为示例。
为什么随机初始化的内核表现得像边缘检测器?
马丁的回答是不对的。在他的示例中,他仅表明深度网络的行为不像定向边缘检测器。事实上,他下面的例子是一个平滑的垂直导数(可能是 Sobel)。
但是,我们清楚地看到它的行为类似于与方向无关的边缘检测器,例如拉普拉斯算子或梯度范数。此外,我们可以看到所有图像看起来都一样,唯一的主要区别是有些是倒置的,而另一些则有一个额外的常数。
总之,网络的行为就像一个与方向无关的边缘检测器。一个坏的边缘检测器,但仍然是一个边缘检测器。这有助于解释为什么深度学习边缘检测方法比显着性和骨架提取等其他问题收敛得更快且架构更简单。