为什么随机初始化的卷积核对应于边缘检测器?

数据挖掘 卷积
2021-10-06 15:10:08

这个关于 CNN 的精彩教程中,作者构建了一个单层 CNN。初始卷积权重根据均匀分布随机设置。

在本结束时,作者注意到随机初始化的内核的行为与边缘检测器非常相似,并给出以下输入和输出作为示例。

输入/输出

为什么随机初始化的内核表现得像边缘检测器?

2个回答

对此持保留态度,但我认为这根本不是真的。您可以使用我刚刚编写的代码对其进行评估:

在此处输入图像描述

只有 2 个,大概 25 个中的 3 个对我来说看起来像边缘过滤器。边缘过滤器的结果如下所示:

在此处输入图像描述

马丁的回答是不对的。在他的示例中,他仅表明深度网络的行为不像定向边缘检测器。事实上,他下面的例子是一个平滑的垂直导数(可能是 Sobel)。

但是,我们清楚地看到它的行为类似于与方向无关的边缘检测器,例如拉普拉斯算子或梯度范数。此外,我们可以看到所有图像看起来都一样,唯一的主要区别是有些是倒置的,而另一些则有一个额外的常数。

总之,网络的行为就像一个与方向无关的边缘检测器。一个坏的边缘检测器,但仍然是一个边缘检测器。这有助于解释为什么深度学习边缘检测方法比显着性和骨架提取等其他问题收敛得更快且架构更简单。