为什么 SimpleNet 的这个实现在 cifar10 的最后一层使用 3x3 内核?

数据挖掘 机器学习 张量流 卷积神经网络 执行
2022-03-12 18:45:27

问题; 我正在尝试在 tensorflow 中实现 simplenet,但我有一个似乎无法回答自己的问题。我基于此的实现在这里:https ://github.com/Coderx7/SimpleNet_Pytorch/blob/master/models/simplenet.py

事情是这样的;cifar10 数据为 32 x 32。有 5 个最大池化层,每个池化层是特征图输出大小的一半。这意味着到最后一个卷积层,特征图是 1 x 1。然而,最终的卷积层出于某种原因使用了 3 x 3 个内核!

这对我来说没有多大意义。谁能解释一下?我真的很难过。如果特征图实际上是 1 x 1,那么网络对 3 x 3 内核有什么可能的用途?

谢谢。

编辑:仍然无法弄清楚。我真的很难过。如果有人有任何意见,将不胜感激。

EDIT2:我还没有弄清楚。据我所知,这与 cafee 中的原始实现不同。

0个回答
没有发现任何回复~