对池化层感到困惑,它是否可训练?
机器算法验证
卷积神经网络
汇集
2022-03-22 08:34:38
3个回答
在你阅读的论文中
S1层一共可以训练12个参数
表示池化层中输出平面的数量,而不是权重矩阵中的参数数量。通常,我们在神经网络模型中训练的是权重矩阵中的参数。我们不在输入平面或输出平面训练参数。所以写论文的同学没有表达清楚,这让你对池化层到底是什么感到困惑。
最大池化层中没有可训练的参数。在前向传递中,它将每个矩形内的最大值传递到下一层。在后向传递中,它将下一层中的错误传播到取最大值的地方,因为那是错误的来源。
例如,在forward pass中,您有一个图像矩形:
1 2
3 4
你会得到:
4
在下一层。
在向后传递中,您有错误:
-0.1
然后你将错误传播回你得到它的地方:
0 0
0 -0.1
因为从前传中的那个位置取数字 4。
如果池化操作是平均池化(参见Scherer、Müller 和 Behnke,2010 年),那么它将是可学习的,因为存在可训练的偏差项:
取输入的平均值,乘以可训练的标量,增加一个可训练的偏差, 并通过非线性传递结果
但最近的许多论文提到,与最大池化相比,它已经失宠,而最大池化在实践中效果更好。
参考
- Scherer, D.、Müller, A. 和 Behnke, S.(2010 年 9 月)。用于对象识别的卷积架构中池化操作的评估。在人工神经网络国际会议上(第 92-101 页)。施普林格柏林海德堡。
其它你可能感兴趣的问题