无法在 Torch 的 SpatialConvolution 中找出 nInputPlane?

数据挖掘 卷积神经网络 火炬
2022-03-15 14:04:08

空间卷积的文档将其定义为

module = nn.SpatialConvolution(nInputPlane, nOutputPlane, kW, kH, [dW], [dH], [padW], [padH])

nInputPlane:图像中预期输入平面的数量,传入 forward()。

nOutputPlane:卷积层将产生的输出平面的数量。

我对火炬没有任何经验,但我想我在 keras 中使用过类似的功能

Convolution2D(64, 3, 3, border_mode='same', input_shape=(3, 256, 256))

它将 rgb 中 256*256 的图像形状作为输入。

我已经阅读了以下 Torch 中空间卷积的用法,但无法弄清楚 nInputPlane 和 nOutputPlane 参数对应的是什么?

local convLayer = nn.SpatialConvolutionMM(384, 384, 1, 1, 1, 1, 0, 0)

在上面的代码中,这些 384,384 代表什么?

1个回答

nInputPlane 是输入图像的深度或层数。对于 RGB 图像,这应该是 3,对应于input_shape=(3, 256, 256).

nOutputPlane 是卷积步骤将产生的体积层数,也是应用于输入的过滤器/内核的数量。按照惯例,每个过滤器都有一个输出层。这对应于Convolution2D函数的第一个参数。