以这个神经网络为例:

那么权重矩阵是
为了找到最后一层的错误,我们使用
这是有道理的。这将产生一个向量。但是为了在下一层找到错误,我们使用
这似乎试图将矩阵和矩阵相乘,这是非法的。我对图层的表示方式是错误的吗?真的应该是[向量吗?这对我来说真的没有意义,因为随着前馈的继续,它将乘以我们是否总是将表示为向量,并且公式没有提及这一点,因为它是常识?
我在这里想念什么?
以这个神经网络为例:

那么权重矩阵是
为了找到最后一层的错误,我们使用
这是有道理的。这将产生一个向量。但是为了在下一层找到错误,我们使用
这似乎试图将矩阵和矩阵相乘,这是非法的。我对图层的表示方式是错误的吗?真的应该是[向量吗?这对我来说真的没有意义,因为随着前馈的继续,它将乘以我们是否总是将表示为向量,并且公式没有提及这一点,因为它是常识?
我在这里想念什么?
你这里有一些错误的维度。重量大小的规则
作为
也是
所以
是