我刚读了 Bishop 的书Pattern Recognition and Machine Learning。我阅读了关于反向传播的第 5.3 章,它说,在一般的前馈网络中,每个单元计算其输入的加权和,形式为
然后书上说,上述方程中的和由非线性激活函数形式的单元的激活
我认为这个符号在某种程度上是 akward:假设我想计算,然后
那么 是否意味着神经元与自身相连?
我刚读了 Bishop 的书Pattern Recognition and Machine Learning。我阅读了关于反向传播的第 5.3 章,它说,在一般的前馈网络中,每个单元计算其输入的加权和,形式为
然后书上说,上述方程中的和由非线性激活函数形式的单元的激活
我认为这个符号在某种程度上是 akward:假设我想计算,然后
那么 是否意味着神经元与自身相连?
这些方程只适用于给定的层。
如果要泛化,则需要将它们重写为,例如: