我正在学习反向传播,并且查看算法,没有给予任何单元特定的“偏颇性”。我所说的偏心是指你没有与任何单位相关的特定特征,这导致所有单位在机器眼中都是平等的。
那么,这不会导致同一层中所有单元的激活值相同吗?这种“偏袒性”的缺失不会导致神经网络过时吗?
我正在阅读一些关于反向传播的视频,并且在 Geoffrey Hinton 给出的解释中,他谈到了我们如何尝试使用我们隐藏活动的误差导数而不是使用期望的活动来训练隐藏单元。这进一步加强了我的观点,即如何通过不给单位添加任何差异,一层中的所有单位变得相等,因为最初由于所有单位造成的错误都是相同的,因此我们将它们训练为相等。