Rumelhart、Hinton 和 Williams (PDF)在 1986 年在训练神经网络的背景下写道(第 12 页):
应该注意此激活函数的另一个特征。如果没有无限大的权重,系统实际上无法达到其极值 1 或 0。因此,在期望输出为二进制 {0, 1} 的实际学习情况下,系统永远无法真正实现这些值。因此,我们通常使用 0.1 和 0.9 的值作为目标,尽管我们会说好像在寻找 {0, 1} 的值。
我在最近的任何论文中都没有看到这个建议,也没有在任何实现神经网络的代码中看到这个建议。我的问题:
这个建议仍然有效,还是在某些时候被证明无效?
这个建议是否(历史上)用于其他算法,例如逻辑回归?