在关于神经网络发展和深度学习历史的视频讲座中(可以从第 13 分钟开始),讲师(Yann LeCunn)表示,神经网络的发展直到 80 年代才停止,因为人们使用了错误的神经元(这是二进制如此不连续),这是由于浮点数相乘的速度很慢,这使得反向传播的使用非常困难。
他说,我引用,“如果你有连续的神经元,你需要将一个神经元的激活乘以一个权重,以获得对加权和的贡献。”
但即使对于二元(或任何不连续的激活函数)神经元,该陈述仍然成立。我错了吗?(至少,只要你在隐藏层,你的神经元的输出就会乘以我猜的权重)。同一位教授说感知器 ADALINE 依赖于加权和,因此他们无论如何都在计算乘法。
我不知道我在这里想念什么,希望有人能启发我。