通用逼近定理指出,具有包含有限数量神经元的单个隐藏层的前馈网络可以逼近紧缩子集上的连续函数.
无论函数是什么,都保证有一个神经网络,这样对于每个可能的输入,, 价值(或某种近似值)从网络输出。
因此,对于连续函数,这似乎是合理的。有趣的是,在同一篇文章中,尼尔森提到了“任何功能”。
后来,他写
然而,即使我们真正想要计算的函数是不连续的,通常情况下连续近似就足够了。
最后一个陈述留下了一个空白,询问一个近似值实际上可以有多好。
让我们忽略矛盾的输入/输出训练对,例如和,它实际上并不代表一个函数。
此外,假设训练数据是随机生成的,这实际上会导致函数不连续。
神经网络如何学习这些数据?学习算法是否总是能够找到一个近似于输入-输出对所表示的函数的神经网络?