在搜索有关选择神经网络中隐藏层数的信息时,我多次遇到下表,包括在此答案中:
| 隐藏层数 | 结果 |
0 - 仅能够表示线性可分离函数或决策。
1 - 可以逼近任何包含从一个有限空间到另一个有限空间的连续映射的函数。
2 - 可以使用有理激活函数将任意决策边界表示为任意精度,并且可以将任何平滑映射逼近到任意精度。
我熟悉 1 个隐藏层的通用逼近定理,但不熟悉关于 2 个隐藏层的附加功率的所谓结果。这是真的吗?如果是这样,我在哪里可以找到详细的解释和证明?
编辑:显然这张桌子来自Jeff Heaton。