我已经在别处发布了这个问题—— MSE-Meta、MSE、TCS、MetaOptimize。此前,没有人给出解决方案。但是现在,这是一个非常出色且全面的答案。
通用逼近定理指出“标准多层前馈网络具有单个隐藏层,包含有限数量的隐藏神经元,是 Rn 紧凑子集上的连续函数之间的通用逼近器,在激活函数的温和假设下。”
我理解这意味着什么,但相关论文超出了我的数学理解水平,无法理解为什么它是正确的或隐藏层如何逼近非线性函数。
那么,就比基本微积分和线性代数更高级的术语而言,具有一个隐藏层的前馈网络如何逼近连续的非线性函数?答案不一定是完全具体的。