我已经阅读了有关通用逼近定理的信息。那么,为什么我们需要超过 1 层呢?在隐藏层中添加层而不是更多神经元是否在某种程度上具有计算效率?
在 ANN 的二元分类问题中,我们是否需要超过 1 个隐藏层?如果是,为什么?
人工智能
神经网络
机器学习
深度学习
深度神经网络
通用逼近定理
2021-11-15 06:12:54
1个回答
这类似于问“为什么我们需要多个正弦实例来表示任何重复函数”或“为什么我们不能用等价的一阶多项式来表示任何多项式?” 有很多很多的问题......我什至想说大部分......这需要不止一层来解决,因为更高维度的关系不能只用一层来很好地表示。这并不是说这个定理是错误的,而是考虑应用方面。我们可以逼近任何连续函数,但这可能需要一个无限宽的单层,但是同样的函数可能会被一个只有几十个神经元的深度网络逼近。
然而,这并不是说许多网络不能用至少表现得一样好,或者甚至更好的网络来表示,用更少层/神经元的更简单的网络来表示。正在积极研究如何推广这一点。
归根结底,目前在这个领域中,重要的问题通常需要一种经验方法,因为“学习”没有通用的解决方案。