我正在使用前馈神经网络来近似具有 24 个输入和 3 个输出的函数。大多数文献表明,具有足够数量的隐藏神经元的单层神经网络将为大多数问题提供良好的近似,而添加第二层或第三层几乎没有什么好处。
但是我优化了单层和多层神经网络,我的多层网络要好得多。对于单层网络,我扫描了 1 到 80 个神经元,每次都重新训练网络,并绘制性能图。在大约 30 个神经元之后,性能收敛。对于多层网络,我使用遗传算法来选择第一层和第二层的神经元数量。这导致了更好的性能。
我想知道为什么会发生这种情况,考虑到大多数文献表明 1 层就足够了。是否存在需要不止一层的特定类型的问题?这是否表明被逼近的函数是不连续的、没有明确定义的、锯齿状的(不平滑的)或以上所有/混合的?或者它是否暗示了其他东西,或者什么都没有?我知道当用于分类时,多层神经网络可以对不可线性分离的数据进行分类,但我正在使用该网络进行函数逼近。