我正在尝试学习神经网络,并且我有兴趣更好地了解它们如何解决某些问题。然而,我在概念上理解它们如何成功地进行回归(即预测连续变量)时遇到了麻烦,并且想知道是否有人有一个很好的解释。我知道神经网络如何工作的数学知识,但更清晰的概念理解会有所帮助。
为了说明我所说的“概念理解”是什么意思,这是我对具有 sigmoid 激活函数的多层神经网络如何成为有效分类器的理解。每个 NN 采用其输入和一组权重的标量积。权重在输入空间中定义了一个平面,标量积的符号表示输入定义的点在平面的哪一侧。如果点在一侧,sigmoid 激活函数输出 1,如果点在另一侧,则输出 0 或 -1(取决于使用哪个函数)。因此,可以考虑第一个隐藏层神经元来识别输入点在一组平面中的每一个的哪一侧。神经元也可以充当 AND 和 OR 门,因此随后的神经元层会给出一个输出,指示该点是否位于由多个平面界定的区域中(例如,只有当该点位于一个平面上方和另一个平面下方时,神经元才会激活,表明它位于与一类点)。因此,如果网络学习到一组适当的平面来绑定包含不同输入类别的区域以及确定一个点是否在给定区域中的 AND/OR 关系,那么它可以对输入点进行分类,这适用于具有任意形状的边界。
我还没有找到或能够想到类似的方式来解释为什么 NN 可以在一般回归问题中表现良好(如果它足够大的话)。这里有谁知道解释这个的方法吗?