人工神经网络中特定训练数据集的最小误差是否有限制?

人工智能 神经网络 数学 证明
2021-10-29 13:45:54

在使用梯度下降的基于误差的学习中,如果我给你一个训练数据集,那么你能找到训练后的最小误差吗?对于神经网络的所有架构,最小误差应该是正确的吗?考虑您将使用 MSE 来计算误差。除了我指定的条件之外,您可以选择任何您想要的东西。就像无论你如何改变你的网络,你永远无法超越限制。

1个回答

从某种意义上说是,从某种意义上说不是。您使用的“错误”词未在问题中定义。网络可能有两种类型的错误,完全不同 -泛化错误和损失(训练错误)。数据集的损失下限显然取决于网络架构,因为损失是整个网络产生的价值,并且某些网络将能够产生完全零损失(这可能是过度拟合,这是不好的)。

泛化误差是网络将训练数据集泛化到“野外”潜在无限(或非常大)数量的数据样本的能力,因此泛化误差无法精确计算,只能估计。在统计学习中研究了泛化误差的下限。它总是取决于分类器的复杂性(在我们的例子中是网络架构)。统计学习理论产生像VC 泛化界限这样的估计,它将泛化误差与数据集的大小和分类器(在我们的例子中是网络)空间的复杂性联系起来。然而,对于特定的数据集,在分类器空间复杂性的上下文之外谈论泛化限制可能没有意义,因为如果没有限制,我们总是可以构建更大的网络,从而减少泛化误差(例如通过在更大的数据集上预训练更大的网络)简而言之,您必须限制网络空间的复杂性才能估计最小泛化错误(这可能无论如何都没有用,因为它不会说明梯度下降是否会达到该错误)