例如,在一个简单的神经网络中,参数的数量与可用于训练的样本数量相比保持较小,这可能会迫使模型学习数据中的模式。对?
我的问题是,在模型中的参数数量多于可用训练实例数量的情况下,我们会产生什么影响?
这样的模型会导致过度拟合吗?这些额外的参数会对模型性能带来什么影响?
请对此有所了解。我相信只有数据表示(隐藏层的数量、每层中的神经元数量等)才能控制模型中的参数数量。我的理解正确吗?
例如,在一个简单的神经网络中,参数的数量与可用于训练的样本数量相比保持较小,这可能会迫使模型学习数据中的模式。对?
我的问题是,在模型中的参数数量多于可用训练实例数量的情况下,我们会产生什么影响?
这样的模型会导致过度拟合吗?这些额外的参数会对模型性能带来什么影响?
请对此有所了解。我相信只有数据表示(隐藏层的数量、每层中的神经元数量等)才能控制模型中的参数数量。我的理解正确吗?
在谈论神经网络(现在尤其是深度神经网络)时,网络的参数几乎总是比训练样本多得多。
理论上,一个简单的两层神经网络参数能够完美拟合任何数据集尺寸样本 (张等人,2017)。因此,要回答您的问题,拥有如此大的模型可能会导致过度拟合。
深度神经网络最棒的地方在于,尽管存在这些潜在的过拟合问题,它们仍能很好地工作。通常是由于训练/优化算法和网络架构中隐含的各种正则化效果,以及显式使用的正则化方法,例如 dropout、权重衰减和数据增强。我的论文《深度学习的正则化:分类法》深入描述了其中一些影响。
具有许多参数的明显好处是您可以表示比使用较少参数的函数要复杂得多。神经网络建模的关系通常非常复杂,使用小型网络(使网络的大小适应训练集的大小,即仅使用小模型使您的数据看起来很大)可能会导致问题您的网络过于简单,无法表示所需的映射(高偏差)。另一方面,如果你有很多参数,网络足够灵活来表示所需的映射,你总是可以使用更强的正则化来防止过度拟合。
要回答问题的最后一部分:参数的数量完全由网络中的层数、每层中的单元数以及输入和输出的维度定义。
有关详细信息,另请参阅模型过度拟合和参数数量之间的关系。