如何在实际分析中使用统计学习理论

数据挖掘 深度学习
2022-02-16 02:50:56

我开始帖子试图说我不知道​​这个帖子是否符合社区规则,所以请原谅我的任何滥用。

我在大学学习了统计学习理论。具体来说,PAC learning、VC Dimension、Uniform Convergence 等等。我观看了与 Vapnik 的演讲,他在演讲中声称深度学习本质上是“一种 bla bla 的解释”,还声称“每个问题都可以用统计学习理论来解决”。

我对此感到非常困惑。我看不出如何将统计学习理论应用于实际问题。

假设我正面临一个新的数据集,该数据集具有明确的二元分类任务,具有许多特征和大量训练数据。例如,我应该如何检查假设类 H 是否是 PAC 可学习的,或者换句话说,它是否具有有限的 VC 维度?不要太从字面上看我的例子,我只是想知道是否有人可以向我指出一篇文章、博客或某种答案,清楚地表明我们如何在实际分析中使用这些定理和结果。

谢谢你。

2个回答
  1. 基本微积分的发展,对于公式化问题和寻找函数最小值的数值技术都是必要的

  2. 学习理论的理论发展,例如 VC 理论,就像在统计学中用来证明中心极限定理一样

我没有看过您发布的 youtube 视频,但如果您阅读“理解深度学习需要重新思考泛化”(Zhang,Bengio 等人,2016 年),您将看到一个非常清晰的分析,即为什么 Vapnik 的说法夸大了。在统计学习中,复杂性-泛化权衡导致我们陷入一个伪悖论:参数多于输入数据的模型不应该能够泛化。完全无视理论,事实上,他们确实如此。总而言之,VC 会给你 DNN 的空虚界限。

最近,Dziugaite 和 Roy “Computing Nonvacuous Generalization Bounds for Deep (Stochastic) Neural Networks”已经能够为深度学习提供非空泛化边界,但他们依赖于 SGD 找到的解决方案的特征。

我推荐这个视频(https://www.youtube.com/watch?v=dHUH0hmKvs8),Karoline Dziugaite 解释了他们的努力,她解释得很好。