神经网络的缺点正在减少吗?

人工智能 神经网络 机器学习 过拟合 支持向量机 没有免费午餐定理
2021-10-25 22:03:48

在使用神经网络大约半年之后,我亲身体验了通常被认为是其主要缺点的东西,即过度拟合和陷入局部最小值。但是,通过超参数优化和一些新发明的方法,我的场景已经克服了这些问题。根据我自己的实验:

  • Dropout 似乎是一种非常好的正则化方法。

  • 批量归一化简化了训练并在多个层中保持信号强度一致。

  • Adadelta 始终达到非常好的最优值

在我对神经网络的实验中,我已经尝试了scikit-learnSVM 的实现,但我发现相比之下性能非常差,即使在对超参数进行了网格搜索之后也是如此。我意识到还有无数其他方法,并且 SVM 可以被认为是 NN 的子类,但仍然如此。

所以,对于我的问题:

随着对神经网络的所有新方法的研究,它们是否会慢慢地——或者它们会——变得“优于”其他方法?神经网络和其他网络一样,也有其缺点,但是对于所有新方法,这些缺点是否已被减轻到微不足道的程度?

我意识到,就模型复杂性而言,通常“少即是多”,但这也可以用于神经网络。“没有免费的午餐”的想法禁止我们假设一种方法总是会占上风。只是我自己的实验——以及无数关于来自不同神经网络的出色表现的论文——表明至少可能会有一顿非常便宜的午餐。

2个回答

神经网络还有其他缺点。

  1. 与随机森林相比,训练神经网络需要更长的时间和更多的资源。因此,如果您需要训练速度或无论如何资源有限,您可能不应该首先查看神经网络。对训练有素的深度神经网络的评估也可能比竞争技术昂贵得多。
  2. 学习如何构建和训练 NN 所涉及的努力仍然远高于竞争方法,如 SVM。刚开始从事数据科学的人可能应该在参与神经网络之前使用其他技术来了解拟合数据的细微差别。尽管只有一个或两个超参数的简单神经网络通常在许多数据科学库中可用,但它们的性能并不比其他技术好,因此实际上只是另一种 ML 黑盒技术。
  3. 虽然我们在理解神经网络如何发挥其魔力方面取得了很大进展,但与大多数竞争方法相比,它们仍然难以访问和分解。因此,虽然 NN 可能会解决问题,但它们可能不会像其他技术那样容易地为您提供很多见解。

期待其他人在这里说些什么。

只是为了补充@MikeWise 精彩回答中所说的话,

  • 在所有条件相同的情况下,随着数据集大小的增加,与其他算法相比,深度学习模型通常排名最高:

    为什么要深度学习

  • 就像所有事情一样,这一切都归结为手头的数据集,神经网络在其他数据集上表现良好,但同时,它们在其他数据集上表现不佳。当涉及到非结构化问题(例如视觉、文本、声音)时,此时神经网络似乎是最好的算法。也就是说,当涉及到结构化数据时,对用于赢得在线数据科学竞赛的算法类型的快速浏览表明,所谓的机器学习算法(如XGboost)排名最高。

  • 对于其他模型,特征工程对算法的效率起着重要作用特征工程通常是一件棘手的事情,要正确地去做。与其他算法相比,深度学习算法不需要太多的特征工程(如果有的话),实际上它们是自己学习特征的

  • 如果谷歌的人说他们没有看到深度学习的到来,谁来排除一些所谓的机器学习算法出现并席卷世界的可能性?

  • 这是关于数据科学家在被问及时所说的民意调查:深度学习是否与现实世界应用中的炒作相匹配?.

  • 即使是一些流行的深度学习应用程序,比如谷歌的 AlphaGo ,也不是 100% 的深度学习,而是部分深度学习,部分古老的“机器学习”。我的 2 美分是,也许我们不应该排除其他机器学习算法。