我最近阅读了数学家/统计学家关于机器和深度学习的讨论,以及非数学家/统计学家如何应用它们。争论是这些方法经常被错误地应用,因为经常使用这些方法的人没有适当的数学/统计背景来理解它们。例如,一些机器学习方法,当然还有深度学习方法,需要大量数据才能产生好的结果;但是,不了解这些方法的人经常在没有足够数据的情况下应用它们。然后有人提到,如果您有大量数据,这种无知有时会起作用,从某种意义上说拥有大量数据可以减少您理解这些方法的假设的需要,并且无论如何都会产生良好的结果;然而,后来有人说,如果希望在不太好的条件下(例如,在没有大量数据的情况下)使用这些方法,那么仍然有可能得到好的结果,但是统计假设这些方法变得很重要,因为您没有大量数据来保存/保护您。
作为一个新手,我想进一步研究这个。这里提到了哪些假设?换句话说,为了真正理解这些方法并能够在不太好的条件下应用它们,必须理解这些方法背后的这些数学/统计假设是什么?当我读到这篇文章时,我首先想到的是大数定律以及随着数据量的增加,数据分布接近正态分布的想法。另一个不太具体的想法是,这里可能有一些假设与概率论中教授的所有不等式(边界概率)有关,例如 Cauchy-Schwarz、Jensen 等。一个新手,这就是我能想到的。
请参考任何讨论此问题的研究论文!那将不胜感激。
编辑:
我的理解是机器学习和深度学习是不同的(类别)方法,所以我已经分别描述了它们,以防它们之间的基本假设不同。
编辑2:
如果假设依赖于特定的方法并且太多而无法列出,那么所有方法中是否存在任何一般假设(例如我提到的大数定律和正态性)?一些重要方法、它们的假设和相关研究论文的样本将是一个很好的答案。深度学习尤其是一个有趣的领域,因为据说它需要大量数据(如果我想对有限数据使用深度学习怎么办?我需要注意哪些假设?)。