我是一名机器学习从业者,我大部分时间都在通过 Python 在机器视觉中使用神经网络和遥感数据进行应用,并主要使用基于交叉验证的技术等来评估模型性能。
统计学(当然)是我学习路径的一部分,我熟悉统计学的基本概念,但我并没有积极从事“纯”统计学家的工作,也就是说,使用例如 R/SAS 软件来适应广义线性模型,计算-值、方差分析和模型协变量的检验统计显着性。
尽管我已经接触这些领域多年,但我仍然不清楚(传统/纯)统计和机器学习之间有何不同。我知道对差异的普遍共识是统计学更关心解释数据,而机器学习 (ML) 则对做出预测感兴趣,即使差异有时很模糊,并且两个领域都使用相同的方法。
现在在 ML 中,通常当我们将一些模型拟合到数据中时,我们关心模型从数据中学习底层模式的能力,并通过使用独立的测试数据集来衡量这种学习。我们永远不想让模型完美地拟合到训练数据中,因为这会导致过度拟合和泛化能力差。因此,ML 中的相关问题(据我所知)从来都不是关于“模型对数据的拟合程度如何?”,而是“模型能够如何预测新情况,即泛化”。
当我听我的统计学家同事讲话时,我注意到他们主要谈论的是-价值观,-价值观,-统计数据,方差分析中两组均值的差异等。
对我来说,从 ML 的角度来看,我的统计学家同事似乎完全关心他们的模型/协变量与数据的“拟合优度”,并且没有独立的测试数据集来验证他们的模型。好吧,当然,他们不这样做,因为这不是目标,而是用我们对数据做出的明确假设(常态等通常的假设)来解释数据。
现在,由于我对这个主题缺乏了解,我很可能是错的,但在我看来,为什么“纯”统计学家对这些“拟合优度”统计如此感兴趣,因为不-价值观,等等。基本上最终衡量这个,即模型拟合(假设我们的分布假设是正确的)?例如,我们都知道神经网络是通用逼近器,这意味着我们可以通过在模型中添加足够的神经元来将它们以 100% 的准确率拟合到我们任意选择的任何(连续)函数中。现在,这个通用的逼近神经网络会不会像地狱一样调整到我们的数据中具有巨大的统计意义?-值或-metrics,如果我们从“纯”统计学家的角度来看模型拟合?总而言之,统计学家(是吗?)会得出结论:在这个神经网络场景中,“我们现在发现了一些真正重要的东西”吗?ML 科学家会生成一个独立的测试样本,将其提供给网络,并得出该模型过度拟合训练数据的结论,并且没有发现任何模式。换句话说,机器学习科学家会得出结论“没有发现任何重要的东西”。
可能是我问的太含糊了,这里总结一下:是不是一定程度上统计学家通常更关心模型的拟合优度和相应的显着性指标,而不是模型的泛化能力, ML 科学家反之亦然?
提前感谢您的任何答案,这有助于我消除我的困惑:)