恕我直言,在将模型拟合到数据的基本层面上,机器学习和统计没有正式的区别。在模型的选择、将模型与数据拟合的目标以及在某种程度上的解释方面可能存在文化差异。
在我能想到的典型例子中,我们总是有
- 一个模型集合 for for some index set,Mii∈II
- 并且对于每个的未知分量(参数,可能是无限维的)。iθiMi
拟合到数据几乎总是一个数学优化问题,包括找到未知分量的最佳选择,以使适合由某些喜欢的函数测量的数据。MiθiMi
模型之间的选择不太标准,并且有一系列可用的技术。如果模型拟合的目标是纯粹的预测,则模型选择是为了获得良好的预测性能,而如果主要目标是解释结果模型,则可以选择更容易解释的模型而不是其他模型,即使它们预测能力预计会更差。Mi
所谓的老派统计模型选择是基于统计测试,可能与逐步选择策略相结合,而机器学习模型选择通常侧重于预期的泛化误差,这通常使用交叉验证来估计。然而,当前模型选择的发展和理解似乎趋向于一个更共同的基础,例如,参见模型选择和模型平均。
从模型推断因果关系
问题的关键是我们如何解释一个模型?如果获得的数据来自精心设计的实验并且模型是充分的,那么我们可以将模型中变量变化的影响解释为因果效应是合理的,并且如果我们重复实验并干预这个特定的变量我们可以期待观察估计的效果。然而,如果数据是观察性的,我们就不能期望模型中的估计效果对应于可观察到的干预效果。无论模型是“机器学习模型”还是“经典统计模型”,这都需要额外的假设。
使用经典统计模型训练的人可能会认为,因果解释在这个框架中比在机器学习框架中更有效。我会说不是。
统计中的因果推理领域并没有真正消除问题,但它确实使因果结论所依据的假设变得明确。它们被称为不可检验的假设。统计中的因果推理: Judea Pearl的概述是一篇值得阅读的好论文。因果推理的一个主要贡献是收集了在实际存在未观察到的混杂因素的假设下估计因果效应的方法,否则这是一个主要问题。参见上面 Pearl 论文中的第 3.3 节。更高级的例子可以在论文Marginal Structural Models and Causal Inference in Epidemiology 中找到。
不可检验的假设是否成立是一个主题问题。它们完全无法测试,因为我们无法使用数据对其进行测试。为了证明这些假设的合理性,需要其他论据。
作为机器学习和因果推理相遇的一个例子, Mark van der Laan 和 Daniel Rubin 在Targeted Maximum Likelihood Learning中提出的目标最大似然估计的想法通常利用机器学习技术进行非参数估计,然后是“目标" 朝向感兴趣的参数。后者很可能是具有因果解释的参数。超级学习者的想法是严重依赖机器学习技术来估计感兴趣的参数。Mark van der Laan(个人交流)指出,经典的、简单的和“可解释的”统计模型经常是错误的,这导致估计者有偏见,并对估计的不确定性进行过于乐观的评估,这是一个重要的观点。