一般不会,但在指定错误的情况下可能会。您正在寻找的问题称为可受理性。如果没有风险较低的计算方法,则该决定是可以接受的。
所有贝叶斯解决方案都是可接受的,非贝叶斯解决方案是可接受的,只要它们与每个样本中的贝叶斯解决方案匹配或在极限处匹配。一个可接受的频率或贝叶斯解决方案总是会优于 ML 解决方案,除非它也是可接受的。话虽如此,有一些实际的评论使这种说法真实但空洞。
首先,贝叶斯选项的先验必须是您真正的先验,而不是用于使期刊编辑满意的某种先验分布。其次,许多Frequentist解决方案是不可接受的,应该使用收缩估计器而不是标准解决方案。很多人不知道 Stein 引理及其对样本外错误的影响。最后,在许多情况下,ML 可以更稳健地处理错误指定错误。
当您进入决策树及其表亲森林时,您不会使用类似的方法,除非您还使用类似于贝叶斯网络的东西。图解决方案中包含大量隐含信息,尤其是有向图。每当您将信息添加到概率或统计过程中时,您都会减少结果的可变性并改变被认为是可接受的内容。
如果您从函数组合的角度来看机器学习,它只是成为一种统计解决方案,但使用近似值使解决方案易于处理。对于贝叶斯解决方案,MCMC 与许多 ML 问题的梯度下降一样,节省了难以置信的时间。如果你要么必须构建一个精确的后验来整合,要么在许多 ML 问题上使用蛮力,那么在你得到答案之前,太阳系就会死于热死。
我的猜测是,对于那些使用统计数据或不适当统计数据的人来说,你有一个错误指定的模型。我教了一个讲座,我证明如果包裹不当,新生儿会飘出窗外,并且贝叶斯方法在多项选择上的表现如此彻底地优于频率方法,以至于频率方法在预期中收支平衡,而贝叶斯方法使参与者的钱翻了一番. 现在我在前者中滥用了统计数据,并在后者中利用了频率估计量的不可接受性,但是一个天真的统计用户可以轻松地做我所做的事情。我只是将它们极端化以使示例显而易见,但我使用了绝对真实的数据。
随机森林是一致的估计量,它们似乎类似于某些贝叶斯过程。由于与内核估计器的联系,它们可能非常接近。如果您发现解决方案类型之间的性能存在重大差异,那么您误解了潜在问题中的某些内容,并且如果该问题具有任何重要性,那么您确实需要寻找差异的根源,因为它也可能是所有模型都被错误指定的情况。