我以前听过这样的表达:
“优化是统计中万恶之源”。
例如,该线程中的最佳答案是指在模型选择期间过于激进地优化的危险。
我的第一个问题如下:这句话是否特别归因于任何人?(例如在统计文献中)
据我了解,该声明指的是过度拟合的风险。传统智慧会说,适当的交叉验证已经解决了这个问题,但看起来这个问题还有更多的问题。
即使遵守严格的交叉验证协议(例如 100 个嵌套的 10 倍 CV),统计学家和 ML 从业者是否应该警惕过度优化他们的模型?如果是这样,我们如何知道何时停止搜索“最佳”模型?
我以前听过这样的表达:
“优化是统计中万恶之源”。
例如,该线程中的最佳答案是指在模型选择期间过于激进地优化的危险。
我的第一个问题如下:这句话是否特别归因于任何人?(例如在统计文献中)
据我了解,该声明指的是过度拟合的风险。传统智慧会说,适当的交叉验证已经解决了这个问题,但看起来这个问题还有更多的问题。
即使遵守严格的交叉验证协议(例如 100 个嵌套的 10 倍 CV),统计学家和 ML 从业者是否应该警惕过度优化他们的模型?如果是这样,我们如何知道何时停止搜索“最佳”模型?
这句话是对唐纳德·克努特( Donald Knuth)的一句话的转述,他自己把这句话归功于霍尔。以上页面的三个摘录:
过早的优化是编程中万恶(或至少是大部分)的根源。
过早的优化是万恶之源。
15 年后,Knuth 将此称为“Hoare 格言”……
我不知道我是否同意统计数据的解释*。统计中有很多与优化无关的“邪恶”。
即使遵守严格的交叉验证协议(例如 100 个嵌套的 10 倍 CV),统计学家和 ML 从业者是否应该始终警惕过度优化他们的模型?如果是这样,我们如何知道何时停止搜索“最佳”模型?
我认为关键是要完全理解(或尽可能完全地)你所执行的程序的属性。
假设优化是指(数据驱动的)模型选择,您可以通过两种方式解析报价(在统计中):