我怎么知道模型性能改进是显着的?

数据挖掘 机器学习 统计数据 假设检验
2022-02-23 20:53:22

假设我正在运行一个机器学习模型,该模型会产生一定的结果(比如 80% 的准确度)。我现在更改模型中的一个小细节(例如,在深度学习模型中,增加一个卷积层中的内核大小)并再次运行模型,从而获得 0.8+x 的准确度。

我的问题是我将如何确定性能的哪个下降/下降可以让我说新的网络架构比我的旧网络架构更好?我假设 x=.0001 在合理的误差范围内,而 x=-.2 是性能的显着下降 - 但是,此处使用“显着”将纯属口语化,没有任何科学依据。

我知道理论上某种假设检验在这里是合适的,但据我所知,这些需要多个样本(即多次运行网络),如果大型 ML 模型有时需要几天的时间来训练,则不是t 真的可行。

1个回答

您的最后一段实际上是答案,但无需多次训练您的模型。您实际上需要多次“验证/评估”您的模型,这当然可以在较小的集合上运行。

  1. 有几个验证集。数量不是主要的专业,但要确保它们涵盖数据的分布,特别是所有类别。
  2. 在这些集合上运行两个模型并将结果保存在两个列表/数组中
  3. 简单/实用的解决方案:如果他们的平均值之间的差异大于他们各自的标准偏差,那么你很高兴
  4. 更有信心:你有两组数字(两个模型的性能)。使用简单的方差分析并监控 p 值以查看它们的差异是否显着。