所有观察的置信度分数在 0.50 - 0.55 之间

数据挖掘 scikit-学习 随机森林 机器学习模型 信心
2022-03-02 03:48:16

你好数据科学堆栈交换社区,

这个问题似乎是开放式的,但是任何答案或想法将不胜感激。我正在尝试使用最少的文档来检查预训练的随机模型分类器,例如开发模型时的混淆矩阵、分类问题的 ROC-AUC 曲线。我只有 pickle 文件和它需要运行的数据集。当我运行我在大多数情况下观察到的模型时,预测分数或置信度分数在 0.50 到 0.55 之间

我想知道是否可以说“模型可能已经学会了模式,即使所有的置信度得分都在 0.50 和 0.55 之间”

因为我想解释一下,由于所有预测分数都集中在一个值周围,所以说模型学习是不正确的,如果有人试图绘制 AUC,它可能是直线。

再次任何想法和答案将不胜感激。

1个回答

随机模型分类器

感觉这里少了一个词,你的意思可能是“随机森林[模型]分类器”或“随机场分类器”?

混淆矩阵

这是一条重要的信息,因为如果您有一个新的(带注释的)样本,这可以让您比较一些东西:

  • 比较原始测试数据和新数据集中类的分布
  • 按类别计算预期性能,如果您根据新样本评估模型,请分析差异
  • ...

我想知道是否可以说“模型可能已经学会了模式,即使所有的置信度得分都在 0.50 和 0.55 之间”

从技术上讲确实是正确的,但可能不是出于您提到的原因(见下文)。虽然这个预测值通常被称为置信度分数或概率,但它并不一定代表模型在归一化范围 [0,1] 内的置信度,尽管理想情况下它应该如此。细节取决于模型的确切类型,但一般来说,在 ML 中,模型只与训练它的数据一样好,因此大多数时候预测分数只是模型的“最佳猜测”。所以它不应该被解释为“C类的概率”,无论如何在分类的情况下,该值的唯一用途是比较两个实例x和y彼此相对:如果x的预测分数高于y ,

因为我想解释一下,由于所有预测分数都集中在一个值周围,所以说模型学习是不正确的,如果有人试图绘制 AUC,它可能是直线。

这个结论是不正确的。需要明确的是,在某些特定情况下可能是正确的,但不能从问题中给出的信息中得出结论。为什么?因为 ROC 曲线(和 AUC)完全不依赖于分数的实际值,它们只依赖于实例根据分数的顺序。ROC 曲线显示了分离预测的正/负实例的不同阈值的性能。无论分数在 [0.51,0.52]、[0,1] 甚至 [-1234,+5678] 范围内都没有任何影响,决定性能的是低于阈值的负例和高于阈值的正例的比例在任何给定点。

如果你有兴趣,我在这个答案中给出了一些关于 ROC 曲线的更详细的解释。