我试图了解如何最好地将我训练和调整的分类器与“哑”分类器进行比较,特别是在具有不平衡类的二进制分类的上下文中。
这是我的实验总结:假设我有一个数据集,我在训练/验证/测试集中进行了拆分。我的分类器(这里是随机森林或梯度提升树)在训练集上进行训练,然后通过评估验证集的对数损失并选择对数损失最低的模型来选择最佳超参数。我选择这里是为了最小化对数损失,因为我希望模型在自信地预测错误的类别时会招致非常高的惩罚。
现在假设我想将我的分类器与测试集上的哑分类器进行比较,并假设我在测试集中具有以下类比例:
55% 类 0 和 45% 类 1。
还假设我的分类器的准确度是60%。
例如,一个特别愚蠢的分类器会将所有内容分类为 0,这将导致 55% 的准确度。这当然是一个糟糕的基准,即使作为一个愚蠢的基准。
假设我想将我的分类器与随机分类器进行比较,例如有偏差的硬币。如何计算有偏硬币的对数损失?
我最初认为我应该使用测试集中类的比例作为有偏硬币的概率,即
这将导致日志-损失:
这样做,我觉得我犯了一个错误,因为它就像这个随机分类器已经知道我的测试集的分布?假设我的有偏硬币分类器的概率是在训练集中观察到的概率是正确的吗(例如 51% 的 0 类和 49% 的 1 类)并在我的测试集上随机模拟 0 类或 1 类的选择使用这些概率来计算对数损失?
谢谢!