我有一个训练有素的逻辑回归模型,我将其应用于测试数据集。因变量是二进制(布尔值)。对于测试数据集中的每个样本,我应用逻辑回归模型来生成因变量为真的概率百分比。然后我记录实际值是真还是假。我正在尝试像在线性回归模型中一样或调整后
这给了我测试集中每个样本的记录,例如:
prob_value_is_true acutal_value
.34 0
.45 1
.11 0
.84 0
.... ....
我想知道如何测试模型的准确性。我的第一次尝试是使用列联表并说“如果prob_value_is_true
> 0.80,猜测实际值是正确的”,然后测量正确分类与不正确分类的比率。但我不喜欢这样,因为感觉更像是我只是在评估 0.80 作为边界,而不是模型作为一个整体和所有prob_value_is_true
值的准确性。
然后我尝试只查看每个 prob_value_is_true 离散值,例如,查看prob_value_is_true
= 0.34 的所有样本并测量实际值为真的样本的百分比(在这种情况下,如果样本的百分比这是真的 = 34%)。我可以通过对每个离散值的差求和来创建模型准确度分数prob_value_is_true
。但是样本量在这里是一个很大的问题,特别是对于极端情况(接近 0% 或 100%),这样实际值的平均值并不准确,因此使用它们来衡量模型的准确性似乎并不正确。
我什至尝试创建很大的范围以确保足够的样本量(0-.25、.25-.50、.50-.75、.75-1.0),但如何衡量实际价值百分比的“好坏”让我感到困惑. 假设所有prob_value_is_true
介于 0.25 和 0.50 之间的样本的平均值acutal_value
为 0.45。既然在范围内,那很好吗?不好,因为它不接近 37.5%(范围的中心)?
所以我被困在一个看似简单的问题上,希望有人能指出我的资源或方法来计算逻辑回归模型的准确度统计。