我在完全相同的数据集上应用逻辑回归和支持向量机,其中 70% 的数据用于训练,30% 用于测试。两者的表现完全相同,具有相同的精度、召回率、f1-score 和混淆矩阵。两者的混淆矩阵和分类报告如下所示。
[1180 0]
[ 17 0]]
precision recall f1-score support
0 0.99 1.00 0.99 1180
1 0.00 0.00 0.00 17
accuracy 0.99 1197
macro avg 0.49 0.50 0.50 1197
weighted avg 0.97 0.99 0.98 1197
我对两个模型都应用了 10 倍交叉验证,两者都达到了 98.57% 的相同平均准确率,都未能在所有 10 倍中实现任何真阳性,并且在 10- 中的每一个中都有相同数量的 TP、TN、FP、FN折叠
然而,问题是当我计算曲线值下的 roc 面积时,它们是不同的,如下所示:
Logistic Regression: 0.86
Support Vector Machines: 0.23
这些值表明逻辑回归与支持向量机相比要好得多,尽管混淆矩阵和分类报告是相同的我真的很困惑,因为所有其他结果都表明两个模型的性能相同?有人可以帮助为什么两者都获得不同的 roc 值而其他一切都相同。