下面是我out-of-bag的报告precision,recall以及f-1score使用的时候scikit-learn
precision recall f1-score support
pos 0.72 0.47 0.57 97929
neg 0.61 0.82 0.70 98071
avg / total 0.67 0.65 0.64 196000
我认为 f-1 分数是对称的,但事实并非如此(即,我得到了 pos 和 neg 的不同 f1 分数,即使这是一个二元分类问题)。
F-1不是simmetric吗?
