我记得John Platt在 1999 年(13 年前!)的一篇论文,名为Probabilistic Outputs for Support Vector Machines and Comparisons to Regularized Likelihood Methods (1999),它概述了一种从 SVM 中获取概率输出的方法。从摘要:
相反,我们训练一个 SVM,然后训练一个额外的 sigmoid 函数的参数以将 SVM 输出映射到概率。
虽然这提供了一种解决方案,但它有点不令人满意,因为它意味着执行两个独立的(并且看似有些不相关的)优化问题。
有没有更现代的方法来解决这个问题(例如,不求助于高斯过程分类)?