我可以使用 softmax 和交叉熵损失将任何二进制分类算法转换为多类算法吗?

数据挖掘 机器学习 多类分类 软最大
2022-02-24 00:06:29

用于多类分类的 Softmax + 交叉熵损失用于 ML 算法,例如 softmax 回归和(最后一层)神经网络。我想知道这种方法是否可以将任何二进制分类算法变成多类算法?例如,

如果我使用多项式函数进行二元分类,决策步骤是“如果多项式的输出大于 0,则预测为正,否则预测为负”,那么我可以使用 k 个这样的多项式对于 k 类分类,每个多项式fi(X)有自己的一组参数要学习;然后,目标是最小化 one-hot 标签的样本分布和efi(X)/i=1kefi(X)或者等效地,交叉熵。

现在如果f(X)是线性的,这正是softmax回归算法,如果f(X)是多项式或因式分解机或任何输出实数的分类算法?

我想到了这种方法的一些缺点:

  1. 参数随类数线性缩放

  2. 损失函数可能是非凸的且难以优化

  3. 原始二元分类器的理论性质/保证可能会丢失

这与经典的 1-v-1 或 1-v-all 方法相比如何?

仅有的k1因为 softmax 被过度参数化,所以需要

0个回答
没有发现任何回复~