我正在为分层多标签分类问题尝试不同的损失函数。到目前为止,我一直在一个更大的模型中训练不同的模型或子模型,例如多层感知器 (MLP) 分支,该模型处理不同级别的分类,产生一个二进制向量。我也一直在使用二元交叉熵 (BCE) 并在反向传播之前对模型中存在的所有损失求和。
我正在考虑尝试其他损失,例如 MultiLabelSoftMarginLoss 和 MultiLabelMarginLoss。
还有哪些其他损失函数值得尝试?也许是汉明损失或变化?将所有损失相加并反向传播还是进行多次反向传播更好?