问题陈述
我已经构建了一个分类器来对包含 n 个样本和四类数据的数据集进行分类。为此,我使用了预训练的 VGG-19、预训练的 Alexnet 甚至 LeNet(带有交叉熵损失)。但是,我只是更改了 softmax 层的架构并为此放置了四个神经元(因为我的数据集仅包含四个类)。由于数据集类之间有惊人的相似之处,这个分类器无法对它们进行分类,我被迫使用其他方法。在训练部分,经过一些 epoch 后,损失从大约 7 减少到大约 1.2,但准确度没有变化,它被冻结在 25%(随机精度)。在最好的时期,准确率刚刚达到接近 27%,但完全不稳定。
问题
如何合理?如果减少损失意味着模型改进,为什么准确率没有增加?损失如何可能减少接近 6 个点(大约从 7 到 1),但准确性却没有任何变化?