我试图了解损失函数的目的是什么,但我不太明白。
因此,据我所知,损失函数是为了引入某种度量标准,我们可以用它来衡量错误决策的“成本”。
假设我有一个包含 30 个对象的数据集,我将它们划分为 20 / 10 之类的训练/测试集。我将使用 0-1 损失函数,所以假设我的类标签集是M,函数看起来像这样:
所以我在我的训练数据上建立了一个模型,比如说,使用朴素贝叶斯分类器,这个模型正确地分类了 7 个对象(为它们分配了正确的类标签)和 3 个对象错误。
所以我的损失函数会返回“0”7 次和“1”3 次——我能从中得到什么样的信息?我的模型错误地分类了 30% 的对象?或者还有更多?
如果我的思维方式有任何错误我很抱歉,我只是在努力学习。如果我提供的示例“太抽象”,请告诉我,我会尝试更具体。如果你想用不同的例子来解释这个概念,请使用 0-1 损失函数。