我看到这两个函数都是数据挖掘方法的一部分,例如Gradient Boosting Regressors。我看到这些也是单独的对象。
两者之间的关系一般如何?
我看到这两个函数都是数据挖掘方法的一部分,例如Gradient Boosting Regressors。我看到这些也是单独的对象。
两者之间的关系一般如何?
决策函数是将数据集作为输入并给出决策作为输出的函数。决定是什么取决于手头的问题。示例包括:
通常,有无限数量的决策函数可用于一个问题。例如,如果我们有兴趣根据十个观察值估计瑞典男性的身高,我们可以使用以下任何决策函数:
那么我们如何确定使用这些决策函数中的哪一个呢?一种方法是使用损失函数,它描述了与所有可能决策相关的损失(或成本)。不同的决策功能往往会导致不同类型的错误。损失函数告诉我们应该更关注哪种类型的错误。最佳决策函数是产生最低预期损失的函数。预期损失的含义取决于设置(特别是,我们是在谈论常客统计还是贝叶斯统计)。
总之:
损失函数是最小化的,以获得某种意义上的最优模型。模型本身具有用于预测的决策函数。
例如,在 SVM 分类器中: