我想知道我是否正确理解了这些术语。总结一下我的想法:
在朴素贝叶斯中,我们的决策规则基本上是我们假设的最大后验(MAP)估计。我们将观察值分配给具有最大后验概率的类:
这被称为 MAP,因为我们正在结合先验知识(先验概率)来计算后验概率:
在哪里
- = 1, 2, ..., n(样本)
= 1, 2, ..., m(类标签)
=
- = 样本
现在,如果我们使用训练数据根据训练数据中类的频率估计先验的参数,这将是最大似然估计 (MLE)。类似地,我们可以使用 MLE在条件独立假设下
这有意义吗?