MLE和朴素贝叶斯有什么关系?

人工智能 比较 朴素贝叶斯 最大似然
2021-11-05 20:22:13

我找到了各种描述朴素贝叶斯的参考资料,它们都证明它使用 MLE 进行计算。但是,这是我的理解:

P(y=c|x) P(x|y=c)P(y=c)

c是模型可以分类的类y作为。

仅此而已,我们可以推断P(x|y=c)P(c)从数据中。我看不出 MLE 在哪里显示了它的作用。

1个回答

仅此而已,我们可以从数据中推断出 P(x|y=c) 和 P(c)。我看不出 MLE 在哪里显示了它的作用。

最大似然估计就是用于这个目的,即估计条件概率p(xjy)和边际概率p(y).


在朴素贝叶斯算法中,利用条件概率的性质,我们可以估计联合概率

p(y,x1,x2,,xn)=p(x1,x2,,xny)p(y)

这与

p(y=c|x)p(x|y=c)p(y=c)

我们需要在这里估计的是有条件的p(xjy)和边缘的p(y)概率,我们为此使用最大似然。

更准确地说:假设x是一个特征向量(x1,x2,...xn)- 这意味着数据点只不过是一个向量。在朴素贝叶斯分类中,假设这些特征在类别上相互独立。所以,在那种情况下,这个术语

p(x|y=c)
被替换为
i=1np(xi|y=c)
- 这是因为独立性假设让我们简单地将概率相乘。

估计数据点所属类别的问题归结为最大化 似然性的问题

i=1np(xi|y=c)
-- 这意味着分配数据(x1,x2,...xn) 到班级k这种可能性最高。这将给出与 MLE 相同的结果,后者采用最大化这个数量的形式——
i=1np(xi|θ)
在哪里θ是假定的参数。