在这个热门问题中,高投票的答案使 MLE 和 Baum Welch 在 HMM 拟合中分开。
对于训练问题,我们可以使用以下 3 种算法:MLE(最大似然估计)、Viterbi 训练(不要与 Viterbi 解码混淆)、Baum Welch = forward-backward 算法
但是在维基百科中,它说
Baum-Welch 算法使用众所周知的 EM 算法来找到参数的最大似然估计
那么,MLE 和 Baum-Welch 算法有什么关系呢?
我的尝试:Baum-Welch 算法的目标是最大化似然性,但它使用专门的算法 (EM) 来解决优化问题。我们仍然可以通过使用梯度下降等其他方法来最大化似然性。这就是为什么答案将两个算法分开的原因。
我是对的,谁能帮我澄清一下?