EM算法的每一步都应该增加可能性吗?
我最近写了一个 EM 算法,它到达的数字似乎不是最大值。
我知道这一点是因为我在 R 上对同一问题使用了 optim 函数,它到达的参数提供了更大的对数似然值。
但即使我从这个最大值开始,我运行我的 EM 算法,它似乎收敛到我最初从我的 EM 算法中得出的另一个值。
对此最可能的解释是什么?
EM算法的每一步都应该增加可能性吗?
我最近写了一个 EM 算法,它到达的数字似乎不是最大值。
我知道这一点是因为我在 R 上对同一问题使用了 optim 函数,它到达的参数提供了更大的对数似然值。
但即使我从这个最大值开始,我运行我的 EM 算法,它似乎收敛到我最初从我的 EM 算法中得出的另一个值。
对此最可能的解释是什么?
估计量在每次迭代期间可能会增加或减少,但可能性必须增加。
你应该确保你的可能性在每一步都在增加,看看你是否收敛到相同的值。
在这种情况下可能不相关,但请注意,如果使用 Monte Carlo 方法或其他近似方法估计 E 步,则可能性可能会降低。
一个可能相关的想法是,EM 不会收敛到全局最大值,而是收敛到局部最大值。
有关详细信息,请参阅 Wu 的“关于 EM 算法的收敛性”的第 3 节。