我正在研究 scikit-learn 的用于拟合高斯混合模型的 EM 算法的实现,我想知道他们是如何提出使用平均对数似然而不是对数似然之和来测试收敛性的。
我看到它应该使算法收敛得更快(给定它们的默认参数),但是这个想法从何而来?
有谁知道他们是否将这部分实现基于特定的论文,或者他们是否只是想出并使用它?
在我遇到的对 EM 算法的大多数解释中,他们会使用 log_likelihoods.sum() 而不是 log_likelihoods.mean()。
我正在研究 scikit-learn 的用于拟合高斯混合模型的 EM 算法的实现,我想知道他们是如何提出使用平均对数似然而不是对数似然之和来测试收敛性的。
我看到它应该使算法收敛得更快(给定它们的默认参数),但是这个想法从何而来?
有谁知道他们是否将这部分实现基于特定的论文,或者他们是否只是想出并使用它?
在我遇到的对 EM 算法的大多数解释中,他们会使用 log_likelihoods.sum() 而不是 log_likelihoods.mean()。
它使单元测试更容易;不受样本大小的影响。
参考:导致更改的 github 讨论。