考虑混合高斯的对数似然:
我想知道为什么直接最大化该方程在计算上是困难的?我一直在寻找一个清晰可靠的直觉,为什么它应该是显而易见的,或者可能是一个更严格的解释,为什么它很难。这个问题是 NP 完全的还是我们只是不知道如何解决它?这就是我们使用 EM(期望最大化)算法的原因吗?
符号:
= 训练数据。
= 数据点。
= 指定高斯的参数集、它们的均值、标准差和从每个聚类/类/高斯生成点的概率。
= 从簇/类/高斯 i 生成点的概率。
考虑混合高斯的对数似然:
我想知道为什么直接最大化该方程在计算上是困难的?我一直在寻找一个清晰可靠的直觉,为什么它应该是显而易见的,或者可能是一个更严格的解释,为什么它很难。这个问题是 NP 完全的还是我们只是不知道如何解决它?这就是我们使用 EM(期望最大化)算法的原因吗?
符号:
= 训练数据。
= 数据点。
= 指定高斯的参数集、它们的均值、标准差和从每个聚类/类/高斯生成点的概率。
= 从簇/类/高斯 i 生成点的概率。
首先,GMM 是一种特殊的聚类算法,您可以在其中尝试找到观察值的最佳标记。有个可能的类别,这意味着您的训练数据和的中等值,这已经变得很大。
其次,你试图最小化的函数不是凸的,再加上你的问题的大小,使它变得非常困难。我只知道 k-means(GMM 可以看作是 kmeans 的软版本)是 NP-hard。但我不知道它是否也被 GMM 证明了。
看问题不是凸的,考虑一维情况: 并检查您不能保证。
遇到非凸问题意味着您可能会陷入局部最小值。一般而言,您在凸优化中没有强有力的保证,而且寻找解决方案也更加困难。
除了 juampa 的观点,让我指出这些困难:
取自我的书。
附加说明:不调用 EM 算法,可以使用标准优化算法(如 Newton-Raphson)一次一个参数,即迭代
如果有个参数并且每一步都应该增加目标函数的值,但这个方案最多只能以与 EM 算法相同的模式结束。