任何 MLE 问题总是有一个最大化器吗?

机器算法验证 最大似然 优化
2022-01-25 15:56:10

我想知道对于任何最大(对数)似然估计问题是否总是有一个最大化器?换句话说,是否存在 MLE 问题没有最大化器的分布及其一些参数?

我的问题来自一位工程师的说法,即 MLE 中的成本函数(可能性或对数可能性,我不确定哪个是预期的)总是凹的,因此它总是有一个最大化器。

谢谢并恭祝安康!

4个回答

也许工程师想到了规范指数族:在它们的自然参数化中,参数空间是凸的,对数似然是凹的(参见 Bickel & Doksum 的数学统计第 1 卷中的 Thm 1.6.3 )。此外,在一些温和的技术条件下(基本上模型是“满秩”,或者等效地,自然参数可识别),对数似然函数是严格凹的,这意味着存在唯一的最大化器。(同一参考文献中的推论 1.6.2。)[此外,@biostat 引用的讲义也表达了同样的观点。]

请注意,规范指数族的自然参数化通常不同于标准参数化。所以,虽然@cardinal 指出家庭 sigma^2中不是凸的,但它在自然参数中是凹的,即N(μ,σ2)σ2η1=μ/σ2η2=1/σ2

似然函数通常在估计感兴趣的参数时达到最大值。然而,有时 MLE 不存在,例如高斯混合分布或非参数函数,它们具有多个峰值(双峰或多峰)。我经常面临估计群体遗传学未知参数的问题,即重组率、自然选择的影响。

@cardinal 指出的原因之一是无界参数空间。

此外,我会推荐以下文章,请参阅第 3 节(功能)和图 3。但是,有关于 MLE 的非常有用和方便的文档信息。

也许有人会发现以下简单示例很有用。

考虑掷硬币一次。表示正面的概率。如果已知硬币可以正面或反面出现,则由于集合是开放的,因此参数空间并不紧凑。的可能性 都没有最大值θθ(0,1)(0,1)θ

{θheads1θtails.
θ(0,1)

我承认我可能遗漏了一些东西,但是——

如果这是一个估计问题,目标是估计一个未知参数,并且已知该参数来自某个封闭且有界的集合,并且似然函数是连续的,那么该参数必须存在一个最大化的值似然函数。换句话说,必须存在最大值。(它不必是唯一的,但必须至少存在一个最大值。不能保证所有局部最大值都是全局最大值,但这不是最大值存在的必要条件。)

我不知道似然函数是否总是必须是凸的,但这不是存在最大值的必要条件。

如果我忽略了某些东西,我很乐意听到我错过了什么。