N 维可能性中的参数究竟是如何边缘化的?

机器算法验证 可能性 超参数
2022-04-04 00:45:33

我看不到以下方程式,所以我不确定他们在说什么:

“对于每个模型,我们从 N 维似然面的峰值确定最佳拟合参数。对于模型中的每个参数,我们还通过边缘化所有其他参数来计算其一维似然函数。”

如何通过边缘化所有其他参数来获得一维似然函数?

2个回答

您应该始终参考您的报价。

我在互联网上找到的唯一参考资料

“对于每个模型,我们从 N 维似然面的峰值确定最佳拟合参数。对于模型中的每个参数,我们还通过边缘化所有其他参数来计算其一维似然函数。” (第 3 页)

是Spergel 等人关于 WMAP的宇宙学arxiv 论文。(2003 年)。如果你在这句话之后翻页,你会发现一个方程将“边际似然”下的期望定义为 这意味着“边际似然”是

<αi>=dNαL(α)αi.
dN1αiL(α).

如果我也引用论文前面的句子

“对于论文中研究的每个模型,我们使用蒙特卡洛马尔可夫链来探索似然面。我们假设基本参数中的先验是平坦的,对物质和重子密度施加正性约束(这些限制的可能性很低,以至于它们对模型不重要。我们假设 τ 中的平坦先验,光学深度,但限制 τ < 0.3。这个先验对拟合几乎没有影响,但使马尔可夫链远离参数空间的非物理区域。(第 3 页) "

这意味着作者在参数化中采取了贝叶斯立场,先验平坦。

假设你有信息的状态,一些观察和一些参数其中然后在连续情况下,你从联合似然中得到边际似然通过积分:I{yi}θpp{1,2,n}p(θ1,θ2,θn|{yi},I)

p(θk|{yi},I)=++p(θ1,θ2,θn|{yi},I)dθp1dθpn1

其中pj{1,2,n}k

如您在此处看到的,在离散情况下,您将得到总和而不是积分。