多个参数的 Jeffreys 先验

机器算法验证 分布 贝叶斯 估计 事先的 杰弗里斯之前
2022-03-11 23:38:44

在某些情况下,完整多维模型的 Jeffreys 先验通常被认为是不充分的,例如以下情况:

yi=μ+εi,
(在哪里εN(0,σ2), 和μσ未知)在哪里更喜欢以下先验(而不是完整的杰弗里斯先验)π(μ,σ)σ2):
p(μ,σ)=π(μ)π(σ)σ1,
在哪里π(μ)是保留时获得的 Jeffreys 先验σ固定的(同样对于p(σ))。该先验与治疗时的参考先验一致σμ在不同的组中。

问题 1:为什么将它们视为单独的组比将它们放在同一组中更有意义(如果我是正确的(?),这将导致全维 Jeffreys 先验,请参阅 [1])?


然后考虑以下情况:

yi=g(xi,θ)+εi,
在哪里θRn未知,εiN(0,σ2),σ是未知的,并且g是一个已知的非线性函数。在这种情况下,考虑以下分解是很有诱惑力的,根据我的经验,有时会很有成效:
p(σ,θ)=π(σ)π(θ),
在哪里π(σ)π(θ)与前面的比例位置示例一样,是两个子模型的 Jeffreys 先验。

问题 2:在这种情况下,我们能否谈谈派生先验的最优性(从信息论的角度)p(σ,θ)?


[1] 来自https://theses.lib.vt.edu/theses/available/etd-042299-095037/unrestricted/etd.pdf

最后,我们注意到 Jeffreys 的先验是参考先验的一个特例。具体来说,Jeffreys 的先验对应于参考先验,其中所有模型参数都在一个组中处理。

1个回答

什么是最优的?Jeffreys 先验没有通用和通用的“最优性”结果。这完全取决于统计分析的目的以及用于评估和比较程序的损失函数。除此以外,π(θ,σ)1σ无法与之相比π(θ,σ)1σ2. 正如我在关于 X 验证的最受欢迎的答案中所写的那样,没有最好的非信息性先验。