非常有趣的问题,这是我的看法。
这都是关于编码信息,然后转动贝叶斯曲柄。这似乎好得令人难以置信——但这两者都比看起来更难。
我从问这个问题开始
当我们担心多重比较时,使用了什么信息?
我可以想到一些 - 第一个是“数据挖掘” - 测试“一切”,直到你获得足够的通过/失败(我认为几乎每个受过统计训练的人都会遇到这个问题)。你也没有那么险恶,但本质上是一样的“我有很多测试要运行——肯定不可能都是正确的”。
考虑到这一点后,我注意到的一件事是,您往往很少听到有关特定假设或特定比较的信息。这都是关于“收藏”的——这引发了我对可交换性的思考——被比较的假设在某种程度上彼此“相似”。您如何将可交换性编码到贝叶斯分析中?- 超先验、混合模型、随机效应等!!!
但可交换性只会让你成为其中的一部分。一切都可以交换吗?或者你是否有“稀疏性”——比如只有少数非零回归系数和大量候选者。混合模型和正态分布的随机效应在这里不起作用。他们在挤压噪声和保持信号不变之间“卡住”(例如,在您的示例中,保持 locationB 和 locationC “true”参数相等,并将 locationA “true”参数设置为任意大或小,并观察标准线性混合模型失败。) . 但它可以被修复——例如,使用“尖峰和平板”先验或“马蹄铁”先验。
因此,实际上更多的是描述您正在谈论的假设类型,并获得尽可能多的已知特征反映在先验和可能性中。Andrew Gelman 的方法只是一种隐式处理一大类多重比较的方法。就像最小二乘法和正态分布在大多数情况下(但不是全部)往往效果很好。
就它如何做到这一点而言,您可以认为一个人的推理如下 - A 组和 B 组可能具有相同的均值 - 我查看了数据,均值“接近” - 因此,为了获得更好的估计对于两者,我应该汇集数据,因为我最初的想法是它们具有相同的平均值。- 如果它们不相同,则数据提供了它们“接近”的证据,因此如果我的假设错误,合并“一点点”不会对我造成太大伤害(所有模型都是错误的,有些是有用的)
请注意,以上所有内容都取决于“它们可能相同”的初始前提。把它拿走,就没有理由进行汇集。您可能还可以看到考虑测试的“正态分布”方式。“最有可能为零”,“如果不是零,那么接下来最有可能接近零”,“不太可能出现极值”。考虑这个替代方案:
那么关于汇集“一点点”的论点是一个非常糟糕的主意。您最好选择总池或零池。更像是 Cauchy、spike&slab、类型的情况(大量质量在零附近,以及大量用于极值的质量)
不需要处理整个多重比较,因为贝叶斯方法将导致我们担心的信息整合到先验和/或可能性中。从某种意义上说,它更多地提醒您正确思考您可以获得哪些信息,并确保您已将其包含在您的分析中。