我目前对“置信水平的置信区间”概念的理解是,如果我们尝试多次计算置信区间(每次都使用新样本),它将包含正确的参数1时间。
尽管我意识到这与“真实参数位于此区间内的概率”不同,但我想澄清一些事情。
【重大更新】
在我们计算 95% 的置信区间之前,我们计算的区间有 95% 的概率覆盖真实参数。在我们计算出置信区间并获得特定区间之后,我们就不能再这样说了。我们甚至不能做出某种非频率论论点,即我们 95% 确定真正的参数将位于中;因为如果我们可以的话,它会与下面的反例相矛盾:确切地说,置信区间是什么?
我不想让这成为一场关于概率哲学的辩论。相反,我正在寻找一个精确的数学解释,说明如何以及为什么看到特定区间会改变(或不改变)我们在看到该区间之前的 95% 概率。如果您争辩说“在看到区间之后,概率的概念不再有意义”,那么好吧,让我们来解释它确实有意义的概率。
更确切地说:
假设我们对计算机进行编程以计算 95% 的置信区间。计算机进行一些数字运算,计算间隔,并拒绝显示间隔,直到我输入密码。在我输入密码并看到区间之前(但在计算机已经计算出来之后),区间包含真实参数的概率是多少?它是 95%,这部分没有争议:这是我对这个特定问题感兴趣的概率的解释(我意识到我正在压制一些主要的哲学问题,这是故意的)。
但是只要我输入密码并让计算机显示它计算的间隔,概率(间隔包含真实参数)就会改变。任何声称这种概率永远不会改变的说法都与上面的反例相矛盾。在这个反例中,概率可能会从 50% 变为 100%,但是......
是否有任何例子表明概率变为 100% 或 0% 以外的值(编辑:如果是,它们是什么)?
后概率不变的例子(即真实参数位于的概率仍然是 95%)?
看到计算机吐出后,概率一般如何(以及为什么)变化?
[编辑]
感谢所有出色的答案和有益的讨论!