在一篇博文中,我发现声称
“我相信 WG Cochrane 第一次指出(大约在 1970 年代),在观察环境中的置信区间中,小样本量会导致更好的覆盖率,足够大的样本提供接近零的覆盖率!”
现在我假设 CI 宽度应该随着样本量的增加而接近 0,但是覆盖率会同时恶化的想法对我来说并不令人信服。这种说法是否属实,在什么情况下?还是我看错了?
我使用随机正态分布数据进行了模拟,样本量从 10000 到 1000000(单样本 t 检验,95% CI),每个样本量运行 1000 次,并且对于更高的样本量,覆盖率并没有变得更糟(相反,我发现预期的接近恒定的 ~5% 错误率)。