自适应地选择引导复制的数量

机器算法验证 引导程序
2022-03-12 02:11:50

与大多数蒙特卡罗方法一样,自举规则是重复次数越多,蒙特卡罗误差越低。但是收益递减,所以尽可能多地运行重复是没有意义的。

假设你想确保你对某个数量在无限次重复得到的估计值范围内。的前两位小数不会由于蒙特卡洛误差而出错,在这种情况下有没有一个你可以使用的自适应过程,在这个过程中你不断生成引导复制,检查,并根据这样的规则停止,比如有 95% 的置信度?θ^θεθ~θ^ε=.005θ^|θ^θ~|<ε

注意虽然现有的答案很有帮助,但我仍然希望看到一个控制|θ^θ~|<ε

2个回答

如果对复制品的的估计是正态分布的,我猜你可以从标准偏差θσ^θ^σ

σ^=σn

那么你可以在时停止。1.96σ^<ϵ

还是我误解了这个问题?或者您是否想要一个不假设正态性且存在显着自相关的答案?

在我的书 Bootstrap Methods: A Practitioner's Guide Wiley (1999) 第一版的第 113-114 页上,我讨论了在使用 Monte Carlo 近似时确定要进行多少次 bootstrap 复制的方法。

我详细介绍了 Hall 在他的书 The Bootstrap and Edgeworth Expansion, Springer-Verlag (1992) 中描述的程序。他表明,当样本量 n 很大且自举复制 B 的数量很大时,自举估计的方差为 C/B,其中 C 是不依赖于 n 或 B 的未知常数。因此,如果您可以确定 C或将其限制在上面,您可以确定 B 的值,使估计的误差小于您在问题中指定ϵ

我描述了 C = 1/4 的情况。但是,如果您不知道 C 的值是多少,您可以诉诸您描述的方法,即您将 B=500 说,然后将其加倍到 1000 并比较这些引导估计的差异。这个过程可以重复直到差异尽可能小。

Efron 在文章“更好的引导置信区间(带讨论)”中给出了另一个想法,(1987 年)美国统计协会杂志,第 1 卷。82 页 171-200。