我一直在使用自举计算相关性的 p 值。无论成对计算的数量如何,我一直在使用相同的 p 值截止值。直觉上,在我看来,我执行的相关性越多,我就越有可能因为随机机会而获得虚假相关性。
在测试多重相关性时,使用引导程序是否会改变您处理 I 类错误问题的方式?
我一直在使用自举计算相关性的 p 值。无论成对计算的数量如何,我一直在使用相同的 p 值截止值。直觉上,在我看来,我执行的相关性越多,我就越有可能因为随机机会而获得虚假相关性。
在测试多重相关性时,使用引导程序是否会改变您处理 I 类错误问题的方式?
我也没有百分百关注你的情况,但我怀疑这并不重要。多重比较问题的出现仅仅是由于查看许多随机事物的数学。也就是说,每个统计检验都可以理解为一次伯努利试验。如果原假设在每种情况下都成立,则您有一个概率为 0.05 且 N 等于检验次数的二项式分布。(如果空值从不成立,则您有一个概率等于统计功效且 N 相同的二项式。)因此,如果空值始终为真,并且测试是独立的,则不犯任何I 类错误的概率为.
自举并不能让你摆脱这个事实。Bootstrapping 提供了一种方法来处理您的检验统计量可能不遵循大样本理论假设的分布的情况。(这可能是因为数据的分布太不正常,而且您的样本不够大,无法补偿;在某些情况下,例如 Cauchy 数据,样本永远不会足够大。)如果您的数据具有代表性在相关人群中,Bootstrapping 可能允许您计算适当的 p 值(适用某些条件)。然而,这个问题与多重比较的问题是正交的;也就是说,自举将为您提供大小为 1 的“家庭”的适当 p 值。
多重比较的问题通常用多重 t 检验来讨论。我想你很清楚使用相关性而不是 t 检验是无关紧要的事实。在这方面,使用自举抽样分布而不是分析抽样分布是完全类似的。
提出这些观点后,问题是如何处理您的案例中的多重比较问题,因为引导程序没有为您提供任何保护。你应该知道,这个话题长期以来一直存在争议,学者们争论不同的策略,甚至是否值得为这个问题烦恼。关于 CV 的多重比较有很多讨论;如果您在标签上搜索(即点击它),您将能够获得大量信息。
但是自举确实提供了一种简单的方法来进行多重比较(如果您不喜欢测试,包括同时间隔),以一种渐近一致的方式结合依赖结构。“自举不能让你摆脱这个事实”的说法具有误导性,因为它遵循关于独立性的声明。所以事实上,与上一篇文章中所建议的假设独立性相比,自举确实提供了明显的优势。估计的相关性实际上是依赖随机变量,并且这些依赖关系通过引导向量重采样简单而自然地结合在一起。这种重采样还结合了多元数据生成过程的非正态特征。