我在 2009 年与一位统计学家讨论过,他说 p 值的确切值是无关紧要的:唯一重要的是它是否显着。即一个结果不能比另一个更重要;例如,您的样本要么来自同一人群,要么不来自同一人群。
我对此有些疑虑,但我也许可以理解这种意识形态:
5% 的阈值是任意的,即 p = 0.051 不显着而 p = 0.049 不应该真正改变您的观察或实验的结论,尽管一个结果显着而另一个结果不显着。
我现在提出这个问题的原因是我正在攻读生物信息学硕士学位,并且在与该领域的人交谈之后,似乎有一种坚定的动力来为他们所做的每组统计数据获得准确的 p 值。例如,如果他们“实现”了 p < 1.9×10 -12的 p 值,他们想证明他们的结果有多重要,并且这个结果信息量很大。这个问题以如下问题为例:为什么我不能得到一个小于 2.2e-16 的 p 值?,他们想要记录一个值,表明仅凭偶然性,这将远小于万亿分之一。但我认为证明这一结果的发生率将低于万亿分之一,而不是十亿分之一。
我可以理解 p < 0.01 表明发生这种情况的可能性小于 1%,而 p < 0.001 表明这样的结果比上述 p 值更不可能,但如果你得出的结论完全不同的?毕竟它们都是显着的 p 值。我能想到的想要记录精确 p 值的唯一方法是在 Bonferroni 校正期间,其中阈值由于进行的比较次数而变化,从而减少 I 型错误。但即便如此,为什么要显示比阈值显着性小 12 个数量级的 p 值?
并且应用 Bonferroni 校正本身是不是也有点武断?从某种意义上说,最初的校正被视为非常保守,因此可以选择其他校正来访问观察者可以用于多重比较的显着性水平。但正因为如此,根据研究人员想要使用的统计数据,某事变得重要且本质上可变的点不是。统计数据应该对解释如此开放吗?
总之,统计数据不应该不那么主观(尽管我猜它的主观性是多元系统的结果),但最终我想要澄清一下:有什么东西比其他东西更重要吗?p < 0.001 是否足以记录准确的 p 值?