背景:我读过一篇文章,其中作者报告样本量为 878 的 Pearson 相关性为 0.754。相关性检验的结果 p 值为“两星”显着(即 p < 0.01)。但是,我认为在如此大的样本量下,对应的 p 值应该小于 0.001(即三颗星显着)。
- 可以仅根据 Pearson 相关系数和样本量计算此测试的 p 值吗?
- 如果是,如何在 R 中做到这一点?
背景:我读过一篇文章,其中作者报告样本量为 878 的 Pearson 相关性为 0.754。相关性检验的结果 p 值为“两星”显着(即 p < 0.01)。但是,我认为在如此大的样本量下,对应的 p 值应该小于 0.001(即三颗星显着)。
是的,如果您使用 Fisher 的 R-to-z 转换,它可以做到。其他方法(例如引导程序)可能有一些优势,但需要原始数据。在 R 中(r是样本相关系数,n是观察次数):
z <- 0.5 * log((1+r)/(1-r))
zse <- 1/sqrt(n-3)
min(pnorm(z, sd=zse), pnorm(z, lower.tail=F, sd=zse))*2
另请参阅我博客上的这篇文章。
也就是说,它是 .01 还是 .001 并不重要。正如您所说,这主要是样本量的函数,并且您已经知道样本量很大。合乎逻辑的结论是,您甚至可能根本不需要测试(尤其不需要测试相关性为 0 的所谓“零”假设)。使用N = 878,您可以对估计的精度充满信心并专注于直接解释它(即在您的领域中是 0.75 大吗?)。
然而,正式地,当您在 Neyman-Pearson 框架中进行统计测试时,您需要提前指定错误级别。因此,如果测试结果确实很重要,并且研究计划以 0.01 作为阈值,则报告p < .01才有意义,您不应根据获得的p值机会性地将其设为p < .001。这种类型的未公开的灵活性甚至是批评小星星的主要原因之一,更普遍的是,在社会科学中实践无效假设显着性检验的方式。
另见 Meehl, PE (1978)。理论风险和表格星号:卡尔爵士、罗纳德爵士和软心理学的缓慢进展。咨询与临床心理学杂志, 46 (4), 806-834。(标题包含对这些“明星”的引用,但内容是对显着性检验作用的更广泛讨论。)
您使用 Fisher 的 R-to-z 转换。
有一个替代统计:
abs(r)*sqrt((n-2)/(1-r^2)) ~ t.dist(d.f.=n-2)
具有 n-2 个自由度的 t 分布。例如,这是如何工作的:http ://www.danielsoper.com/statcalc3/calc.aspx?id=44