p 值的微妙之处:更大等于与更大

机器算法验证 假设检验 卡方检验 p 值
2022-03-05 18:37:20

当我阅读 Wassermann 的《所有统计》一书时,我注意到 p 值的定义中有一个微妙之处,我无法理解。非正式地,Wassermann 将 p 值定义为

[..]观察到检验统计量值与实际观察到的值相同或更极端的概率(在下) 。H0

重点补充。更正式的相同(定理 10.12):

假设大小测试的形式为α

拒绝当且仅当H0T(Xn)cα

然后,

p-value=supθΘ0Pθ0[T(Xn)T(xn)]

其中xnXn的观察值。如果Θ0={θ0}那么

p-value=Pθ0[T(Xn)T(xn)]

此外,Wassermann 将 Pearson 的χ2检验(以及其他类似检验)的 p 值定义为:

p-value=P[χk12>T].

我想要求澄清的部分是第一个定义中的更大等号()和第二个定义中的更大(>)符号。我们为什么不写T,它会匹配“相同或更极端”的第一个引号?

这纯粹是为了方便我们将 p 值计算为1F(T)吗?我注意到 R 也使用带有>符号的定义,例如 in chisq.test

2个回答

“作为或更极端”是正确的。

那么,正式地,如果分布使得获得检验统计量本身的概率为正,则该概率(以及任何同样极端的情况,例如另一条尾部的相应值)应该包含在 p 值中。

当然,对于连续统计,完全相等的概率为 0。如果我们说没有​​区别。>

的第一点是假设空间在整个参数空间内是拓扑封闭的。在不考虑随机性的情况下,如果您对属于假设的参数收敛序列有一些断言,这可能是一个有用的约定,因为这样您就会知道极限不会突然属于替代方案。

现在考虑概率分布,它们(通常)是右连续的。这意味着闭合假设空间到区间的映射再次闭合。这就是为什么置信区间也按惯例封闭的原因。[0,1]

这增强了数学。想象一下,您将为非对称概率分布的位置参数构造一个置信区间。在那里,您必须将上尾的长度换成下尾的长度。两条尾巴的概率总和应为为了使 CI 尽可能地提供信息,您必须缩短 CI 的长度,使其覆盖概率仍然是这是一个封闭的集合。您可以通过一些迭代算法在那里找到最佳解决方案,例如 Banach 的不动点定理。如果它是一个开集,你不能这样做。α1α