解释 Fisher 与 Neyman-Pearson 框架中的 p 值

机器算法验证 假设检验 统计学意义 p 值
2022-03-20 22:47:37

在 Fisher 的显着性检验和 Neyman-Pearson 的假设检验下,我对 p 值的含义有些困惑。

Fisher 使用 p 值作为针对零假设的证据的连续测量?所以 p 值为 0.06 表示没有差异并且原假设为真?

然而,这在 Neyman-Pearson 的领导下是否意味着同样的事情。我知道您必须为类型 1 错误预设 alpha 值,但这会影响 p 吗?大于 alpha 的 p 值是否表明发生第一类错误的可能性 >5%?

2个回答

Fisher 使用 p 值作为针对零假设的证据的连续测量?

也许。是什么让你相信这一点?

所以 p 值为 0.06 表示没有差异并且原假设为真?

一点也不。你是如何从“持续证据反对”到“没有区别”的?

特别是,Fisher 不会错误地认为未能拒绝使H0实际上为真。

大于 alpha 的 p 值是否表明发生第一类错误的可能性 >5%

不,有两个原因。

(i) 如果p>α你不会拒绝,所以你根本不能犯第一类错误

(ii) 你甚至没有犯 I 类错误的概率,因为 I 类错误率是条件概率,在实际情况下,联合概率接近于零(即零假设几乎从不完全正确;只有当它们完全正确时,您才能犯 I 类错误)。α

[ ...我想我可以说我在那里更像是一个贝叶斯主义者]

这里的问题是您需要更清楚地了解这些术语的定义,以及这些定义的含义。

将 p 值作为针对零假设的证据的连续衡量意味着“无差异”和“差异”之间没有“明线”。因此,p基本相同基本相同此外,仍然非常相似,就反对零假设的证据数量而言。 p=.04p=.06p=.06p=.08p=.04p=.08

如果你正确地遵循 Neyman-Pearson 范式,你不会在时拒绝原假设。因此,I 类错误是不可能的请记住,I 类错误被定义为在原假设为真时拒绝原假设。由于您没有拒绝零假设,因此这不适用。 p>α

阅读我对相关问题的回答可能会对您有所帮助: 何时使用 Fisher 和 Neyman-Pearson 框架?