如何使用 R 使用 t 检验比较两个样本的组均值?

机器算法验证 r 假设检验 t检验
2022-03-30 11:55:29

语境

我需要比较两组学生。这些小组的学生做了一些工作,后来进行了评估。现在我有了每个学生的准确性的价值观。结果如下:

0.2 0.065 0.123 0.075 0.181 0.054 0.185 0.106 0.142

0.269 0.357 0.2 0.221 0.275 0.277 0.253 0.127 0.246

我想检查第一组在准确性方面是否比第二组更好。由于样本很小,我考虑使用 t 检验来比较样本。

H0假设是两组的准确率相等

H1假设是第1组的准确率大于第2组的准确率。

我使用了以下 R 函数:

t.test(precisionAdHoc$adhoc, precisionH4U$H4U, "g", 0, FALSE, TRUE, 0.95)

whereprecisionAdHoc$adhoc保存第一组的数据并precisionH4U$4HU保存第二组的数据。

我得到以下结果:

data:  precisionAdHoc$adhoc and precisionH4U$H4U 
t = -4.3687, df = 16, p-value = 0.9998
alternative hypothesis: true difference in means is greater than 0 
95 percent confidence interval:
 -0.1701334        Inf 
sample estimates:
mean of x mean of y 
0.1256667 0.2472222 

问题

  1. 我是否t.test正确使用了该功能?如果没有,我做错了什么?我应该如何纠正它?
  2. 如果函数是正确的,我应该如何解释结果?
2个回答

1) 是的,在我看来您正确使用了 t.test 函数。

2)由于您的 p 值为 0.9998,因此您只能说您没有足够的证据来拒绝您的零假设(均值相等)。换句话说,您的证据(两组的分数)并未表明第一组的平均值大于第二组的平均值。

请注意,我在回答您的第二个问题时很小心,没有得出均值相等的结论。你不能从测试中得出结论。只是你没有证据表明第一个大于第二个。

所陈述的假设显然是片面的,并且问题是以 Neyman-Pearsonian 方式建立的。这些特征可能是故意的,或者可能是 NP 是许多介绍性统计文本中的主导范式这一事实的意外结果。如果是故意的,那么分析的结果应该成立,并且接受原假设。(继续前进,这里没什么可看的……)但是,还有其他值得考虑的范式。

如果观察到的方向上的效果很有趣(或者,有些人可能坚持我说“在实验完成之前会很有趣”),那么片面测试一开始是不明智的。如果这些数据是一系列表征实验的一部分,那么使用强制决策的 NP 方法是不合适的。相反,使用 Fisherian 方法,其中两侧 p 值作为反对零假设的证据的索引(在这种情况下指向相当有力的证据反对零假设)。另一种产生证据的方法是确定结果的似然函数,然后可以使用来自相同零假设的后续测试的证据进行更新。

对某些人来说,这些建议听起来很古怪,几乎是非法的。然而,我认为重要的是要指出,统计分析的许多程序和规则都来自思想流派,只不过是有主见的统计学家的意见表达而已。