我正在开发一个关于放射性衰变的物理实验室,在分析我采集的样本数据时,我遇到了一个令我惊讶的统计问题。
众所周知,放射源单位时间内的衰变数是泊松分布的。实验室的工作方式是让学生计算每个时间窗口的衰减次数,然后重复多次。然后他们按计数对数据进行分类,并执行使用 1 个估计参数(均值)的拟合优度检验来检查原假设(数据来自具有估计均值的泊松分布)是否成立。希望他们能得到一个很大的 p 值,并得出物理学确实有效的结论(耶)。
我注意到我对数据进行分箱的方式对 p 值有很大影响。例如,如果我选择了很多非常小的 bin(例如,每个整数都有一个单独的 bin:78 个计数/分钟、79 个计数/分钟等),我得到一个小的 p 值,并且不得不拒绝原假设. 但是,如果我将数据分箱到更少的箱中(例如,使用 Sturge 规则给出的箱数:),我得到了一个更大的 p 值,并且没有拒绝原假设。
查看我的数据,它看起来非常泊松分布(它几乎与我的预期计数/分钟完全一致)。也就是说,垃圾箱中有一些计数与平均值相差甚远。这意味着当计算使用非常小的垃圾箱进行统计,我有一些术语,例如:
问题:
在进行GOF测试?
不同箱大小的结果之间的这种差异是我应该知道的,还是表明我提出的数据分析中存在一些更大的问题?
- 谢谢
*(我在本科时上过统计学课,但这不是我的专业领域。)