比较大型数据集中的二项式结果响应率

机器算法验证 统计学意义 民意调查 大数据
2022-04-20 03:06:42

这似乎是一个微不足道的问题,但我缺乏分布式培训导致我可能会得到更令人困惑的答案。因此,我想在这里提出我的问题:

我有数十万受访者在 2011 年接受医疗保健的数据,以及他们及其从业者的人口统计信息。我们正在进行探索性分析,以比较这些因素之间的一致性是否会导致总体上或多或少的满意度。

我们想要制作的描述性表格是令人满意的回应率,将一些人口因素和指标制成表格,表明它们是否高于“平均值”。我们面临的问题是原始比例在样本量上仍然如此之大,尽管数字明显一致(67% 对 68% 的差异),但所有响应配置文件都显示出显着不同的积极响应比例。

我可以想到很多方法,但找不到任何一种方法的文献或确凿证据。我们对预测区间不感兴趣。对具有共同分母的比率(例如,每年每 100 次调查的积极响应率)标准化积极响应是有道理的,但我仍然看到,大样本量将导致这些比率估计的不切实际的小标准误差。调整多重比较是有道理的,但出于错误的原因:我们对标记具有临床意义的效应大小感兴趣,因此很难证明基于实现这一点的多重性的效应大小截止是合理的。

具有大样本量的人如何与合理的 alpha 水平和效果大小差异进行比较?

1个回答

我认为答案很简单。大样本量是一件幸事。不要为此感到难过。标准误差是现实的。您遇到的问题是您想到了一个传统的零假设,即差异恰好为 0,而另一种选择是它在统计上与 0 显着不同。但是您并没有被该零假设所困扰!假设只有大于 5% 的差异具有临床意义。那么零假设是|p1-p2|<0.05,而替代假设是大于0.05。我假设性地取了 0.05。选择您认为具有临床意义的任何增量。您有幸拥有足够的数据来得出有意义的结论!