我了解到 Kolmogorov Smirnov 在尾部失去了灵敏度(功率),因此它不足以测试肥尾分布的拟合优度。然而,Anderson Darling 检验在尾部更敏感,因此比 KS 检验更适合肥尾分布。
但是这个陈述是否有任何解释(直觉上或理论上)?对此有什么好的参考吗?
我了解到 Kolmogorov Smirnov 在尾部失去了灵敏度(功率),因此它不足以测试肥尾分布的拟合优度。然而,Anderson Darling 检验在尾部更敏感,因此比 KS 检验更适合肥尾分布。
但是这个陈述是否有任何解释(直觉上或理论上)?对此有什么好的参考吗?
Kolmogorov-Smirnov 寻找数据的 cdf 和经验 cdf 之间的最大差异。
还有另一个测试——Cramér-von Mises 测试——查看 cdf 差异的平方和(在数据处)。它通常比 Kolmogorov-Smirnov 对我们想要获取的差异更敏感(因为它可以“累积”小的但一致的差异,而不是需要一个大的差异)。
这两个测试的问题在于 cdf 的尾部比中间更精确(在同样的意义上,人口比例接近 0 或 1 的样本估计值的方差低于接近 0.5 的样本估计值)。
证明这一点的代数并不是特别困难,但是我们可以很容易地观察到这一点,而无需进行数学运算;我们不需要执行它来获得对正在发生的事情的直觉;我们可以做一些更简单的事情。
这里我模拟了从标准制服中抽取的 100 组数据,每个数据集的样本大小为 25。然后我绘制了每个数据集的经验 cdf(第一个这样的数据集以蓝色显示;其余的都是灰色和对于那些我没有在每个步骤的左侧绘制点的人,只是步骤本身):
正如我们在图中看到的,当总体 cdf 接近 0.5 时(垂直)分布最宽,当总体 cdf 接近 0 或 1 时最窄;人口 cdf ( ) 是从 (0,0) 到 (1,1) 的对角线。经验 cdf 的抽样分布中这种变化分布的模式发生在每个分布中;的标准差)仅与和。
我们可以利用像 Kolmogorov-Smirnov 和 Cramér-von Mises 测试这样的简单测试忽略的附加信息。
如果您计算 Cramér-von Mises 的加权版本(权重与该方差成反比),那么您最终会得到 Anderson-Darling 统计量;也就是说,它正确地(在特定意义上最佳地)解释了尾部的 cdf 被更精确地估计的事实;这使得它对尾部的差异比前两个统计数据更敏感,前两个统计数据没有使用我们可以更精确地估计尾部 cdf 的事实。