为什么它被称为标准“错误”而不是标准“不确定性”?

机器算法验证 术语 标准错误 不确定 历史
2022-04-04 20:59:51

统计数据的标准误差是其抽样分布的标准偏差(或其估计值)。为什么这被称为错误?在计量学中,测量误差是(未知)真值与测量值之差;测量不确定度是对(未知)真值周围许多测量值的离散度的估计。如果该离散度是正态分布的,而且通常是正态分布,那么许多测量值的标准偏差可以用作标准不确定度的估计值。 维基百科指出样本均值的标准误差是对样本均值可能与总体均值相差多远的估计值,但这听起来更像是标准不确定性,而不是标准误差。这令人困惑。

为什么它被称为标准的“错误”而不是标准的“不确定性”?

1个回答

像许多术语一样,“为什么使用这个术语而不是另一个术语”的问题是历史偶然的问题。有时结果是美好的,有时则不那么美好。我认为在这种情况下,有一点背景是合理的。

尤尔在 1897 年使用它[1],在我认为其意图非常明确的特定短语的上下文中:

“我们看到σ11r2是估计时的标准误x"

[这又被牛津英语词典引用,并在标准错误条目(由约翰奥尔德里奇)中提到[2].]

这里有一点上下文(注意该期刊早已失去版权):

再次参考表达式 (8),我们看到 σ1√(1−r^2) 是根据特征 x = r σ1 / σ2 估计 x 时的标准误差。 y,同样 σ2√(1−r^2) 是根据第二个特征 y = r σ2 / σ1 估计 y 的标准误差。 X 。

Yule 后来将这种用途扩展到估计其他数量。

我认为“估计时产生的标准误差”这个数量已经足够清楚了,一旦清楚了来源,速记标准误差就不会那么模糊了。

我不确定“不确定性”是否会受到类似问题的影响(技术含义与普通含义不同);例如,不确定性可能很容易被解释为犹豫无论我们使用什么词,我们仍然必须明确实际的技术含义。

当然,不管你喜不喜欢这个词,一旦人们开始把这个词当作常规词,比如 QWERTY 键盘,它就已经根深蒂固了。你几乎被它困住了。

[1]Yule, GU (1897),“关于相关理论”,《皇家统计学会杂志60,812-854

[2]Miller, J. “一些数学词汇的最早已知用途”。
http://jeff560.tripod.com/s.html
(替代:https ://mathshistory.st-andrews.ac.uk/Miller/mathword/s/ )