最近,当我给出一个关于均匀分布参数的最小方差无偏估计的即兴回答时,我感到非常尴尬,这是完全错误的。幸运的是,我立即得到了红衣主教和亨利的纠正,亨利为 OP 提供了正确的答案。
不过,这让我开始思考。大约 37 年前,我在斯坦福大学的研究生数学统计课上学习了最佳无偏估计理论。我记得 Rao-Blackwell 定理、Cramer-Rao 下界和 Lehmann-Scheffe 定理。但作为一名应用统计学家,我在日常生活中并没有过多考虑 UMVUE,而最大似然估计却出现了很多。
这是为什么?我们在研究生院是否过分强调UMVUE理论?我认同。首先,不偏不倚不是关键属性。许多非常好的 MLE 都是有偏见的。Stein 收缩估计量是有偏的,但在均方误差损失方面优于无偏 MLE。这是一个非常漂亮的理论(UMVUE 估计),但非常不完整,我认为不是很有用。别人怎么看?