在平坦的先验条件下,ML(frequentist - 最大似然)和 MAP(贝叶斯 - 最大后验)估计量重合。
然而,更一般地说,我说的是作为某些损失函数的优化器派生的点估计器。IE
x^(.)=argminE(L(X−x^(y))|y) (Bayesian)
x^(.)=argminE(L(x−x^(Y))|x)(Frequentist)
其中是期望算子,是损失函数(最小化为零),是参数的估计量,给定数据 ,随机变量用大写字母表示.ELx^(y)yx
有人知道和的 pdf ,强加的线性和/或无偏性,估计量会在哪里重合?Lxy
编辑
正如评论中所指出的,要使频率问题有意义,需要诸如不偏不倚的公正性要求。平坦的先验也可能是一个共性。
除了一些答案提供的一般性讨论之外,问题实际上还在于提供实际示例。我认为一个重要的来自线性回归:
- OLS,是蓝色(高斯-马尔可夫定理),即它最小化了线性无偏估计器中的常客 MSE。x^=(D′D)−1D′y
- 如果是高斯且先验是平坦的,是“后验”均值,最小化任何凸损失函数的贝叶斯均值损失。(X,Y)x^=(D′D)−1D′y
在这里,似乎分别被称为常客/贝叶斯术语中的数据/设计矩阵。D