模型有一个完整的充分统计量当且仅当最小充分统计量是完整的(根据Lehmann “完整性和巴苏定理的解释”)。这意味着您不能以您想要的方式和正如论文所说(第二栏的第一个完整段落)θPθ T1(X)T2(X)
另一方面,完全充分统计量的存在等价于最小充分统计量的完备性,因此是模型的一个性质。P
也就是说,在任何给定的模型中,如果是完全充分的并且是充分的,也是完全充分的。T2T1T1
这两个定理说
1/ Rao-Blackwell:以任何足够的统计量为条件将减少方差。这遵循总方差定律
2/ Lehmann-Scheffé:在模型具有完全充分统计量的特殊情况下,您将获得一个完全有效的估计量。
在 Poisson 情况下,最小充分统计量是完整的,并且两个估计量相同。X¯
这里有一个有趣的例子,说明 Rao-Blackwell 类型的估计器不是完全有效的(甚至不可接受)。该模型是用于已知和未知。Cramér-Rao 界不适用,因为的范围取决于。一个充分的统计量是对,并且任何观察都是无偏估计量,但是甚至不是两个分量的最佳线性函数的充分统计。X∼U[θ(1−k),θ(1+k)]kθXθ(minX1,maxXn)E[X1|(minX1,maxXn)]
还有几点可以填补潜在的空白:
这留下了一个悬而未决的问题,即是否可能存在使用 Lehmann-Scheffé 定理无法获得的 Cramér-Rao 界的无偏估计量。没有(在相当好的模型中):任何达到界限的模型都有一个形式为
对于某些(其中是信息),在这种情况下既是的完全充分统计量,又是最小方差无偏估计量。∂ℓ∂θ=I(θ)(g(x)−θ)
g()I()g(x)θ
正如@AdamO 所指出的那样,这些都不能整齐地转化为渐近:有渐近无偏估计器在一个点(霍奇斯超高效估计器)甚至在密集的测量零集(Le Cam 对霍奇估计器的扩展)上击败了渐近信息约束。你能做的最好的是局部渐近极小极大定理,它说你不能在直径为θ0O(n−1/2)