G 检验统计量和 KL 散度

机器算法验证 假设检验 kullback-leibler
2022-04-10 13:52:30

根据 Wikipedia,G 检验统计量“与经验分布与理论分布的 Kullback-Leibler 散度成正比”。得到之间的关系G和KL散度:

G=2iOiln(OiEi)=2inP(i)ln(nP(i)nQ(i))=2niP(i)ln(P(i)Q(i))=2n×DKL(PQ)

这是我有点困惑的地方。DKL(PQ)代表分歧Q(预期分布)来自P(观察到的分布)。这与维基百科页面中的陈述相反(假设“理论”是指预期,“经验”是指观察到的)。

现在从 KL 散度的信息论解释来看,Pis 代表“真实”分布,并且Q是“近似值”。但从这个推导来看,结果似乎违反直觉。预期分布不应该对应于真实分布,而观察到的分布不应该对应于近似值吗?

1个回答

人们使用与 KL 散度不一致的语言。有时“的分歧QP“ 方法KL(PQ); 有时这意味着KL(QP).

KL(trueapproximation)由于使用基于近似值构建的代码对真实分布进行编码,因此确实有一个很好的信息论解释作为效率低下。

但这并不意味着KL(approximationtrue)永远不会出现;它一直都在。信息论解释是关于基于预期分布的代码,您可以如何有效地表示数据本身。事实上,这与数据在预期分布下的可能性密切相关:

DKL(PQ)=iP(i)lnP(i)entropy[P]iP(i)lnQ(i)expected log-likelihood of data under Q