根据 Wikipedia,G 检验统计量“与经验分布与理论分布的 Kullback-Leibler 散度成正比”。得到之间的关系和KL散度:
这是我有点困惑的地方。代表分歧(预期分布)来自(观察到的分布)。这与维基百科页面中的陈述相反(假设“理论”是指预期,“经验”是指观察到的)。
现在从 KL 散度的信息论解释来看,is 代表“真实”分布,并且是“近似值”。但从这个推导来看,结果似乎违反直觉。预期分布不应该对应于真实分布,而观察到的分布不应该对应于近似值吗?
根据 Wikipedia,G 检验统计量“与经验分布与理论分布的 Kullback-Leibler 散度成正比”。得到之间的关系和KL散度:
这是我有点困惑的地方。代表分歧(预期分布)来自(观察到的分布)。这与维基百科页面中的陈述相反(假设“理论”是指预期,“经验”是指观察到的)。
现在从 KL 散度的信息论解释来看,is 代表“真实”分布,并且是“近似值”。但从这个推导来看,结果似乎违反直觉。预期分布不应该对应于真实分布,而观察到的分布不应该对应于近似值吗?
人们使用与 KL 散度不一致的语言。有时“的分歧从“ 方法; 有时这意味着.
由于使用基于近似值构建的代码对真实分布进行编码,因此确实有一个很好的信息论解释作为效率低下。
但这并不意味着永远不会出现;它一直都在。信息论解释是关于基于预期分布的代码,您可以如何有效地表示数据本身。事实上,这与数据在预期分布下的可能性密切相关: