假设,我们有几个数据生成措施和,都定义在同一个概率空间上。接下来,假设我们有相同数量的独立采样数据和一些数据来自我们的目标是找到哪个分布是最接近的是KL-divergence的感觉。
KL-散度,, 不是对称的。
因此,如果我们比较对所有人, 哪一个或者, 为了作为标准考虑是否正确?
据我所知,在 AIK 标准中,一个适用于案子。
更新:
我的困惑部分来自以下事实,即 KL 是一个预度量,它在概率分布空间上生成拓扑。让我们考虑措施的顺序. 那么如果
然后
假设,我们有几个数据生成措施和,都定义在同一个概率空间上。接下来,假设我们有相同数量的独立采样数据和一些数据来自我们的目标是找到哪个分布是最接近的是KL-divergence的感觉。
KL-散度,, 不是对称的。
因此,如果我们比较对所有人, 哪一个或者, 为了作为标准考虑是否正确?
据我所知,在 AIK 标准中,一个适用于案子。
更新:
我的困惑部分来自以下事实,即 KL 是一个预度量,它在概率分布空间上生成拓扑。让我们考虑措施的顺序. 那么如果
然后
在
我们看到这是对数似然比的期望,当是事实,请参阅关于 Kullback-Leibler (KL) 分歧的直觉。
如果在假设检验语言中,是空的,而是替代方案:所以是发散的从(空)真理,而当备择假设为真时是发散的。然后你的问题:
哪个分布是最接近的是KL-divergence的感觉吗?
如果这意味着您想要一个难以区分的模型何时/如果是真的,你需要. 请记住,第一个论点是事实(这是一种说法,我们计算散度计算期望值,假设分布生成是第一个参数中给出的分布。也就是说,关于正在生成的东西的真相.)