KL-Divergence 可以大于 1 吗?

机器算法验证 数理统计 信息论 距离函数 kullback-leibler
2022-03-03 04:19:58

我一直在基于 KL-Divergence 构建一些测试统计数据,

DKL(pq)=ip(i)log(p(i)q(i)),

最后我的分布值为请注意,这些分布支持 K 级别,所以我认为在这里绘制整个分布并不合理。1.9140

我想知道的是,KL-Divergence 是否可能大于 1?我看到的很多 KL-Divergence 的解释都是基于 1 的上限。如果它可以大于 1,KL-Divergence 超过 1 的解释是什么?

编辑:我知道这是一个不好的参考选择,但是关于 KL Divergence 的 Wikipedia 文章表明,“Kullback-Leibler 散度为 1 表明这两个分布的行为方式不同,以至于给定第一个分布的期望值接近于零。” 我曾认为这暗示这意味着 KL-Divergence 以 1 为界,但很明显这是文章中的错误。

1个回答

Kullback-Leibler 散度是无限的。实际上,由于没有上限例如,Normal和 Normal之间的 Kullback-Leibler 散度为 这显然是无界的。q(i)p(i)/q(i)N(μ1,σ12)N(μ2,σ12)

12σ12(μ1μ2)2

维基百科[众所周知是错误的!] 确实指出

“...... Kullback-Leibler 散度为 1 表明这两个分布的行为方式如此不同,以至于给定第一个分布的期望值接近于零。”

这没有任何意义(期望哪个功能?为什么是 1 而不是 2?)

来自同一 维基百科页面的更令人满意的解释是 Kullback-Leibler 散度

“......可以解释为使用针对 Q 优化的代码而不是针对 P 优化的代码来测量从 P 中编码样本所需的预期额外比特数。”