Kullback-Leibler 散度:负值?

机器算法验证 kullback-leibler
2022-03-23 01:47:48

Wikipedia - KL properties说 KL 永远不会是负数。但是例如对于概率很小的文本,我会以某种方式得到负值?例如

集合 A:-字数:321 文档数:65888 概率:0,004871904

集合 B:-字数:1244 文档数:120344 probB:=0,010337034

KL =0.004871904ln0.0048719040.010337034=0.003664881

1个回答

KL-divergence 是q的所有值上的总和您的方程式中只有一个实例()。例如,如果您的模型是二项式的(您的文档中只出现了两个可能的单词)并且在文档 1 中为 0.005,在文档 2 中为 0.01,那么您将有:q(i)logq(i)p(i)iiPr(word1)

KL=0.005log0.0050.01+0.995log0.9950.99=0.0015470.

根据 Gibbs 不等式,这个总和(或连续随机变量的积分)将始终为正(参见http://en.wikipedia.org/wiki/Gibbs%27_inequality)。