互信息对可逆变换真的不变吗?

机器算法验证 信息论 互信息
2022-03-27 19:51:03

“估计互信息” [A Kraskov, H Stögbauer, P Grassberger - Physical Review E, 2004] 指出

在边际变量的重新参数化下,互信息是不变的。如果是同胚[即。平滑唯一可逆映射],则X=F(X)Y=G(Y)

I(X,Y)=I(X,Y)

这篇论文也被用于维基百科来证明同样的说法。

但如果这是真的,那是否意味着如果我们得到 其中是微分熵?F=GX=Y

H(X)=I(X,X)=I(X,X)=I(F(X),F(X))=H(F(X))
H

这难道不是“证明”微分熵也是不变的吗?这样的转换(显然不是因为例如对于常数)?aH(aX)=H(X)+log|a|H(X)

特别是我想知道是否适用于所有同胚I(X,F(X))=H(X)=H(F(X))F

有人可以帮助我减少不确定性吗?

PS:我说的是连续案例,即。微分熵和微分互信息

1个回答

如果您完全为连续随机变量定义,则它的正确值是无限的,而不是的值为的无限信息例如,如果只是一个均匀随机的实数,它几乎肯定需要无限多的位来描述它(没有像 pi 这样的模式)。I(X;X)I(X;X)=H(X)XXX

OTOH,对于不同的变量(无论多么相似),的有限信息如果您充分放大到中的某个点,它会看起来很平坦,因此在该区域内实际上是独立的。然而,描述该区域的位置需要有限数量的位,并指定该区域中的确切点需要无限数量的位。的共享信息存在于有限的位数中,因此互信息是有限的。然而,如果XYXYp(x,y)XYXYX=Y,那么无论你放大多少,知道总会告诉你在哪里,给你无限的信息。这就是为什么非常不同的原因XYI(X;X)I(X,Y)

如果这不令人信服,您可以尝试一些计算。示例:的二元高斯的互信息为趋于趋于无穷大(x,y)Var(x)=Var(y)=1Cov(x,y)=rI(x;y)=0.5log(1r2)r1