在阅读有关机器学习的论文时,我发现作者经常会引用“香农熵”。奇怪的是,给出的等式通常是:
例如,参见:
https://arxiv.org/pdf/1502.00326.pdf
https://www.elen.ucl.ac.be/Proceedings/esann/esannpdf/es2014-121.pdf
还有很多
问题是,对于曾经上过信息论课程的人来说,熵定义中的对数项是基数, 不是基础. 所以他们指的是更像吉布斯熵而不是香农熵。
而本文中的定义对我来说是正确的: http ://www.fizyka.umk.pl/publications/kmk/08-Entropie.pdf
有没有其他人注意到这个现象?如果使用吉布斯熵代替香农熵,会有问题吗?