长期以来,我一直面临着关于熵的困惑,如果用较少的技术术语回答以下问题,我将不得不这样做。跟随链接不同种类的熵提出了以下问题
- 熵——希望系统的熵最大化。最大化熵意味着没有符号比其他符号更好,或者我们不知道下一个符号/结果会是什么。但是,该公式在概率对数的总和之前声明了一个负号。因此,这意味着我们正在最大化负值!!然后,如果对原始原始信号进行量化并计算量化信息的熵并发现它小于原始熵将意味着信息丢失。那么,为什么我们要最大化熵,因为这意味着我们正在最大化下一个符号的不确定性,而我们想要确定符号的下一个出现是什么。
- 香农熵、拓扑熵和源熵有什么区别?
- Kolgomorov 复杂性或 Kolgomorov 熵的意义究竟是什么。它与香农的熵有什么关系?
- 两个向量之间的互信息传递什么信息?