引用 Kevin Murphy 在他的书“机器学习 - 概率视角”中的话,相关性是“一种非常有限的依赖度量”。他在介绍互信息的概念之前谈到了这一点。
为什么相关系数是“有限的依赖性度量”?是否有一些与其计算相关的假设?
引用 Kevin Murphy 在他的书“机器学习 - 概率视角”中的话,相关性是“一种非常有限的依赖度量”。他在介绍互信息的概念之前谈到了这一点。
为什么相关系数是“有限的依赖性度量”?是否有一些与其计算相关的假设?
这在Wikipedia entry for Correlation and Dependence中有解释。相关性基本上衡量两个变量与它们之间的线性关系的接近程度。现在考虑和。那么如果你知道,你就知道,如果你知道,你就知道的符号。因此它们不是独立的。然而,一个简单的计算表明它们的相关性为 0。
一个简单的例子。上的任何对称分布,随机变量与其平方之间的相关性为零。这是变量及其平方的均值:
让我们计算 Pearson 相关性:
但是,如果我知道的一切。这是一个例子,其中相关性并不能揭示两个变量之间的关系有多强。