如何解释 Harvey-Collier 检验和 Rainbow 检验的线性方向?

机器算法验证 r 诊断 线性的 线性度 非线性
2022-03-17 15:46:58

我使用 lmtest 包用 R 实现了这两个测试。两个测试在方向上都说了同样的事情(我认为),p 值非常相似,非常接近 0。但是,这些测试是否表明基础回归模型的残差是足够线性的。还是他们说的正好相反。我知道测试的细微差别略有不同。Harvey-Collier 检验指示残差是否是线性的。同时,Rainbow 检验表明即使某些潜在关系不是线性的,模型的线性拟合是否足够。非常感谢对这些结果的解释的任何见解。

我在下面发布测试结果:

在带有 lmtest 包的 R 中。

harvtest(回归,order.by = NULL)

    Harvey-Collier test

数据:回归 HC = 4.3826,df = 119,p 值 = 2.543e-05

Raintest(回归,分数 = 0.5,order.by = NULL,中心 = NULL)

    Rainbow test

数据:回归雨 = 1.7475,df1 = 62,df2 = 58,p 值 = 0.01664

1个回答

好的,我找不到 Harvey-Collier 测试的很好参考;他们似乎几乎都被付费墙了。然而,彩虹测试背后的直觉很容易描述。

假设您正在尝试拟合一个不合适的线性模型。让我们使用一个非常简单的二次模型,例如:XN(1,1);YX2+N(0,0.2)

彩虹测试的想法是,当您“放大”曲线(仅查看中心数据)时,曲线看起来不那么弯曲——更像一条线——并且所以模型的拟合度提高了。因此,例如,如果我们在从上面的模型中抽取 100 次的完整数据集上创建一个线性模型,这就是我们得到的:Y=X2+ϵ

全数据集回归

相比之下,如果我们限制在距离均值 1 SD 的点,我们会得到:

子集回归

如您所见,拟合显着提高,并且限制看起来也更像线性模型。

另一方面,如果真实模型是线性的,我们不会期望在这种情况下拟合会变得更好。(它可能会好一点,因为我们会拟合更少的数据点,但是线性回归会在受限数据上收敛到与完整数据集相同的模型,所以在限制范围内,你会在两者上得到相同的模型.)

彩虹测试基本上量化了我们在删除数据时期望拟合得到的改善程度,在真实模型是线性的零假设下。如果真实模型不是线性的,那么改进将比我们预期的要大。


至于您关于测试方向的具体问题,状态文档harvtest

Harvey-Collier 检验对递归残差执行 t 检验(具有参数自由度)。如果真正的关系不是线性的而是凸的或凹的,则递归残差的平均值应与 0显着不同。

(强调。)这意味着显着的结果意味着您可以拒绝真实模型是线性的零假设。

同样,raintest状态的文档:

Rainbow 检验的基本思想是,即使真实关系是非线性的,也可以在数据“中间”的子样本上实现良好的线性拟合。每当整体拟合显着低于子样本的拟合时,就会拒绝原假设。

这意味着当具有范围限制的拟合更好时(如果模型是非线性的,则会发生这种情况),就会出现显着的结果(拒绝空值)。

所以这两个测试都表明真正的模型不是线性的。