时间序列和线性回归之间有什么关系和区别?

机器算法验证 回归 时间序列
2022-03-25 11:52:10

时间序列和线性回归之间有什么关系和区别?

我对线性回归有很强的把握,对时间序列分析是初学者;我知道 Box-Jenkins 方法并理解这些概念。为了巩固这种理解,我想比较和对比这两种方法,以了解时间序列分析是否是线性回归的扩展

也许回答这个问题的最好方法是比较和对比每种方法的模型假设。时间序列分析是否共享线性回归的所有假设,并添加了一些额外的假设(与自相关、平稳性等相关)?

注意:这个问题已经在这里被问过了,但答案跑题了,并讨论了康奈尔大学教授对时间序列分析的理解的缺陷。我没有足够的声誉来评论该线程。

2个回答

在统计学的背景下,线性回归是通过最大化模型线性基础的误差是正态分布的平均值的可能性来解决的。在最大化过程中,我们假设观测值是独立同分布的,对于时间序列数据显然不是一个合理的假设。

从普通回归到时间序列回归:

时间序列回归模型是普通回归模型的扩展,其中存在以下条件:

 及时观察变量。

 允许自相关。

 目标变量会受到过去输入值的影响。

资料来源:德保罗大学 CSC 425 讲座幻灯片

我认为这个答案缺乏完整的细节,但没有错。@IrishStat 提供了一个文档链接,该文档很好地涵盖了这些差异。这些一起回答了原始问题的第一部分。

我仍在寻找后半部分的答案:时间序列分析是否共享线性回归的假设,加上一些?例如,线性回归对 X 回归量有多个假设,例如没有多重共线性、与 Y 的线性关系(相关性)、X 回归量和模型残差不相关等。所有这些仍然适用于时间序列分析吗?如果我们可以列出这两种方法共有的假设的完整列表,那将非常有帮助。感谢大家!