回答问题 1。
Chen & Chan “通过自适应套索进行子集 ARMA 选择”(2011 年)* 使用一种解决方法来避免计算要求高的最大似然估计。引用该论文,他们
的自适应 Lasso 回归拟合到其自身的滞后以及通过将长自回归拟合到获得的残差来找到最佳子集 ARMA 模型。<...> [U]在温和的正则性条件下,所提出的方法实现了预言性质,即随着样本量增加到无穷大,它以概率趋于1的概率识别出正确的子集ARMA模型,并且<...>非零系数的估计量是渐近正态的,其极限分布与零系数先验已知时的分布相同。ytyt
可选地,他们建议对选定的子集 ARMA 模型进行最大似然估计和模型诊断。
威尔姆斯等人。“高维向量自回归移动平均线的稀疏识别和估计”(2017 年)做得比我要求的还要多。他们没有使用单变量 ARIMA 模型,而是采用高维向量 ARMA (VARMA),并使用惩罚来进行估计和滞后顺序选择。他们提出了估计算法并开发了一些渐近结果。L1
特别是,他们采用两阶段程序。考虑一个需要估计的 VARMA 模型
,但是滞后订单和是未知的。
yt=∑l=1pΦlyt−l+∑m=1qΘmεt−m+εt
pq
在第 1 阶段,他们通过高阶 VAR 模型逼近 VARMA 模型,并使用分层 VAR 估计器对其进行估计,该估计器将基于滞后的分层组套索惩罚置于自回归参数上。
(滞后阶数设置为。模型方程是联合估计的,误差的 Frobenius 范数用层次组最小化-lasso 对回归系数的惩罚。)
他们获得残差用作阶段 2 中真实错误的代理。⌊1.5T−−√⌋||y−y^||F2
ε^:=y−y^
在第 2 阶段,他们估计一个 VARX 模型,其中 X 表示第 1 阶段的滞后残差。也就是说,他们缩小 VARMA 模型,但使用估计的残差代替真实误差,允许再次应用相同的估计器(分层组套索),就像在舞台中一样1.
(和设置为。)
yt=∑l=1p^Φlyt−l+∑m=1q^Θmε^t−m+ut,
p^q^⌊1.5T−−√⌋
Wilms 等人的方法。在 R 包"bigtime"中实现。
参考
*感谢@hejseb 提供链接。