如何用二元工具和二元内生变量解释工具变量回归中的第二阶段系数?

机器算法验证 计量经济学 解释 二进制数据 工具变量
2022-03-20 10:48:37

(相当长的帖子,对不起。它包含很多背景信息,所以请随时跳到底部的问题。)

简介:我正在做一个项目,我们试图确定二元内生变量对连续结果的影响。我们提出了一种工具,我们坚信它是随机分配的。x1yz1

数据:数据本身采用面板结构,大约 34,000 个观测值分布在 1000 个单位和大约 56 个时间段内。在大约 700 (2%) 的观测值中取值 1,而在大约 3000 (9%) 处取值。111 (0.33 %) 次观察在上也得分 1,则上得分 1 的可能性是其两倍x1z1z1x1x1z1

估计:我们通过Stata的ivreg2-procedure估计以下2SLS模型:

x1=π0+π1z1+Zπ+v
y=β0+β1x1+Zβ+u

其中是其他外生变量的向量, 是来自第一阶段的预测值是误差项。Zx1x1uv

结果:一切似乎都运行良好;的估计在第一阶段非常显着,而的估计在第二阶段非常显着。所有迹象都符合预期,包括其他外生变量的迹象。然而,问题是,β1 的估计值感兴趣的系数——是难以置信的大(或者,至少,根据我们一直在解释它的方式)。π1β1β1

y的范围从大约 2 到大约 26,平均值和中位数为 17,但是的估计范围从 30 到 40(取决于规范)!β1

弱IV:我们首先想到的是仪器太弱了;也就是说,与内生变量的相关性不高,但事实似乎并非如此。为了检查仪器的弱点,我们使用了 Finlay、Magnusson 和 Schaffer 的weakiv-package,因为它提供了对违反假设的鲁棒性测试(这是相关的,因为我们有面板数据并将我们的 SE 聚集在单位级别)。i.i.d.

根据他们的 AR 测试,第二阶段系数的 95% 置信区间的下限在 16 到 29 之间(再次取决于规范)。对于任何接近零的所有值,拒绝概率实际上为 1。

有影响力的观察: 我们尝试在单独移除每个单元、单独移除每个观察以及移除单元集群的情况下估计模型。没有真正的改变。

建议的解决方案:有人提出我们不应该在其原始度量(0-1)中总结检测到的的估计效果,而是在其预测版本的度量中。范围从 -0.01 到 0.1,平均值和中位数约为 0.02,SD 约为 0.018。增加一个 SD来总结的估计效果,那将是 (其他规范给出几乎相同的结果)。这将更加合理(但仍然很重要)。似乎是完美的解决方案。除了我从未见过有人这样做;每个人似乎都只是使用原始内生变量的度量来解释第二阶段系数。x1x1x1x10.01830=0.54

问题:在 IV 模型中,通过使用预测版本的度量来总结内生变量增加的估计效果(实际上是晚期)是否正确?在我们的例子中,该指标是预测概率。

注意:我们使用 2SLS,即使我们有一个二元内生变量(使第一阶段成为 LPM)。这遵循 Angrist & Krueger (2001):“工具变量和识别搜索:从供需到自然实验”)我们还尝试了 Adams、Almeida 和 Ferreira (2009) 中使用的三阶段程序:“了解创始人-CEO与公司绩效之间的关系”。后一种方法由概率模型和 2SLS 组成,产生更小和更合理的系数,但如果以 0-1 度量(约 9-10)解释,它们仍然非常大。我们通过手动计算得到与使用 Cerulli 的 ivtreatreg 中的 probit-2sls-option 相同的结果。

1个回答

这是一个老问题,但对于任何在未来偶然发现它的人来说,直观上,的 2SLS 估计是来自“简化形式”回归的β1α1

y=α0+α1z1+Zα+u

从“第一阶段”回归除以π1

x1=π0+π1z1+Zπ+v

的 2SLS 估计值“难以置信地大”,请检查的 OLS 估计值。β1α1π1

如果估计是“合理的”,那么问题可能是估计“非常小”。除以一个“非常小的”可以产生一个“难以置信的大”α1π1α^1π^1β^1