Sakana 小组件集成

目录

因果效应

最近《世界经济》期刊线上活动讲座上,刘若鸿老师介绍了他的论文《工业用地价格与企业产能利用率》1 。分析框架借鉴了陈钊老师等人(2021)发在 AER 上的论文《Notching R&D investment with corporate income tax cuts in China》 2——使用聚束(bunching)方法研究经济现象。

《世界经济》官网已经可以下载论文代码数据量。手把手活动系列视频也可以在 B 站找到录播。听论文作者讲诉自己在选题、文献阅读、方法选择、修改稿件的心路历程,确实受益匪浅!

/img/因果效应.zh-cn-20240523113722448.webp
左刘若鸿老师论文截图,右陈钊老师论文截图。有点类似RDD,但是因为这类政策样本不满足随机干预,是一种政策集聚现象,所以采用群聚分析

刘若鸿老师提到学习这部分代码时最好了解下因果推断识别效应。附件的 do 文件也取名 ITT。我发现我竟然对“因果推断方法识别效应”这部分知识印象不深,因此在这里记录下学习过程。

因果框架有哪些?

今因果框架众多,群雄并起,统计学(本家之外,药物学、心理学也各有自家统计理解)、经济学、计算机皆有流派,交错纵横,我也不清楚整个体系到底如何。

个人接触比较多的是 Judea Pearl 的结构因果模型(Structural Causal Model, 简称 SCM)。对于他的著作《为什么》3 ,我个人理解是,关联-干预-反事实就是三个因果层级。控制变量的选用就是控制后门,工具变量的设置就是控制前门。

/img/因果效应.zh-cn-20240523113749633.webp
相关不等于因果,相关性并不讨论方向。因果性是单向的,因此我们要有单向路径图指导。寻找路径后,再通过分析想像出“反事实”的世界。

ATE、ATT、ITT、LATE 这部分知识在《基本无害的计量经济学》3 中零散出现。整个框架是基于 Donald Rubin 提出的潜在结果框架(Potential Outcome Framework ,也叫 Rubin Causal Model,简称 RCM)

有趣的是,Judea Pearl(在《为什么》中)提出因果路径下的反事实就是 Rubin 提出的"潜在结果",不过 Rubin 回应两者完全不是一回事4,并且不赞成路径图的分析方法。 (个人不太能理解 rubin 的回应,在我个人看来 SCM 的路径箭头方向对应的就是 RCM 的加减符号方向)。

据我所知,目前因果分析在统计学中还分为频率学派、贝叶斯学派,研究通过马尔科夫链去理解因果推断。这方面个人就完全知之甚少了。个人对这块知识的了解完全来自于 B 站 up——Fmajor 的科普视频。

细说 RCM 因果效应

ATE、ATT、ITT、LATE 是不同的统计估计量。

从 ATE 到 ATT

从小学开始,我们就接触了使用各个数组的均值来进行比较分析。不过这种分组对比只是因果讨论的起点,需要进一步对这种分组差异进行分解,进而探讨因果关系。

$\boxed{平均处理效应}$ (average treatment effect,简称 ATE):直接用两组数据均值之差作为估计量。既可以看作总体均值相减,又可以看作分组相减的均值(例如双胞胎数据估计):

$$\bar Y_1-\bar Y_0=\sum_{i=1}^{N}\frac{Y_{i}(1)-Y_{i}(0)}{N}$$

将 $D_i$ 视为处理行为。 $D_i$ 为 1 为实验组,为 0 为对照组。产生线性方程如下:

$$\begin{align}Y_{i}&=\begin{cases} Y_{1i} \quad if D_i = 1 \newline Y_{0i} \quad if D_i = 0 \end{cases} \newline &=Y_{0i}+(Y_{1i}-Y_{0i})D_{i} \end{align}$$

分组相减,可得如下式子(注意红色部分):

$$\begin{aligned} &\mathbf{E}[Y_{i}\mid D_{i}=1]-\mathbf{E}[Y_{i}\mid D_{i}=0]\newline& =\color{red}{\underbrace{\mathbf{E}\lfloor Y_{1i}\mid D_{i}=1\rfloor-\mathbf{E}[Y_{0i}\mid D_{i}=1]}_{\text{处理的平均处理效应ATT}} } \newline &+\underbrace{\mathbf{E}[Y_{0i}\mid D_{i}=1]-\mathbf{E}[Y_{0i}\mid D_{i}=0]}_{选择性偏误} \end{aligned}$$

其中 $\mathbf{E}[Y_{0i}\mid D_{i}=1]$ 是我们主动添加的,是想要却无法直接找到的另一个”平行宇宙“——假如$\mathbf{E}[Y_{\color{blue}{1i}}\mid D_{i}=1]$ 部分群体,在平行世界没有没有接受处理,他们的状态表示为 $\mathbf{E}[Y_{\color{blue}{0i}}\mid D_{i}=1]$, 也就是 Rubin 想找到的"潜在结果"。

$\color{red}{\mathbf{E}\lfloor Y_{1i}\mid D_{i}=1\rfloor-\mathbf{E}[Y_{0i}\mid D_{i}=1]}$ 代表着 $\boxed{处理组平均处理效应}$(Average Treatment Effect on Treated,简称 ATT)。再没有比“一个二项选择分裂出两个平行宇宙”更好的对照试验了,然而没有人能真正获得这种数据!因此,经济学家的做法是想通过 ATE 来估计 ATT,于是引入了随机试验(RCT)。

RCT:让 ATE 趋近 ATT

RCT 全称为 Randomized controlled trial,代表 $\boxed{随机试验}$,在随机试验条件下,ATE=ATT,接下来展开介绍:

平行世界分裂出的这部分群体 $\mathbf{E}[Y_{0i}\mid D_{i}=1]$ 和现实一开始就没有接受过处理的群体 $\operatorname{E}[Y_{0i}\mid D_{i}=0]$ 相减,如果不为 0,就产生了选择性偏差。

原因可能是样本选择偏差:例如我们做健身相关的调查,但只去健身馆收集数据,肯定不能实现有效对比;例如美军著名的飞机幸存者偏差,飞回来的飞机是活下来的飞机,通过他们身上的损伤估计需要加强的部位也是不可靠的;

也可能是自选择偏差:例如入学性别比不均不代表歧视,因为这种分析忽略了性别比的申请倾向,某种性别的人更倾向于申请难度更高的,淘汰率也就更高;警察执法更关注某个种族也不代表就是歧视,看看那个种族犯罪频率是不是相对就高一些。

遗漏变量、模型错误、测量错误、样本不足都可能导致。

如果我们采用随机试验的方法,样本是随机分布的。我们希望这种随机试验能把一些我们没观察到的影响变量给平均掉,进而使得 $D_i$ 和 $Y_{0i}$ 具有独立性,这意味着 $\mathbf{E}[Y_{0i}\mid D_{i}=1]=\mathbf{E}[Y_{0i}\mid D_{i}=0]=\mathbf{E}[Y_{0i}]$。

此时 ATE 估计得到了有效的简化:

$$\begin{aligned} &\mathbf{E}[Y_{1i}\mid D_{i}=1]-\mathbf{E}[Y_{0i}\mid D_{i}=1]\newline&=ATT =\mathbf{E}[\mathbf{Y}_{1i}-\mathbf{Y}_{0i}\mid D_{i}=1] \newline &=ATE=\mathbf{E}[Y_{1i}-Y_{0i}] \end{aligned}$$

进一步通过回归式子来估计:

$$\begin{align}Y_{i}&=\begin{cases} Y_{1i} \quad if D_i = 1 \newline Y_{0i} \quad if D_i = 0 \end{cases} \newline &=Y_{0i}+(Y_{1i}-Y_{0i})D_{i} \newline & =\alpha+\rho D_i+\eta_i \end{align}$$

由于

$$\begin{aligned}&\operatorname{\mathbf{E}}[Y_i\mid D_i=1]=\alpha+\rho+\operatorname{\mathbf{E}}[\eta_i\mid D_i=1]\newline &\operatorname{\mathbf{E}}[Y_i\mid D_i=0]=\alpha+\operatorname{\mathbf{E}}[\eta_i\mid D_i=0]\end{aligned}$$

可以得到两者相减

$$\begin{aligned}&\operatorname{\mathbf{E}}[Y_i\mid D_i=1]-\operatorname{\mathbf{E}}[Y_i\mid D_i=0]\newline &=\underbrace{\rho}_\text{处理效应}+\underbrace{\operatorname{\mathbf{E}}[\eta_i\mid D_i=1]-\operatorname{\mathbf{E}}[\eta_i\mid D_i=0]}_\text{选择性偏误}\end{aligned}$$

选择偏差 $\eta_i\ne0$ 时,意味着残差和 $D_i$ 相关。我们强调随机试验,就是希望随机干预试验能够使得二者无关,消除这种选择偏差。所以当满足随机试验时,$\eta_i=0$, $ATE\xrightarrow{RCT}ATT$。

这也告诉了我们为什么要重视残差分析。

从 ITT 到 LATE

$\boxed{意向性分析}$(Intention to treat,简称 ITT)。虽然随机干预试验很有用,但我们要研究的变量不总是随机分布的。例如刘若鸿老师的《工业用地价格与企业产能利用率》——研究工业用地集聚在某一档土地等级周围。此时买家们不讲武德,是有备而来,也就不是随机分布的。此时我们考虑其他随机分布的变量会影响他们的决策。

先使用 SCM 的路径图来理解会更加形象:

/img/因果效应.zh-cn-20240523113840073.webp
图源:《因果推断实用计量方法 》(邱嘉平)我们想研究的变量D并不随机,于是我们找到了一个随机变量Z,同时Z和D之间具有因果关系。

再举例 Angrist(2011)5的一篇论文,研究参加越南战争对收入的影响,里面参军变量不好使,就使用了入伍资格作为工具变量。(怀念短短 6 页的计量论文时代)

/img/因果效应.zh-cn-20240523113902945.webp
论文其实就是用了2SLS

显然,存在这样一个过程,一个人先被告知有没有入伍资格,然后他决定是否进入军队。

ITT 式子如下所示:

$$ITT=\mathbf{E}[Y_i|Z_i=1]-\mathbf{E}[Y_i|Z_i=0]$$

可以看出 ITT 估计和 $\mathbf{E}[Y_{i}\mid D_{i}=1]-\mathbf{E}[Y_{i}\mid D_{i}=0]$ 相当类似,也就是说,$ D_i$ 和 $Z_i$ 一一对应时,也就是 $z=d$ 时,ITT=ATE

  • $\pi_N$: 无论我有没有资格,我最终都不会参军。
  • $\pi_D$: 逆反心态,有参军资格我偏不去,没有参军资格我偏要去。
  • $\pi_A$: 无论我有没有资格,我最终都会去参军。
  • $\pi_C$: 服从安排,有资格我就去,没资格我就不去。

/img/因果效应.zh-cn-20240523113950695.webp
图源牛津课件(w4节):https://andy.egge.rs/teaching/causal_inference/

同时由于我们本来就是基于军人样本进行统计, $D_i$ 并非随机分布,因此只有如下式子:

$$\begin{aligned} \mathbf{E}[D_i=1|Z_i=0]=\pi_A+\pi_D\newline \mathbf{E}[D_i=1|Z_i=1]=\pi_A+\pi_C \end{aligned}$$

如此一来肯定不能单独估计出 $\pi_i(i\in{A,C,D,N})$ 了。

不过由于随机分布,结果会成比例,可以变形出线性方程:

$$ITT=\pi_CITT_C+\pi_AITT_A+\pi_NITT_N+\pi_DITT_D$$

解决办法是增加假设 ——很有经济学笑话味道了。插入笑话原文:一个物理学家、一个化学家和一个经济学家漂流到孤岛上,十分饥饿。这时海面上漂來一个罐头。物理学家说:“我们可以用岩石对罐头施以动量,使其表层疲劳而断裂。”化学家说:“我们可以生火,然后把罐头加热,使它膨胀以至破裂。”经济学家则说:“假设我们有一个开罐头的起子……。”

加入假设后,我们就直接得到了 LATE:

$$\mathrm{LATE}=\mathrm{CATE}_{\mathcal{C}}=\frac{\mathrm{ITT}}{\pi_{\mathcal{C}}}$$

此时估计如下:

$$\small \hat{\mathbf{CATE}_C}=\frac{\mathbf{E}\Big[Y_i|Z_i=1\Big]-\mathbf{E}\Big[Y_i|Z_i=0\Big]}{\mathbf{E}\Big[D_i|Z_i=1\Big]-\mathbf{E}\Big[D_i|Z_i=0\Big]}=\frac{\mathrm{effect~of~}Z_i\text{ on }Y_i}{\mathrm{effect~of~}Z_i\text{ on }D_i}=\frac{\operatorname{ITT}_Y}{\operatorname{ITT}_D}$$

LATE 部分重点参考了牛津的课件,如果想看相对代数化的说明可以参考哈佛的课件和《基本无害的计量经济学》。

数理经济中的社科属性?

直接说"解决办法是添加几个假设"未免有些太经济学地狱笑话了。从经济含义看更加直观,如果我们研究的政策足够独特,我们需要论述政策对每个人都有影响,也就是假设中的单调性。在使用工具变量时,也需要介绍工具变量和解释变量之间的社会关系。所以为何经济学计量区别于数学?这些假设就是对社会现象的描述总结,就是其社科属性的鲜明体现。

最近学习高级宏观也有所体悟。高宏的方法非常单调,变分法加拉格朗日基本解决了所有经典模型的最优化。难点在于每个高宏模型飞来飞去的假设条件和阴间变形。无论是公式变形还是突然施加的假设,都是提炼经济现象的一个特征,然后加以数学化,这才是最大的难点。例如知识生产函数(知识作为全要素)、科夫道格拉斯生产函数(规模报酬)、家庭约束(消费贴现小于财富贴现)、家庭效用函数(风险规避)。

我开始认为——以怎样的框架挖掘均衡;通过经济现象构建具有特性的函数;总结出最优化约束条件才是经济学区别数理复合人才的“经济思想与直觉”。

顺便插入下高宏笔记

总结

进一步举例子说明,DID 估计是 ATT;RDD 估计是 LATE ;聚束分析是 LATE。

ATT 和 LATE 是我们所求的,是我们渴望平行世界那样完善的对照试验,但我们有的只是 ATE 和 ITT。

当 D 满足 RCT 时,ATE=ATT。

当 D 不满足 RCT,但 Z 满足时,同时基于单调性和限制约束造出工具变量 (IV)或者 RDD,此时 ITT=LATE。

当 D 不满足 RCT,Z 也找不到时,就采用其他方法估计反事实情况,例如群聚分析 (通过残差分析变形直接估计反事实的分布和当前集聚现象形成对比)、合成控制……

教材一般也会引入匹配论来实现这些估计假设。

综上,计量模型就是基于这样的潜在结果框架分析因果关系,宣扬自己研究的是因果科学。

如此一看,是否颇有"无中生有",“由果索因"之妙也?


  1. 刘若鸿, 许晏君. 工业用地价格与企业产能利用率[J]. 世界经济,2023,46 (11): 103-127. DOI: 10.19985/j.cnki. Cassjwe. 2023.11.004. ↩ ↩ ↩︎

  2. Chen Z, Liu Z, Suárez Serrato J C, et al. Notching R&D investment with corporate income tax cuts in China[J]. American Economic Review, 2021, 111 (7): 2065-2100. ↩︎

  3. Pearl J, Mackenzie D. The book of why: the new science of cause and effect[M]. Basic books, 2018. ↩︎ ↩︎

  4. 乔舒亚·安格里斯特, 约恩-斯特芬·皮施克. 基本无害的计量经济学[M]. 格致出版社, 2012. ↩︎

  5. Angrist J D, Chen S H, Song J. Long-term consequences of Vietnam-era conscription: New estimates using social security data[J]. American Economic Review, 2011, 101 (3): 334-338. ↩︎