Transcript Document

复习
多元回归分析
 大样本性质
 模型的函数形式
 虚拟变量
 异方差
 数据问题
时间序列模型
 基本模型
 平稳、弱相关和高度持久
 序列相关
工具变量和联立方程
受限制因变量模型
1
小样本和大样本性质
小样本性质:估计量在样本大小为有限
的情况下表现出来的性质。

例如:无偏估计;
t、F检验 。
大样本性质:估计量在样本大小为无限
的情况下表现出来的性质。

例如:大数定律;
一致估计;LM检验
2
一致性
“一致”指的是当n  ∞时,估计量的分布收
敛于系数的真实值
在MLR1-MLR5假设下, OLS估计值是一致的
(也是无偏的)
在无偏性的证明中,我们假设了条件均值为零:
E(u|x1, x2,…,xk) = 0
证明一致性,我们只要相对较弱的假设,均值
为零: E(u) = 0; 不相关: Cov(xj,u) = 0, j = 1,
2, …, k
没有这个假设,OLS就是有偏和不一致的
3
当n 时样本(估计)的分布
n3
n1 < n2 < n3
n2
n1
b1
4
一致性的证明
 x  x  
 x u   n   x  x  
bˆ1     xi1  x1 yi 
 b1   n
1
 x
i1
2
i1
1
1
1
i
2
i1
1
plimbˆ1  b1  Cov  x1 , u  Var  x1   b1
因为 Cov  x1 , u   0
5
遗漏变量:一致?
正如我们前面推导遗漏变量导致的有偏估计一
样,现在我们来看不一致性(或者说渐进有偏)
的情况。
真实模型: y  b 0  b1 x1  b 2 x2  v
估计的模型: y  b 0  b1 x1  u, 因此
u  b 2 x2  v , 且 plimb1  b1  b 2
其中   Cov  x1 , x2  Var  x1 
6
拉格朗日乘子统计量
当我们使用大样本并根据渐进正态分布
做检验时,我们会用到t 和 F 以外的一些
统计量
拉格朗日乘子( LM)统计量是用来检验
多元排除变量的假说的统计量之一
LM 要使用辅助的回归,因此也被称为
nR2 统计量
7
拉格朗日乘子统计量(续)
假设我们的标准模型为:
y = b0 + b1x1 + b2x2 + . . . bkxk + u
虚拟假设为:H0: bk-q+1 = 0, ... , bk = 0
首先,我们做符合虚拟假设的回归
y  b0  b1 x1  ...  b k q xk q  u
然后从以上回归中得出 u, 再用u
对 x1 , x2 ,..., xk (即所有变量) 进行回归
LM  nRu2 , 其中 Ru2 来自第二个回归
8
拉格朗日乘子统计量(续)
a
LM ~  q2 , 从而我们可以根据 q2
分布选择一个临界值c, 根据
 q2分布计算相应的p值
在大样本的情况下, F 检验和LM 检验应该是
相似的
在单个排除变量的检验中, F 和t 检验是完全
相同的;但 LM 检验和 F 检验并不相同
9
模型的函数形式
OLS 也可以用来估计x 和y 的非线性的方
程, 但对于要估计的系数来说仍然是线
性的
可以取x 或 y 的对数形式,或两者的对数
形式
可以用 x 的平方项
可以用 x 变量之间的交叉项
10
对于对数方程的解释
假设方程为 ln(y) = b0 + b1ln(x) + u
b1 则是 x 对y 的弹性
若为 ln(y) = b0 + b1x + u
b1 则近似的反映一单位x 的变化导致的y
的百分比变化量
若为 y = b0 + b1ln(x) + u
b1 则近似的反映x百分之百的变化量导
致的y的变化
11
含平方项的模型
假设模型为 y = b0 + b1x + b2x2 + u ,此时我们
不能把 b1 解释为每单位x的变化导致的 y 的变
化, 我们需要把 b2 也考虑进来, 因为


yˆ  bˆ1  2 bˆ2 x x, so
yˆ ˆ
 b1  2 bˆ 2 x
x
12
含平方项的模型(续)
假设 x 的系数为正,x2 的系数为负
那么 y 开始时随 x 增大而增大,但最终会随x
增大而减小
 
*
ˆ
ˆ
当 b1  0 且 b2  0 临界点 x  bˆ1 2bˆ2
13
交叉项
对于模型: y = b0 + b1x1 + b2x2 + b3x1x2 + u 我
们不能把 b1 单独解释为每单位x1的变化导致的
y 的变化,我们还需要考虑 b3, 因为
y
 b1  b3 x2 , 因此加总 x1 对 y
x1
的影响时, 我们通常估计其在 x2
处的影响
14
调整后的 R-Squared
前面分析了 R2 总会随着解释变量的增大而增大
但调整后的 R2把模型中解释变量的数量考虑了进
来, 因此可能会反而变小
R
2

SSR n  k  1
 1
SST n  1
 1
ˆ 2
SST n  1
|t|>1或F>1
15
拟合程度
重要的是不要过于关注调整的R2 而忽略
了理论和经济常识本身
如果经济理论清楚地预计某个变量应当
被包括进来,那么就加入这个变量
不要加入影响对所关注的变量进行合理
解释的变量;切记多元回归含意之一是
控制了其它因素
16
函数形式
我们已经知道一个线性的回归可以用来
拟合一些非线性的关系
可以用因变量或 自变量的对数形式或者
同时用两者的对数形式
可以用x的平方
可以用x的交叉项
但是我们如何知道我们是否在模型设定
中采用了正确的函数形式呢?
17
函数形式(续)
首先,要靠经济理论来指导模型的设定
考虑如何对模型进行解释
究竟是变量x的绝对变化还是百分比的变
化(用对数形式)对因变量y产生影响更
加合理?
因变量对x1的偏导随x1 (平方项)还是随
x2 (交叉项)改变,或者是固定不变?
18
RESET检验
RESET 采用的办法和White检验的特殊形
式类似
我们采用加入ŷ的函数的办法来检验,而
不是直接加入x的函数
因此,要估计方程 y = b0 + b1x1 + … +
bkxk + 1ŷ2 + 1ŷ3 +error 来进行检验
H0: 1 = 0, 2 = 0 根据 F~F2,n-k-3 或者
LM~χ22
19
虚拟变量
虚拟变量就是取 1 或者 0 的变量
例:male (= 1 若为男性, 0 其它情况),
south (= 1 若在南方, 0 其它情况), 等.
虚拟变量也叫二元变量
20
一个独立的虚拟变量
考虑一个包括一个连续变量(x)和一个虚
拟变量(d)的模型
y = b0 + 0d + b1x + u
这可以解释成截距项的变化
若 d = 0, 那么 y = b0 + b1x + u
若 d = 1, 那么 y = (b0 + 0) + b1x + u
d = 0 的样本是参照组
21
0 > 0 的例子
y
y = (b0 + 0) + b1x
d=1
{
slope = b1
0
d=0
} b0
y = b0 + b1x
x
22
其它变量与虚拟变量的交叉项
也可以考虑虚拟变量 d 和连续变量 x 之
间的交叉项
y = b0 + 1d + b1x + 2d*x + u
若 d = 0, 那么 y = b0 + b1x + u
若 d = 1, 那么 y = (b0 + 1) + (b1+ 2) x +
u
这里的两种情况可以看成是斜率的变化
23
0 > 0 且 1 < 0的例子
y
y = b0 +
bd1=x 0
d=1
y = (b0 + 0) + (b1 + 1) x
x
24
检验不同组之间的差异
为了检验一个回归方程对不同的组是否
应该取不同的参数,我们可以检验表示
组的虚拟变量及其和所有其他x变量的交
叉项的显著性
因此可以估计有所有交叉项和没有交叉
项两种情况下的模型,然后构造F 统计
量, 但这种方法不容易把握
25
Chow 检验
也可以仅仅做没有交叉项的回归来构造适当的
F统计量
如果我们对第一组样本做没有交叉项的回归,
得到SSR1, 然后再对第二组样本做同样的回归,
得到 SSR2
再同样对所有样本做没有交叉项的回归,得到
SSR, 那么

SSR  SSR1  SSR2  n  2k  1
F

SSR1  SSR2
k 1
26
什么是异方差
前面的同方差的假设,隐含着扰动项u的
方差条件于解释变量是常数
如果这个假设不成立,即对于x的不同的
值u的方差不同,那么扰动项就是异方差
例如: 估计教育的回报率时,能力是不
可观察的因素,因此可能的情况是能力
的方差随教育程度不同而不同
27
异方差的例子
f(y|x)
.
.
x1
x2
x3
.
E(y|x) = b0 + b1x
x
28
异方差有什么影响?
OLS 估计在没有同方差假设的情况下仍然
是无偏和一致的
但是在异方差的情况下标准差的估计是有
偏的
如果标准差的估计有偏我们就不能利用t
统计量或F 统计量或LM 统计量来做检验
推论
29
稳健的标准差
稳健的标准差只有在大样本的情况下才
适用, 在小样本的情况下用稳健的标准
差构造出来的t 统计量的分布与t 分布相
差较远,用来做检验是不对的
在 Stata 软件中, 稳健的标准差可以通过
在回归命令中加入“robust”得到
30
异方差检验
实际上我们需要检验 H0: Var(u|x1, x2,…, xk)
= 2, 也就是H0: E(u2|x1, x2,…, xk) = E(u2) =
2
如果假设u2和xj之间是线性关系,我们可
以把零假设当成一个线性条件来检验
因此对于 u2 = 0 + 1x1 +…+ k xk + v ;
也就是检验 H0: 1 = 2 = … = k = 0
31
Breusch-Pagan 检验
虽然我们观察不到扰动项,但是我们可以用
OLS回归把残差估计出来
用得到的残差的平方项对所有的x回归之后,
就可以用R2构造F统计量或者LM统计量来进行
检验
其中F统计量就是软件中报告出来的检验整个
回归的显著性的统计量, F = [R2/k]/[(1 – R2)/(n –
k – 1)], 该统计量呈Fk, n – k - 1分布
其中的LM统计量可由LM = nR2得到,该统计量
服从2k分布
32
White 检验
Breusch-Pagan检验能检验出任何线性形式
的异方差
而White检验则能够通过加入所有解释变
量的平方项和交叉项来检验非线性形式的
异方差
检验的方法仍然是利用F统计量和LM统计
量来检验xj, xj2和xjxh的联合显著性
33
White检验的其它形式
假设OLS回归的拟合值ŷ是所有解释变量
x的方程
因此ŷ2是解释变量的平方项和交叉项的函
数, ŷ和ŷ2可以用作xj, xj2和xjxh的代理变
量
因此,用残差项对ŷ和ŷ2做回归,然后用
回归结果中的R2来构造F或者LM统计量
34
加权的最小二乘法
虽然我们能够得到OLS估计的稳健的标
准差,但是如果我们知道其中异方差的
具体形式,就能够得到比OLS更有效的
估计
基本的思想是将存在异方差的模型转换
成同方差的模型,这称为加权的最小二
乘法
35
WLS 小结
对WLS使用F检验时, 先从不受限制的模型
得到权重,然后用这些权重分别对不受限
制的模型和受限制的模型作WLS。
WLS更有效,但OLS仍然是无偏和一致的。
但WLS与OLS的估计由于抽样误差会不一
样,但如果两者的差距很大,很有可能是
假设MLR1-MLR5不成立。
36
代理变量
如果模型设定的问题是由于某个重要的
解释变量没有可用的数据,怎么办?
这种情况下,避免遗漏变量偏差的一个
办法是用代理变量
代理变量必须是和不可观察的变量相关
的,如:x3* = 0 + 3x3 + v3, 其中“*”表
不可观察
现在假设我们就用x3代替x3*
37
滞后变量
如果存在遗漏变量又找不到合适的代理
变量,怎么办?
如果遗漏变量对从前的和现在的y都有影
响,那么可能的解决办法是加入一个滞
后的被解释变量,来表示遗漏变量的影
响。
当然,采用这种办法的前提是你认为过
去的y和现在的y是有关系的。
38
被解释变量的测量误差
定义测量误差为:e0 = y – y*
因此实际估计的方程为: y = b0 + b1x1 + …+
bkxk + u + e0
什么条件下OLS会得到无偏的估计结果?
当e0与xj, u不相关时估计结果是无偏的
当E(e0) ≠ 0时,常数项b0的估计是有偏的
虽然在以上条件下,估计是无偏的,但是估计
的结果的方差比没有测量误差时要大
39
解释变量的测量误差
定义测量误差为: e1 = x1 – x1*
假设 E(e1) = 0 , E(y| x1*, x1) = E(y| x1*)
实际估计的方程为: y = b0 + b1x1 + (u – b1e1)
测量误差对估计结果的影响决定于我们所做的
e1与x1的相关性
假设 Cov(x1, e1) = 0
OLS 的估计结果仍然是无偏的,但方差变大
40
解释变量的测量误差(续)
假设Cov(x1*, e1) = 0 ,即所谓的经典的测量误
差假设,那么
Cov(x1, e1) = E(x1e1) = E(x1*e1) + E(e12) = 0 + e2
X1 与测量误差相关,因此估计是有偏的
b1
Cov x1 , u  b1e1 
ˆ
plim b1  b1 
 b1  2
Var  x1 
 x*   e2
 
2
e
2
2



e
 x* 
  b1  2

 b1 1  2
2 
2 
  x*   e 
  x*   e 
41
解释变量的测量误差(续)
注意到估计的偏差是多乘了一个
Var(x1*)/Var(x1)
因为Var(x1*)/Var(x1) < 1, 估计的偏差的方
向为趋于零的方向,该偏差称为减弱偏
差
多元回归的情况会更加复杂,但大致的
结果仍然是经典的度量误差导致减弱偏
差
42
时间序列与横截面
时间序列数据有一个时间上的顺序,而
横截面数据则没有
由于我们面对不再是个人的随机样本,
我们须要对原有假设做出一些更改
我们的数据变成了一个随机过程的一个
实现值
43
无偏性所需的假设
仍然假设一个线性(对参数)模型: yt =
b0 + b1xt1 + . . .+ bkxtk + ut
仍然假设条件均值为零: E(ut|X) = 0, t =
1, 2, …, n
注,这隐含着任何一期的扰动项与所有
期的解释变量都不相关
44
无偏性所需的假设(续)
条件均值为零的假设隐含着所有的解释
变量x都是外生的(严格外生)
一个与横截面中情形更一致的假设是
E(ut|xt) = 0
这个假设说明所有解释变量在当期都是
外生变量(同期外生)
同期外生性只有在大样本的情况下才足
于保证模型一致。小样本的无偏性需要
严格外生的假设
45
无偏性所需的假设(续)
还需要假设没有x可以为常数,且不存在
完全的线性相关
注意,我们没有假设样本是随机抽取的
随机抽样的主要结果是每一个ui都是独立
的
前面的严格外生的假设包含了每一个ui都
是独立的
46
OLS 的无偏性
根据以上三个假设条件,在使用时间序
列数据时, OLS估计是无偏的
因此正如在横截面数据中一样,在适当
的假设条件下OLS估计是无偏的
遗漏变量偏差可以用与横截面相同的方
法来进行分析
47
OLS估计的方差
正如横截面的情况中,计算方差需要同
方差的假设
我们假设Var(ut|X) = Var(ut) = 2
从而扰动项的方差独立于所有的解释变
量x , 且方差为常数随时间不变
我们还需要无自相关的假设: Corr(ut,us|
X)=0 对于 t  s
48
OLS估计的方差(续)
在以上5个假设条件下,OLS回归的方差
在时间序列与在横截面数据的情况中是
相同的。此外
对方差2的估计也是相同的
OLS 估计仍然是最优线性无偏估计
( BLUE )
如果再加上扰动项的正态分布的假设,
检验的方法也是相同
49
时间序列的趋势
经济中的时间序列常有一个趋势
当两个序列同时都有相同的趋势时,我
们不能认为两者之间的关系就是因果关
系
常有的情况是两个序列的趋势是由其它
不可观察的因素引起的
虽然那些因素是不可观察的,我们应通
过直接控制趋势的办法来控制这些因素
50
时间序列的趋势(续)
一种可能性是一个线性的趋势,可以用
模型表示为:yt = a0 + a1t + et, t = 1,
2, …
还可能是指数型的趋势,可以用模型表
示为:log(yt) = a0 + a1t + et, t = 1, 2, …
或者是二次型,可以表示为:yt = a0 +
a1t + a2t2 + et, t = 1, 2, …
51
剔除趋势
在回归方程中加入一个线性的趋势项就
相当于用去除了趋势的数据做回归
去除序列的趋势可以用模型中的每一个
变量对t做回归
回归的残差就是去除趋势后的序列
简单的说,就是趋势在偏回归中被剔除
掉了
52
季节性因素
时间序列的数据常表现出一些周期性,
称为季节性
例如:零售业的季度数据往往会在第四
季度跳高
可以通过加入季节的虚拟变量来处理季
节性因素的影响
如前处理趋势一样,我们可以先剔除数
据中的季节性因素后在进行回归
53
平稳的随机过程
如果对所有的时间指标1 ≤ t1 < …< tm ,
和任意的h ≥ 1 , (xt1, …, xtm)的联合分布
与(xt1+h, … xtm+h)的联合分布相同,我们
就称该随机过程为平稳的随机过程
因此,平稳性隐含着所有xt 的分布相同,
且任意时间的邻近各项之间有相同的相
关关系
54
协方差平稳过程
如果E(xt)和Var(xt)为常数,且对于任意的
t, 及h ≥ 1, , Cov(xt, xt+h)只与h有关,而
与t无关, 我们就称该随机过程为协方差平
稳过程
因此,以上较弱形式的平稳性只要求均
值和方差为常数,两期之间的协方差只
与其时间跨度相关
55
弱相关时间序列
如果当h 逐渐增大时,一个平稳的时间序
列中xt和xt+h为“近似独立”,我们称该
时间序列为“弱相关时间序列”
对于一个协方差稳定过程,如果当h → ∞
时,有Corr(xt, xt+h) → 0,我们称该协方
差平稳过程为弱相关的
56
一个 MA(1)(一阶移动平均)过程
一个一阶移动平均过程[MA(1)]可以表示为xt =
et + a1et-1 , t = 1, 2, … ,其中et为独立同分布
序列,且其均值为0方差为2e
该过程为稳定的弱相关序列,因为相距一期的
变量相关,当相距两期(或以上)的变量就不
相关了
var(xt )=(1+a21) 2e
cov(xt,,xt+1 )=a1 2e
cov(xt,,xt+h )=0, if h>1
57
一个AR(1)(一阶自回归)过程
一个一阶自回归过程可以表示为yt = ryt-1
+ et , t = 1, 2,… ,其中et为独立同分布序
列,且其均值为0方差为e2
若该过程为弱相关过程,则一定有|r| < 1
Corr(yt ,yt+h) = Cov(yt ,yt+h)/(yy) = r1h 当
h增大时逐渐减小
58
一致性所需要的假设
参数是线性的和数据是弱相关
一个较弱的条件均值为零的假设:E(ut|xt)
= 0, 对任意 t。[比较: E(ut|X) = 0]
没有完全线性相关
因此,得到一致性所需要的外生性假设
要弱于得到无偏性所需的相应假设
59
大样本下的检验
较弱的同方差假设:Var (ut|xt) = 2, 对所
有 t。[比较:Var(ut|X) = Var(ut) = 2 ]
较弱的序列不相关的假设:E(utus| xt, xs)
= 0 , t  s。[比较:Corr(ut,us| X)=0, t  s]
在以上假设的基础上,我们就可以得到
渐进正态分布和通常标准差,以及正确
的t ,F和LM统计量
60
高度持久的时间序列
高度持久的时间序列
也叫强相关时间序列
与弱相关时间序列相对应
在经济学上,想知道一个时间序列是不
是强相关,例如:想知道一项经济政策
是否会有持久的影响
61
高度持久序列的变换
为了用高度持久的时间序列数据来进行
有意义的估计和正确的检验,我们必须
首先把它转换成一个弱相关的随机过程
我们称一个弱相关的过程为零阶积整
“integrated of order zero”, [I(0)]
一个随机游走的随机过程为一阶积整
“integrated of order one”, [I(1)], 意思是对
其做一阶差分可得到 I(0)
62
高度持久序列的变换(续)
yt = yt-1 + et
∆yt = yt - yt-1 = et
如果et是iid, ∆yt也是iid
如果et是弱相关, ∆yt也是弱相关
63
序列相关与异方差


0
2

var(  )   I 


 0
2
0

2
0
0 

0 

2
 
序列相关(自相关):协方差不为0
异方差:方差不为常数
64
序列相关(自相关)的影响
仍然是无偏和一致的
不再是最有效的
但标准差的估计是有偏的
不能利用t 统计量或F 统计量或LM 统计
量来做检验推论
65
对一阶自回归 AR(1)中
序列相关的检验
我们希望能够检验扰动项是否序列相关
即希望检验以下零假设:
ut = rut-1 + et 中 r = 0 ,其中 t =2,…, n,
ut 为模型的扰动项, et 服从 iid
对于严格外生的解释变量这个检验很简
单:只要用残差项对其滞后项做回归,
再用t检验即可
66
对一阶自回归 AR(1)中
序列相关的检验(续)
此外,我们可以用Durbin-Watson (DW) 统计量,
该统计量在很多软件中都可以计算
n
DW统计量
2
DW 
 (
t 1
  t 1 )
t 2
n
2
(

)
t

t 1
DW
2(1  r )
如果DW统计量约等于2,那么我们可以拒绝序
列相关的假设,但如果其显著小于2,我们就不
能拒绝序列相关的假设
67
对一阶自回归 AR(1)中
序列相关的检验(续)
DW是小样本检验,即DW分布的形式为已知
临界值与自变量的大小、样本的大小、自变
量的数目有关,较难计算,因此不如t检验简
单易行
DW统计量两个临界值(DL,DU),三个区域
拒绝 DL
不能确定
DU 不能拒绝
68
检验高阶的序列相关
我们可以用与一阶自回归AR(1)中相同的办法
来检验q阶自回归过程AR(q)中的序列相关假设
我们只要对残差的q阶滞后项做回归,然后检
验其联合显著性即可
可以用F检验或者LM检验。其中LM检验也叫
做Breusch-Godfrey检验,只要用残差回归中的
R2计算(n-q)R2即可
还可以检验季节性形式
69
对序列相关的纠正
我们从严格外生的解释变量的假设开始,
采用除无序列相关以外的所有假设
假设扰动项服从一阶自回归AR(1)过程,
ut = rut-1 + et, t =2,…, n
Var(ut) = 2e/(1-r2)
我们须要将方程进行变换以使扰动项没
有序列相关
70
对序列相关的纠正(续)
yt – r yt-1 = (1 – r)b0 + b1(xt – r xt-1) + et ,
其中 et = ut – r ut-1
这个部分差分得到的模型中就不存在序
列相关的问题
可行的广义最小二乘(GLS)
71
异方差
后果


同截面数据
在时间序列模型中,序列相关更重要
检验



同截面数据
但要先检验有无序列相关,只有在无序列相
关时才适用
u2t = 0 + 1xt1 +…+ k xtk + vt, vt必须是恒方
差和无序列相关
72
为什么要用工具变量
采用工具变量(IV)估计法是由于模型中存
在内生的解释变量
也就是说存在:Cov(x,u) ≠ 0
因此,工具变量可以用来处理遗漏变量
偏差的问题
此外,工具变量还可以用来处理经典的
度量误差的问题
73
什么是工具变量
做为一个正确的工具变量,其必须满足
以下条件
工具变量必须是外生的
也就是说, Cov(z,u) = 0
同时,工具变量必须和内生变量x相关
即, Cov(z,x) ≠ 0
74
关于正确的工具变量的其它问题
我们必须根据常识和经济理论来判断假
设,Cov(z,u) = 0,是否合理
我们能够检验Cov(z,x) ≠ 0是否成立
方法是检验H0: 在x = p0 + p1z + v中p1 = 0
我们常把以上回归称作第一阶段回归
75
简单回归中的工具变量估计法
由 y = b0 + b1x + u, 和我们的假设条件有
Cov(z,y) = b1Cov(z,x) + Cov(z,u), 所以
b1 = Cov(z,y) / Cov(z,x)
那么使用工具变量法,b1的估计值为:
bˆ1
z  z  y


 z  z x
i
i
i
i
 y
 x
76
工具变量法中的假设检验
这里同方差假设应该是:E(u2|z) = 2 =
Var(u)
如同在最小二乘法(OLS)的情况中一
样,根据渐进方差,我们可以估计标准
2

差:
Var bˆ 
 
1
 
se bˆ1 
n x2 r x2,z
ˆ 2
SSTx Rx2,z
77
工具变量与最小二乘法
工具变量估计法中的标准差与最小二乘法中标
准差的不同之处在于用x对z回归的R2
因为R2 < 1 ,所以工具变量估计法中的系数的
标准差更大
然而,在Cov(x,u) ≠ 0的情况中,工具变量法的
估计是一致的,但最小二乘法的估计是不一致
的
z和x之间的相关性越强,工具变量法估计的系
数方差就越小
78
多元回归中的工具变量法
工具变量法也可以用到多元回归中去
假设我们对估计结构式模型感兴趣
我们面对的问题是一个或几个变量是内生的
我们需要给每一个内生变量找一个工具变量
y1  ( y2
x1 )(
1
)
b1
z : IV
x  ( z x1 )
ˆ1
( ) IV  [ x '( y2
bˆ
x1 )]1 x ' y
1
79
两阶段最小二乘法( 2SLS )
模型:
y1 = b0 + b1y2 + b2z1 + u1 ,其中y2
y2 = p0 + p1z1 + p2z2 + v2, 其中 p2 ≠ 0
假设了z2和z3都是正确的工具变量,它们不在
结构式模型中且与结构式模型中的扰动项u1不
相关
我们可以用y2对z1, z2和z3进行回归来估计y2* ,
该回归被称为第一阶段回归
如果我们用ŷ2替代结构式模型中的y2 ,得到的
系数的估计与工具变量法相同
80
内生性检验
如果y2是内生的,那么v2 (简化模型
(reduced form)中的)和结构模型中的u1
就会是相关的
根据这一点就可以检验内生性
81
内生性检验(续)
保存第一阶段回归的残差
将以上残差加入到结构式方程中去(结
构式方程中当然包括y2 )
如果回归发现残差的系数显著的不等于
零,那么就拒绝外生性的零假设
如果有几个可能存在内生性的变量,就
需要检验几个相应一阶段残差在结构式
中的联合显著性
82
联立方程模型
模型
y1 = a1y2 + b1z1 + u1
y2 = a2y1 + b2z2 + u2
联立性( Simultaneity ),它是由于解释
变量和被解释变量同时决定导致的
如同其它类型的内生性问题一样,联立
性导致的内生性问题也可以用工具变量
法来解决
83
劳动需求方程的识别
w
D
S (z=z1)
S (z=z2)
S (z=z3)
h
84
一般联立方程模型
(The General SEM)
假设我们想估计结构式方程:
y1 = a1y2 + b1z1 + u1
其中: y2 = a2y1 + b2z2 + u2
则进一步有
y2 = a2(a1y2 + b1z1 + u1) + b2z2 + u2
因此:
(1 – a2a1)y2 = a2 b1z1 + b2z2 + a2 u1 + u2,
该方程可以改写为: y2 = p1z1 + p2z2 + v2
85
一般联立方程模型(续)
把以上y2的简化式方程代入y1的结构式方
程,我们可以看出y2是u1的线性方程,
即y2与扰动项相关,这就导致a1的估计有
偏,我们称其为联立偏差
联立偏差的方向比较复杂,但是我们可
以从简单回归中总结出一些经验
在简单回归中,偏差的符号和a2/(1 –
a2a1)相同
86
一般联立方程模型的识别
假设z1是第一个方程中所有的外生变量,
z2是第二个方程中的所有外生变量
z1和z2中可以存在相同的变量
要识别方程1, z2中必须有些变量不在z1
中
要识别方程2, z1中必须有些变量不在z2
中
秩( Rank )
87
一般联立方程模型的估计
间接最小二乘法
工具变量法
两阶段最小二乘法
88
二元选择模型
线性概率模型:P(y = 1|x) = b0 + xb
线性概率模型的缺点之一是模型的预测
值可能不在0和1之间
另外一种模型方法是将概率设为一个函
数G(b0 + xb),其中0<G(z)<1


Probit 模型
Logit 模型
89
Probit 模型
概率函数G(z)的选择之一是标准正态分布
的累积分布函数 (cdf)
G(z) = F(z) ≡ ∫f(v)dv, 其中 f(z) 标准正态
分布的密度函数,f(z) = (2p)-1/2exp(-z2/2)
我们把这样设定模型称为probit模型
这是一个非线性的模型,因而不能用我
们通常的方法进行估计
我们用最大似然法进行估计
90
Logit 模型
另一种概率函数G(z)的选择是logistic函数,
它是标准logistic随机变量的累积分布函
数
G(z) = exp(z)/[1 + exp(z)] = L(z)
这样设定的模型称之为logit模型,有时
也称之为logistic回归
两种累积分布函数的形状很相似,它们
都在0附近增大最快
91
对LPM、Probit和Logit模型的解释
一般来说,我们关注的是x对P(y = 1|x),的影响,
也就是∂p/ ∂x
在线性概率模型中很容易计算,就是相应x的
系数
但是对于非线性的probit和logit模型,计算要
复杂一些:
∂p/ ∂xj = g(b0 +xb)bj, 其中 g(z) 等于 dG/dz
b LPM
0.25b log it
0.4 b probit
92
似然比率( Likelihood Ratio )检验
但是我们不能像在线性概率模型中那样
构造F或LM统计量来做排除条件的检验,
所以需要构造新的统计量
在最大似然法(MLE)的估计中,我们总是
可以计算一个对数似然函数的值, L
就像F检验一样,估计一个受限制和一个
不受限制的模型,然后构造统计量:
LR = 2(Lur – Lr) ~ 2q
93
Tobit模型
y* = xb + u, u|x ~ Normal(0,2)
我们仅能观察到y = max(0, y*)
以上即为Tobit模型,我们用最大似然法
估计该模型的系数b和方差
应注意的是, b估计的是x对y*而不是y的
影响
94