Buscar

Exercício de Econometria sobre Estimadores

Prévia do material em texto

Universidade de Sa˜o Paulo - Departamento de Economia
EAE 5811 - Econometria I
Prof. Dr. Ricardo Avelino
1o Semestre de 2007
Lista de Exerc´ıcios 5 - Soluc¸o˜es
Monitoras: Paula Pereda
Jaqueline de Oliveira
1. Seja i um vetor de 1’s de dimensa˜o Tx1. Assim, o estimador de OLS para
µ e a variaˆncia do mesmo sa˜o iguais a:
ˆ
µOLS = (i
0i)−1i0y =
X yt
T
V AR(
ˆ
µOLS) = (i
0i)−1(i0Ωi)(i0i)−1
onde
Ω = E(εε0) =


δ2 + σ2 δ2 ... δ2
δ2 δ2 + σ2 ... δ2
... ... ... ...
δ2 ... ... δ2 + σ2


Enta˜o, a variaˆncia de
ˆ
µOLSsera´:
V AR(
ˆ
µOLS) =
1
T
[ σ2 + Tδ2 σ2 + Tδ2 ... σ2 + Tδ2 ]i
1
T
=
1
T
(Tσ2 + T 2δ2)
1
T
=
σ2
T
+ δ2
O estimador de GLS para µ e´ igual a:
ˆ
µGLS = (i
0Ω−1i)−1i0Ω−1y
Seja
Ω−1 =


a11 a12 ... a1T
a21 a22 ... a2T
... ... ... ...
aT1 aT2 ... aTT


Enta˜o,


δ2 + σ2 δ2 ... δ2
δ2 δ2 + σ2 ... δ2
... ... ... ...
δ2 ... ... δ2 + σ2

 .


a11 a12 ... a1T
a21 a22 ... a2T
... ... ... ...
aT1 aT2 ... aTT


=


1 0 ... 0
0 1 ... 0
... ... ... ...
0 0 ... 1


1
Assim, ¡
δ2 + σ2
¢
a11 + δ
2a21 + ...+ δ
2aT1 = 1
δ2a11 +
¡
δ2 + σ2
¢
a21 + ...+ δ
2aT1 = 0
...
δ2a11 + δ
2a21 + ...+
¡
δ2 + σ2
¢
aT1 = 1
Seguem deste sistema de equac¸o˜es alguns resultados como:
a21 = a31 = ... = aT1 = a
σ2a11 − σ2a21 = 1⇒ a11 =
1
σ2
+ a
¡
Tδ2 + σ2
¢
a11 +
¡
Tδ2 + σ2
¢
(T − 1)a = 1¡
Tδ2 + σ2
¢
(
1
σ2
+ a) +
¡
Tδ2 + σ2
¢
(T − 1)a = 1¡
Tδ2 + σ2
¢ 1
σ2
+
¡
Tδ2 + σ2
¢
Ta = 1
⇒ a =
1− (Tδ
2+σ2)
σ2
T
¡
Tδ2 + σ2
¢ ⇒ a = −δ2
σ2
¡
Tδ2 + σ2
¢
Assim, os elementos da primeira coluna da matriz inversa sera˜o:
a11 =
1
σ2
− δ
2
σ2
¡
Tδ2 + σ2
¢ = (T − 1)δ2 + σ2
σ2
¡
Tδ2 + σ2
¢
a21 = a31 = ... = aT1 = −
δ2
σ2
¡
Tδ2 + σ2
¢
Devido a` simetria existente nessa matriz, conclue-se que:
Ω−1 =


(T−1)δ2+σ2
σ2(Tδ2+σ2) −
δ2
σ2(Tδ2+σ2) ... −
δ2
σ2(Tδ2+σ2)
− δ2σ2(Tδ2+σ2)
(T−1)δ2+σ2
σ2(Tδ2+σ2) ... −
δ2
σ2(Tδ2+σ2)
... ... ... ...
− δ2σ2(Tδ2+σ2) −
δ2
σ2(Tδ2+σ2) ...
(T−1)δ2+σ2
σ2(Tδ2+σ2)


=
1
σ2
¡
Tδ2 + σ2
¢


(T − 1)δ2 + σ2 −δ2 ... −δ2
−δ2 (T − 1)δ2 + σ2 ... −δ2
... ... ... ...
−δ2 −δ2 ... (T − 1)δ2 + σ2


Como
ˆ
µGLS = (i
0Ω−1i)−1i0Ω−1y
=
¡£
σ2 σ2 ... σ2
¤
i
¢−1 £
σ2 σ2 ... σ2
¤
y
=
1
Tσ2
.σ2
X
yt =
X yt
T
= y
2
Note que o estimador de GLS para µ e´ igual ao estmador OLS. Consequente-
mente, as variaˆncias tambe´m sera˜o, ou seja:
V AR(
ˆ
µGLS) = V AR(
ˆ
µOLS) =
σ2
T
+ δ2
Portanto, a eficieˆncia relativa do OLS e´ 1.
2. a) OLS
Seja xt = [x1t : x2t], temos que o estimador OLS para o beta e´:
ˆ
βOLS = (
X
xtx0t)
−1(
X
xtyt) = β + (
X
xtx0t)
−1(
X
xtεt)
Portanto, temos que:
√
n
µ
ˆ
βOLS − β
¶
= (
X xtx0t
n
)−1(
X xtεt√
n
)
Pela Lei dos Grandes Nu´meros, p lim
P xtx0t
n =Mn, que e´ uma matriz posi-
tiva definida.
Assim, p lim
³P xtx0t
n
´−1
=M−1n
O segundo termo, tera´ distribuic¸a˜o assinto´tica igual a:X xtεt√
n
d−→ N(0, Vn)
para
Vn = V
·X xtεt√
n
¸
=
1
n
E(ε2txtx
0
t)
Deste modo, temos que a distribuic¸a˜o assinto´tica do estimador de OLs sera´:
√
n
µ
ˆ
βOLS − β
¶
d−→ N(0,M−1n VnM−1n )
A matriz de variaˆncia-covariaˆncia assinto´tica de
ˆ
βOLS e´ dada por:
AssV (
ˆ
βOLS) =M
−1
n VnM
−1
n
em que M−1n pode ser consistentemente estimado por
ˆ
M
−1
n =
µX xtx0t
n
¶−1
Ja´ a matriz Vn pode ser estimada utilizando a abordagem de White, de
maneira a obter um estimador robusto da variaˆncia:
Para obtermos o estimador de White, devemos seguir os seguintes passos:
3
i) Rodar a equac¸a˜o por OLS para estimar os paraˆmetros:
ˆ
β1 e
ˆ
β2
ii).Calcular os res´ıduos
ˆ
εt = yt − x1t
ˆ
β1 − x2t
ˆ
β2
iii) Utilizando os res´ıduos, estima-se a matriz Vn como a seguir:
ˆ
V n =
1
n
X ˆ
ε
2
txtx
0
t
Portanto, a matriz de variaˆncia-covariaˆncia assinto´tica estimada sera´
ˆ
AssV (
ˆ
βOLS) =
µX xtx0t
n
¶−1
1
n
X ˆ
ε
2
txtx
0
t
µX xtx0t
n
¶−1
Como queremos testar a hipo´tese de que β1β2
= 1, ou seja, β1−β2 = 0, temos
que nossa hipo´tese se baseia em uma combinac¸a˜o linear dos paraˆmetros:
H0 : Rβ = q
H1 : Rβ 6= q
onde
R =
£
1 −1
¤
β0 =
£
β1 β2
¤
q = 0
Para testar podemos utilizar a estatistica t:
t =
R
ˆ
βOLSr
R
ˆ
AssV (
ˆ
βOLS)R0
Se |t| > t1−α,n−2, rejeita-se a H0
b)
Para estimarmos
ˆ
βGLS , devemos seguir os seguintes passos:
i) Rodar a equac¸a˜o por OLS para estimar os paraˆmetros:
ˆ
β1 e
ˆ
β2
ii).Calcular os res´ıduos
ˆ
εt = yt − x1t
ˆ
β1 − x2t
ˆ
β2
iii) Estimar por OLS
ˆ
ε
2
t =
ˆ
α1x1t +
ˆ
α2x2t.
iv) Construir a matriz de variancia-covariancia:
ˆ
Ω =


ˆ
α1x11 +
ˆ
α2x21 0 ... 0
0
ˆ
α1x12 +
ˆ
α2x22 ... 0
... ... ... ...
0 0 ...
ˆ
α1x1T +
ˆ
α2x2T


4
v) Calcular o estimador FGLS
ˆ
βGLS =
Ã
X 0
ˆ
Ω
−1
X
!−1
X 0
ˆ
Ω
−1
Y
ÃX xtx0t
ˆ
wt
!−1ÃX xtyt
ˆ
wt
!
onde
ˆ
wt =
ˆ
α1x1t +
ˆ
α2x2t
Portanto, temos que:
√
n
µ
ˆ
βGLS − β
¶
=
Ã
1
n
X xtx0t
ˆ
wt
!−1Ã
1√
n
X xtεt
ˆ
wt
!
Pela Lei dos Grandes Nu´meros,
plim
X xtx0t
n
ˆ
wt
= E[
xtx0t
wt
],
e o segundo termo, tera´ distribuic¸a˜o assinto´tica igual a:X xtεt
ˆ
wt
√
n
d−→ N
µ
0, E(
1
w2t
x0tε
2
txt)
¶
onde
E

x
0
tε
2
txt
ˆ
w
2
t
/x

 = E(ε
2
t/x)xtx
0
t
ˆ
w
2
t
= E

xtx
0
t
ˆ
w
2
t


Deste modo, temos que a distribuic¸a˜o assinto´tica do estimador de OLS sera´:
√
n
µ
ˆ
βGLS − β
¶
d−→ N
"
0,
µ
E
µ
xtx0t
wt
¶¶−1#
onde
V
·√
n
µ
ˆ
βGLS − β
¶¸
=
·
E
µ
xtx0t
wt
¶¸−1
E
µ
xtx0t
wt
¶·
E
µ
xtx0t
wt
¶¸−1
=
·
E
µ
xtx0t
wt
¶¸−1
h
E
³
xtx
0
t
wt
´i−1
pode ser consistemente estimado por
ˆ
V
·
ˆ
βGLS
¸
=
"X 1
n
Ã
xtx0t
ˆ
wt
!#−1
5
Como anteriormente, queremos testar a hipo´tese de que β1 − β2 = 0. Por-
tanto,
H0 : Rβ = q
H1 : Rβ 6= q
onde
R =
£
1 −1
¤
β0 =
£
β1 β2
¤
q = 0
Para testar podemos utilizar a estatistica t:
t =
R
ˆ
βGLSr
R
ˆ
V (
ˆ
βGLS)R0
Se |t| > t1−α,n−2, rejeita-se a H0
c) Neste caso, como na˜o conhecemos a forma funcional da heterocedastici-
dade, podemos corrigir a ineficieˆncia do estimador OLS utilizando o estimador
robusto da variaˆncia, proposto por White. Este estimador foi utilizado no item
a, portanto a estimac¸a˜o da matriz de variaˆncia-covariaˆncia robusta e o teste de
hipo´tese ja´ foram realizados.
3. a) Sejam xa1 e x
a
2 vetores (Tax1) que conteˆm as Ta primeiras observac¸o˜es
de x1t e x2t, respectivamente. Da mesma maneira, defina ya e εa. SejaXa = [xa01
xa02 1a0]0 e β = [β1 β2 β3].
O estimador de OLS para os betas e´ igual a
ˆ
βOLS = (X
a0Xa)−1(Xa0ya) = (Xa0Xa)−1Xa0(Xaβ + εa)
= β + (Xa0Xa)−1Xa0εa
Portanto, o estimador de OLS e´ na˜o viesado se E[(Xa0Xa)−1Xa0εa/Xa] = 0.
Note que isso na˜o e´ uma implicac¸a˜o direta da hipo´tese inicial de que E[ε/X] = 0.
Consequentemente, na˜o podemos afirmar que o estimador de OLS e´ na˜o viesado.
b) Sejam
˜
X =
"
xa1 x
a
2 1
a
ˆ
x
b
1 x
b
2 1
b
#
e
˜
ε =
"
εa1
εb1 + (x
b
1 −
ˆ
x
b
1)β1
#
6
onde
ˆ
x
b
1 = z
b ˆγ e
ˆ
γ = (
TaP
t=1
zat z
a0
t )
−1(
TaP
t=1
zat x
a0
1t)
O estimador
ˆ
β resultante sera´
ˆ
β = (
˜
X
0 ˜
X)−1(
˜
X
0
y) = β + (
˜
X
0 ˜
X)−1(
˜
X
0
˜
ε)
e e´ na˜o viesado se
E
"
(
˜
X
0 ˜
X)−1(
˜
X
0
˜
ε)/X
#
= (
˜
X
0 ˜
X)−1
˜
X
0
E(
˜
ε/X) = 0
Entretanto,
E(ε˜/X˜) = E
·
εa1
εb1 + (x
b
1 − xˆb1)β1
/X˜
¸
= E
·
εa1
εb1
/X˜
¸
+E
·
0
(zbγ + εb2 − zbγˆ)β1
/X˜
¸
= E(ε1/X˜) +E
·
0
zb(γ − γˆ)β1
/X˜
¸
+E
·
0
εb2β1
/X˜
¸
Segue, de E(ε1ε02/X,Z) = 0, que E(ε1(x−zγ)0/X,Z) = 0, o que implica que
E(ε1/X,Z)ε02 = 0 =⇒ E(ε1/X,Z) = 0, a menos que X e Z sejam perfeitamente
correlacionados. Entretanto, E(ε1/X,Z) = 0; E(ε1/X˜) = 0, uma vez que X˜
e´ um subconjunto de (X,Z).
Analisando agora o termo E
h
zb(γ − γˆ)β1/X˜
i
= zb
h
γ −E(γˆ/X˜)
i
β1. Por-
tanto este termo sera´ zero somente se E(γˆ/X˜) = γ.
Finalmente, E
h
εb2β1/X˜
i
= E
h
εb2/X˜
i
β1 = E
h
xb1 − zbγ/X˜
i
, que provavel-
mente e´ diferente de zero.
Portanto, baseando-se nas esperanc¸as acima, na˜o se pode garantir que o
estimador de β seja na˜o viesado.
A consisteˆncia do estimador requere que plim(
˜
X
0 ˜
X)−1(
˜
X
0
˜
ε) = 0.Assumindo-
se que plim(˜
X
0 ˜
X
T )
−1 = Q−1, em que esta matriz e´ positiva definida, a con-
sisteˆncia de
˜
β passa a depender do plim(
˜
X
0
˜
ε
T ).
7
Entretanto,
˜
X
0
˜
ε
T
=
1
T


xa01
ˆ
x
b0
1
xa02 x
b0
2
1a0 1b0


"
εa1
εb1 + (x
b
1 −
ˆ
x
b
1)β1
#
=
1
T


xa01 εa1 +
ˆ
x
b0
1 [ε
b
1 + (x
b
1 −
ˆ
x
b
1)β1]
xa02 ε
a
1 + x
b0
2 [ε
b
1 + (x
b
1 −
ˆ
x
b
1)β1]
1a0εa1 + 1b0[εb1 + (xb1 −
ˆ
x
b
1)β1]


=
1
T


xa01 εa1 +
ˆ
x
b0
1 ε
b
1 +
ˆ
x
b0
1 [(x
b
1 −
ˆ
x
b
1)β1]
xa02 ε
a
1 + x
b0
2 ε
b
1 + x
b0
2 [(x
b
1 −
ˆ
x
b
1)β1]
1a0εa1 + 1b0εb1 + 1b0[(xb1 −
ˆ
x
b
1)β1]


=
X 0ε1
T
+
1
T


(
ˆ
x
b0
1 − xb1)εb1
0
0

+ 1
T


ˆ
x
b0
1 [(x
b
1 −
ˆ
x
b
1)β1]
xb02 [(xb1 −
ˆ
x
b
1)β1]
1b0[(xb1 −
ˆ
x
b
1)β1]


= A+B+C
Analisaremos os termos A, B e C, separadamente:
A: Temos, por hipo´tese, que p lim(X
00ε1
T ) = 0.
B: Sabemos que
ˆ
x
b
1 = z
b ˆγ = zb(za
0
za)−1(za
0
xa) = zbγ + zb(za
0
za)−1(za
0
εa2)
xb1 = z
bγ + εb2
Portanto,
ˆ
x
b
1 − xb1 = zb(za
0
za)−1(za
0
εa2)− εb2
=⇒ (ˆx
b
1 − xb1)0εb1 = εa02 za(za
0
za)−1zb
0
εb1 − εb02 εb1
=⇒ (
ˆ
x
b
1 − xb1)0εb1
T
=
Tb
T
"
εa02 za
Ta
(
za
0
za
Ta
)−1
zb
0
εb1
Tb
− ε
b0
2 ε
b
1
Tb
#
=⇒ p lim

 (
ˆ
x
b
1 − xb1)0εb1
T


= p lim
µ
Tb
T
¶"
p lim
µ
εa02 za
Ta
¶
p lim
"
(
za
0
za
Ta
)−1
#
p lim
Ã
zb
0
εb1
Tb
!
−p lim
µ
εb02 ε
b
1
Tb
¶¸
8
Se o p lim
¡Tb
T
¢
= 0 e todos os outros termos convergerem para matrizes
finitas, a expressa˜o acima sera´ zero.
Por outro lado, se p lim
¡Tb
T
¢
> 0 , teremos que examinar os demais termos.
p lim
Ã
zb
0
εb1
Tb
!
= E
"
zb
0
εb1
Tb
/X,Z
#
=
zb
0
E(εb1/X,Z)
Tb
= 0
p lim
µ
εb02 εb1
Tb
¶
= E
·
εb02 εb1
Tb
/X,Z
¸
=
E(εb02 εb1/X,Z)
Tb
= 0
Assim, se os demais termos convergirem para matrizes finitas, teremos a
convergeˆncia.
C:
1
T
xˆb01 (x
b
1 − xˆb1)β1 =
1
T
[γ0zb0 + εa02 z
a(za
0
za)−1zb
0
[εb2 − zb(za
0
za)−1(za
0
εa2)]β1
=
1
T
h
γ0zb0εb2 − γ0zb0zb(za
0
za)−1(za
0
εa2) + ε
a0
2 z
a(za
0
za)−1zb
0
εb2
−εa02 za(za
0
za)−1zb
0
zb(za
0
za)−1(za
0
εa2)
i
β1
=
Tb
T
"
γ0zb0εb2
Tb
− γ
0zb0zb
Tb
(
za
0
za
Ta
)−1(
za
0
εa2
Ta
)
+
εa02 z
a
Ta
(
za
0
za
Ta
)−1
zb
0
εb2
Tb
−ε
a0
2 z
a
Ta
(
za
0
za
Ta
)−1
zb
0
zb
Tb
(
za
0
za
Ta
)−1(
za
0
εa2
Ta
)
#
β1
Se o p lim
¡Tb
T
¢
= 0 e todos os outros termos convergerem para matrizes
finitas, a expressa˜o acima sera´ zero.
Por outro lado, se p lim
¡
Tb
T
¢
> 0 , teremos que examinar os demais termos.
Suponha que Ta −→∞,
p lim
zb0εb2
Tb
= E
"
zb
0
εb2
Tb
/Z
#
=
zb
0
E(εb2/Z)
Tb
= 0
p lim
za
0
εa2
Ta
= E
"
za
0
εa2
Ta
/Z
#
=
za
0
E(εb2/Z)
Ta
= 0
Assim, se Ta −→∞, toda a expressa˜o ira´ convergir para zero.
1
T
ˆ
x
b0
2 (x
b
1 −
ˆ
x
b
1)β1 =
Tb
T
[
xb02 εb2
Tb
− x
b0
2 z
b
Tb
(
za
0
za
Ta
)−1(
za
0
εa2
Ta
)]β1
p lim
xb02 εb2
Tb
= E
·
xb02 εb2
Tb
/X
¸
=
xb02 E(εb2/X)
Tb
= 0
p lim
za
0
εa2
Ta
= E
"
za
0
εa2
Ta
/Z
#
=
za
0
E(εb2/Z)
Ta
= 0, se Ta −→∞
9
e, por fim,
1
T
1b0(xb1 −
ˆ
x
b
1)β1 =
Tb
T
[
1b0εb2
Tb
− 1
b0zb
Tb
(
za
0
za
Ta
)−1(
za
0
εa2
Ta
)]β1
Se o p lim
¡Tb
T
¢
= 0 e todos os outros termos convergerem para matrizes
finitas, a expressa˜o acima sera´ zero.
Por outro lado, se p lim
¡
Tb
T
¢
> 0 , mas Ta −→∞,
p lim
1b0εb2
Tb
= E
·
1b0εb2
Tb
/Z
¸
=
1b0E(εb2/Z)
Tb
= 0
p lim
za
0
εa2
Ta
= E
"
za
0
εa2
Ta
/Z
#
=
za
0
E(εb2/Z)
Ta
= 0, se Ta −→∞
Neste caso, o u´ltimo termo tambe´m convergira´ para zero.
Em resumo, o estimador de β sera´ consistente se p lim
¡
Tb
T
¢
= 0 ou p limTa =
0
4. a) Para o j-e´simo grupo, temos:
yj = x
0
jβ + εj
Onde yj , x
,
j e εjsa˜o vetores de dimensa˜o jx1.
Premultiplicando ambos os lados da equac¸a˜o por [1/j]i0, onde i e´ um vetor
de 1’s de dimensa˜o jx1, encontramos:
1
j
i0yj =
1
j
i0x0jβ +
1
j
i0εj ⇒ yj = x
0
jβ + εj
Para todos grupos a equac¸a˜o fica: y = x0β + ε,
onde y = [y1y2...yJ ], x = [x1x2...xJ ] e ε = [ε1ε2...εJ ].
Ω = E[εε0] = E


ε1ε1 ε1ε2 ... ε1εJ
ε2ε1 ε2ε2 ... ε2εJ
... ... ... ...
εJε1 εJε2 ... εJεJ

 =


σ2 0 ... 0
0 σ
2
2 ... 0
... ... ... ...
0 0 ... σ
2
J


Assim, o estimador de minimos quadrados generalizados (GLS) e´:
ˆ
βGLS = (x
0Ω−1x)−1(x0Ω−1y)
Como a inversa da matriz oˆmega e´ dada por:
Ω−1 =


1
σ2 0 ... 0
0 2σ2 ... 0
... ... ... ...
0 0 ... Jσ2


10
Podemos reescrever o estimador GLS:
ˆ
βGLS = (x¯
0Ω−1x¯)−1(x¯0Ω−1y¯) = (
X xjxj
σ2/j
)−1(
X xj y¯j
σ2/j
)
= (
X
jxj x¯j)
−1(
X
jxj y¯j)
Portanto, os grupos de observac¸o˜es sa˜o ponderados pelo nu´mero de ob-
servac¸o˜es de cada grupo, isto porque a me´dia dos grupos que teˆm mais ob-
servac¸o˜es possuem menores variaˆncias e, portanto, recebem maiores pesos.
b) O coeficiente de determinac¸a˜o (R2) e´ uma medida nume´rica do ajuste da
regressa˜o e espera-se que os valores me´dios dos dados agrupados estejam mais
pro´ximos a` regressa˜o quando comparados com todas as observac¸o˜es da amostra,
gerando assim um melhor ajuste, ou seja, apresentando um R2 maior.
Mas isso na˜o contradiz o Teorema de Gauss-Markov. Para verificarmos isso,
reescreveremos
ˆ
βGLS como:
βˆGLS = (x
0H 0Hx)−1(x0H 0Hy)
onde
H =


1 0 0 ... 0 0 ... 0
0 12
1
2 ... 0 0 ... 0
... ... ... ... ... ... ... ...
0 0 0 ... 1J
1
J ...
1
J


A variaˆncia do estimador GLS sera´: V AR(
ˆ
βGLS/x) = σ
2(x0H 0Hx)−1
Enta˜o, a diferenc¸a entre as variaˆncias de OLS e GLS e´:
V AR(
ˆ
βOLS/x)− V AR(
ˆ
βGLS/x) = σ
2(x0x)−1 − σ2(x0H 0Hx)−1
Para descobrirmos o sinal da diferenc¸a basta analisarmos as matrizes inver-
tidas, ou seja, o sinal da expresa˜o abaixo:
x0x− x0H 0Hx = x0(I −H 0H)x
Como (I −H 0H) e´ idempotente, x0(I −H 0H)x ≡ x0(I −H 0H)0(I −H 0H)x,
que e´ uma matriz positiva definida. Portanto, x0x ≥ x0H 0Hx, o que implica que
V AR(
ˆ
βOLS/x) ≤ V AR(
ˆ
βGLS/x). Assim, a variaˆncia do estimador de OLS na˜o
e´ maior que a variaˆncia do estimador GLS.
5. A densidade conjunta de (y1, y2,..., yn) e´ igual a:
f(y1, y2,..., yn/x) =
nY
i=1
1√
2π(z0iγ)
exp
·
−1(yi − x0iβ)2
2(z0iγ)2
¸
11
Assim, a func¸a˜o de log-verossimilhanc¸a e´ dada por:
⇒ lnL(θ) = −n
2
ln(2π)−
X
ln(z0iγ)−
1
2
X·yi − x0iβ
(z0iγ)
¸2
Para maximizarmos a func¸a˜o acima, devemos deriva´-la nos paraˆmetros de
interesse θ0 =
£
β γ
¤
e igualar a zero. Desta forma, derivamos as seguintes
Condic¸o˜es de Primeira Ordem (CPO):
∂ lnL
∂β
=
X
xi
·
yi − x0iβ
(z0iγ)2
¸
= 0
∂ lnL
∂γ
= −
X zi
(z0iγ)
+
X
zi
(yi − x0iβ)2
(z0iγ)3
= 0
As derivadas segundas sa˜o
∂2 lnL
∂β∂β0
= −
X xix0i
(z0iγ)2
∂2 lnL
∂β∂γ0
=
∂2 lnL
∂γ∂β0
= −2
X·xi(yi − x0iβ)z0i
(z0iγ)3
¸
∂2 lnL
∂γ∂γ0
=
X ziz0i
(z0iγ)2
− 3
X (yi − x0iβ)2ziz0i
(z0iγ)4
Enta˜o, a matriz de informac¸a˜o sera´
I(θ) = E
·
−∂
2 lnL
∂θ∂θ0
¸
= E


P xix0i
(z0iγ)2
2
Phxi(yi−x0iβ)z0i
(z0iγ)3
i
2
Phxi(yi−x0iβ)z0i
(z0iγ)3
i
−
P ziz0i
(z0iγ)2
+ 3
P (yi−x0iβ)2ziz0i
(z0iγ)4


=
" P xix0i
(z0iγ)2
0
0 2
P ziz0i
(z0iγ)2
#
pois
E
·X xi(yi − x0iβ)z0i
(z0iγ)3
¸
=
·X xiE(yi − x0iβ)z0i
(z0iγ)3
¸
= 0
e
E
·
−
X ziz0i
(z0iγ)2
+ 3
X (yi − x0iβ)2ziz0i
(z0iγ)4
¸
= −
X ziz0i
(z0iγ)2
+ 3
X E[(yi − x0iβ)2]ziz0i
(z0iγ)4
= −
X ziz0i
(z0iγ)2
+ 3
X (z0iγ)2ziz0i
(z0iγ)4
= 2
X ziz0i
(z0iγ)2
12
O Limite Inferior de Crame´r-Rao para a variaˆncia do estimador na˜o viesado
e´ a inversa da matriz de informac¸a˜o, que no caso sera´ a matriz diagonal cu-
jos elementos da diagonal sa˜o exatamente os elementos inversos da matriz de
informac¸a˜o
V (θ) = [I(θ)]−1 =
µ
E
·
−∂
2 lnL
∂θ∂θ0
¸¶−1
=
Ã" P xix0i
(z0iγ)2
0
0 2
P ziz0i
(z0iγ)2
#!−1
=


(z0iγ)
2
S
xix0i
0
0
(z0iγ)
2
2
S
ziz0i


Segue pelo TLC de Lindberg-Levy temos
√
n(
ˆ
θ − θ) d−→ N
³
0, n [I(θ)]−1
´
o que implica que a distribuic¸a˜o assinto´tica de
ˆ
θ sera´
ˆ
θ
d−→ N
³
θ, [I(θ)]−1
´
Consequentemente,
ˆ
βMLE
d−→ N(β, [I(θ)]−1)
Como
ˆ
θ e´ estimador consistente para θ, a variaˆncia assinto´tica de
ˆ
βMLE
pode ser consistentementeestimada por
AssV (
ˆ
βMLE) =
(z0i
ˆ
γ)2P
xix0i
6. a) No primeiro esta´gio de 2SLS, calculamos os valores estimados de x1 e
y2, baseados na regressa˜o de x1 e y2 contra x1, x2 e x3, ou seja:"
ˆ
x1
ˆ
y2
#
= Z(Z 0Z)−1Z0
·
x1
y2
¸
= PZ
·
x1
y2
¸
,
onde PZ = Z(Z0Z)−1Z0 e Z0 =
£
x01 x
0
2 x
0
3
¤
.
No segundo esta´gio, estimamos
·
γ
β
¸
baseados na regressa˜o de y1, em
ˆ
y2e
13
ˆ
x1:


ˆ
γ
ˆ
β

 =
·µ
y02PZ
x01PZ
¶¡
PZy2 PZx1
¢¸−1
µ
y02PZ
x01PZ
¶·¡
y2 x1
¢µ γ
β
¶
+ ε1
¸
=
·µ
y02PZy2 y02PZx1
x01PZy2 x01PZx1
¶¸−1µ
y02PZy2 y02PZx1
x01PZy2 x01PZx1
¶µ
γ
β
¶
+
·µ
y02PZy2 y
0
2PZx1
x01PZy2 x01PZx1
¶¸−1µ
y02PZε1
x01PZε1
¶
=
µ
γ
β
¶
+
·µ
y02PZy2 y
0
2PZx1
x01PZy2 x
0
1PZx1
¶¸−1µ
y02PZε1
x01PZε1
¶
Sendo
p lim
1
n
µ
y02PZy2 y02PZx1
x01PZy2 x
0
1PZx1
¶
= Q
onde Q e´ uma matriz positiva definida, o estimador 2SLS e´ consistente desde
que
p lim
1
n
(x01PZε1) = p lim
1
n
(x01ε1) = 0 (por hipo´tese),
p lim
1
n
(y02PZε1) = 0
e que x1, x2 e x3 sejam instrumentos va´lidos.
Entretanto, o estimador 2SLS na˜o utiliza as informac¸o˜es contidas na hete-
rocedasticidade do termo aleato´rio. Portanto, na˜o e´ eficiente.
E´ poss´ıvel demonstrar que o estimador 2SLS e´ um caso especial do estimador
GMM, quando estimamos GMM utilizando como matriz de pesos a inversa de
σ2(Z´Z). Para este caso, o estimador GMM minimiza a seguinte expressa˜o:
1
T
X
(yt − x0tβ)0z0t
1
σ2
³X
ztz
0
t
´−1 1
T
X
zt(yt − x0tβ)
A condic¸a˜o de primeira ordem e´ dada por:X
xtz
0
t
³X
ztz
0
t
´−1X
zt(yt − x0tβ) = 0
Seja
ˆ
δ
0
=
P
xtz0t (
P
ztz0t)
−1
o coeficiente da regressa˜o de xt contra zt esti-
mada por MQO, enta˜o
ˆ
δ0zt e´ o valor previsto de xt, o que implica que a C.P.O
pode ser escrita por: X ˆ
xt(yt − x0tβ) = 0
14
Resolvendo para β temos:
ˆ
β =
X
(
ˆ
xtx0t)
−1
X
(
ˆ
xtyt) =
X
(
ˆ
xt
ˆ
x
0
t)
−1
X
(
ˆ
xtyt)
que e´ exatamente o estimador 2SLS.
b) Vimos no item a) que o estimador 2SLS na˜o utiliza a matriz de pon-
derac¸o˜es o´tima, que no caso e´ igual a:
E
·X ˆ
xtutu0t
ˆ
x
0
t
¸
=
X ˆ
xtE (utu0t)
ˆ
x
0
t =
X ˆ
xtσ2x21t
ˆ
x
0
t = σ
2
X ˆ
xtx21t
ˆ
x
0
t
Portanto, para obtermos um estimador mais eficiente, o modelo deve ser
estimado por GMM usando a seguinte matriz de ponderac¸a˜o:
1
σ2
µX ˆ
xtx
2
1t
ˆ
x
0
t
¶−1
onde x1t =
·
y2
x1
¸
Neste caso, o estimador GMM minimiza:
1
T
X
(yt − x0tβ)0z0t
1
σ2
³X
xˆtx21txˆ
0
t
´−1 1
T
X
ztyt
c) A matriz de variaˆncia-covariaˆncia do estimador de 2SLS e´ dada por:
V


ˆ
γ2SLS
ˆ
β2SLS

 = E
h
(Xˆ 0Xˆ)−1(Xˆ 0εε0Xˆ)(Xˆ 0Xˆ)−1/Xˆ
i
= (Xˆ 0Xˆ)−1Xˆ 0ΩXˆ(Xˆ 0Xˆ)−1
onde Ω = E(εitε0it) = σ
2diag
£
x211 x
2
12 ... x
2
1T
¤
Enta˜o,
√
n


ˆ
γ2SLS
ˆ
β2SLS
− γ
β

 d−→ N [0, Q−1Q∗Q−1]
ˆ
γ2SLS
ˆ
β2SLS
d−→ N
·
γ
β
,
Q−1Q∗Q−1
n
¸
onde Q−1 = p lim(
ˆ
X
0 ˆ
X
T )
−1 e Q∗ = p lim(
ˆ
X
0
Ω
ˆ
X
T )
−1.
O teste cuja hipo´tese nula e´ γ = 0, pode ser baseado na seguinte estat´ıstica:
γˆ[(Xˆ 0Xˆ)−1Xˆ 0ΩXˆ(Xˆ 0Xˆ)−1]a11
ˆ
γ
d−→ κ21
onde a11 indica que e´ o elemento da primeira linha e primeira coluna da matriz.
A hipo´tese nula e´ rejeitada ao n´ıvel de significaˆncia de 5% se a estat´ıstica acima
tiver valor observado maior que o valor tabelado κ295%,1.
15

Continue navegando

Outros materiais