Buscar

Exercícios de Estatística - Máxima Verossimilhança

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 17 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 17 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 17 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Universidade de São Paulo - Departamento de Economia
Curso de Verão Estatística
Prof. Dr. Ricardo Avelino
Monitor: Fernando Santos
1o Semestre de 2009
Lista de Exercícios 3 - Solução
Questão 1
a)
E
¡
σˆ2
¢
= E
·P
(si+∆ − si − µˆ∗∆)2
n∆
¸
=
P
E(si+∆ − si − µˆ∗∆)2
n∆
Mas
E(si+∆ − si − µˆ∗∆)2 = E(si+∆ − si − µ∗∆+ (µ∗ − µˆ∗)∆)2
= E(si+∆ − si − µ∗∆)2 +E((µ∗ − µˆ∗)∆)2
+2E [si+∆ − si − µ∗∆] [(µ∗ − µˆ∗)∆]
= σ2∆+ V ((µ∗ − µˆ∗)∆)− 2Cov (si+∆ − si, µˆ∗∆)
= σ2∆+
σ2
n
∆− 2∆V ar (si+∆ − si)
n∆
= σ2∆+
σ2∆
n
− 2σ
2∆
n
= σ2∆− σ
2∆
n
=
(n− 1)
n
σ2∆
Portanto
E
¡
σˆ2
¢
=
(n− 1)
n
σ2
Questão 2
a) Substituindo a expressão de pi no modelo, temos que
yi = α0 + α1pi + α2x
∗
2i + ui − α1'i = α0 + α1pi + vi
vi = α2x
∗
2i + ui − α1'i
Assim sendo, o estimador obtido na regressão de yi contra pi é dado por
αˆp1 =
P
(pi − p¯)(yi − y¯)P
(pi − p¯)2
=
n−1
n−1
P
piyi − np¯y¯P
(pi − p¯)2
1
Para analisarmos a consistência de αˆp1, utilizando a Lei fraca de Klinchine e
o Teorema de Mahn-Wald, temos que
n−1
X
(pi − p¯)2 = n−1
X
p2i − (p¯)2
p→ E(p2i )−E(pi)2 = V ar(pi)
n−1
X
piyi − np¯y¯ = n−1
X
piyi − p¯y¯
p→ E(piyi)−E(pi)E(yi) = Cov(pi, yi)
Substituindo pi e yi, temos que
Cov(pi, yi) = Cov [(x
∗
1i +'i), α0 + α1x
∗
1i + α2x
∗
2i + ui]
= α2Cov(x
∗
1i, x
∗
2i) + α1Cov(x
∗
1i, x
∗
1i)
= α2Cov(x
∗
1i, x
∗
2i) + α1V ar(x
∗
1i)
V ar(pi) = V ar(x∗1i)− σ2'
Assim sendo, temos que
p lim αˆp1 =
p limn−1
P
piyi − np¯y¯
p limn−1
P
(pi − p¯)2
=
Cov(pi, yi)
V ar(pi)
=
α2Cov(x∗1i, x
∗
2i) + α1V ar(x
∗
1i)
V ar(x∗1i) + σ
2
'
= α1 +
α2Cov(x∗1i, x
∗
2i)
V ar(x∗1i) + σ
2
'
− α1σ
2
'
V ar(x∗1i) + σ
2
'
p lim αˆp1 = α1 +
α2Cov(x∗1i, x
∗
2i)
V ar(x∗1i) + σ
2
'
− α1σ
2
'
V ar(x∗1i) + σ
2
'
Assim, temos que αˆp1 é inconsistente. A inconsistência ocorre tanto em vir-
tude da omissão de x∗2i
³
dado por α2Cov(x
∗
1i,x
∗
2i)
V ar(x∗1i)+σ
2
'
´
como do erro de medida pre-
sente em pi
³
α1σ
2
'
V ar(x∗1i)+σ
2
'
´
. Como α2 > 0, o sinal do segundo termo dependerá
da covariância entre x∗1i e x
∗
2i, enquanto que o sinal do terceiro termo será dado
por α1.
b) O estimador da regressão de mi contra pi é dado por
βˆ1 =
P
(pi − p¯)(mi − m¯)P
(pi − p¯)2
Assim como no item anterior, temos queX
(pi − p¯)(mi − m¯)
p→ Cov(mi, pi)
2
Cov(mi, pi) = E [(x∗1i +'i) (x
∗
1i + ηi)]−E (x∗1i +'i)E (x∗1i + ηi)
= E
£
(x∗1i)
2
¤
−E(x∗1i)2 = V ar(x∗1i)
Portanto, temos que, para Cov(x∗1i, x
∗
2i) = 0,
p lim α˜1 = p lim
αˆp1
βˆ1
=
p lim αˆp1
p lim βˆ1
=
Cov(yi, pi)/V ar(pi)
Cov(mi, pi)/V ar(pi)
=
Cov(yi,mi)
Cov(mi, pi)
=
α2Cov(x∗1i, x
∗
2i) + α1V ar(x
∗
1i)
V ar(x∗1i)
= α1
c) O estimador de variáveis instrumentais quando mi é usado como instru-
mento para pi é dado por
αIV1 =
P
(yi − y¯)(mi − m¯)P
(mi − m¯)(pi − p¯)
=
αˆp1
βˆ1
Tal resultado é intuitivo, já que no item (b) fizemos o procedimento do
estimador de mínimos quadrados em 2 estágios, regredindo primeiramente a
variável correlacionada contra o instrumento e, no segundo estágio, rodando yi
contra a variável resultante do primeiro estágio.
Questão 3
a)
L(xi|θ) =
nY
i=1
θxθ−1i
lnL(xi|θ) =
nX
i=1
ln
¡
θxθ−1i
¢
= n ln θ + (θ − 1)
nX
i=1
lnxi
∂ lnL(xi|θ)
∂θ
=
n
θ
+
nX
i=1
lnxi
∂2 lnL(xi|θ)
∂θ2
= − n
θ2
∂ lnL(xi|θ)
∂θ
= 0 =⇒ n
θ
+
nX
i=1
lnxi = 0
θMV = − nPn
i=1 lnxi
Sendo g(θ) = θ(1+θ)−1, pelo princípio da invariância temos que o estimador
de máxima verossimilhança de g(θ) é dado por g(θMV ).
3
b) ·
−E∂
2 lnL(xi| θ)
∂θ2
¸−1
=
θ2
n
√
n(θMV − θ) d→ N(0, θ
2
n
)
Note que
g0(θ) =
1
(1 + θ)2
Utilizando o método delta, temos que
√
n
h
g
³
θMV
´
− g(θ)
i
d→ g0(θ)N(0, θ
2
n
) = N
µ
0,
θ2
n(1 + θ)4
¶
Questão 4
a)
L(xi|θ) =
nY
i=1
1
θ
exp
³
−x
θ
´
lnL(xi|θ) =
nX
i=1
·
ln
1
θ
exp
³
−x
θ
´¸
= −n ln θ −
nX
i=1
xi
θ
b)
∂ lnL(xi|θ)
∂θ
= −n
θ
+
nX
i=1
xi
θ2
= 0
θML = n−1
nX
i=1
xi = x¯
c)
∂2 lnL(xi|θ)
∂θ2
=
n
θ2
− 2
Pn
i=1 xi
θ3·
−E∂
2 lnL(xi|θ)
∂θ2
¸−1
=
·
− n
θ2
+ 2
nθ
θ3
¸−1
=
θ2
n
√
n(θMV − θ) d→ N
µ
0,
θ2
n
¶
d) Pelo princípio da invariância, o estimador de máxima verossimilhança de
θ3 é dado por θˆ
3
.Pelo teorema de Mahn-Wald, esse estimador é consistente,
dada a consistência de θˆ.
4
e) Utilizando o método Delta, sendo g(θ) = θ3, temos que
√
n
h
g
³
θMV
´
− g(θ)
i
d→ g0(θ)N(0, θ
2
n
) = 3θ2N(0,
θ2
n
) = N
¡
0, 9θ6
¢
Questão 5
a)
lnL =
P
yi>0
−1
2
·
ln(2π) + lnσ2 +
(yi − β0xi)2
σ2
¸
+
P
yi=0
ln
·
1− Φ
µ
β0xi
σ
¶¸
b)
lnL =
P
yi>0
−1
2
£
ln(2π)− ln θ2 + (θyi − γ0xi)2
¤
+
P
yi=0
ln [1− Φ (γ0xi)]
∂ lnL
∂θ
= 0 =⇒
P
yi>0
·
1
θ
− (θyi − γ0xi)yi
¸
= 0
∂ lnL
∂γ
= 0 =⇒
P
yi>0
(θyi − γ0xi)xi +
P
yi=0
−φ (γ0xi)
1− Φ (γ0xi)
xi = 0
c) As segundas derivadas são iguais à
∂2 lnL
∂θ∂θ0
= −n1
θ2
−
P
yi>0
y2i
∂2 lnL
∂γ∂θ0
=
P
yi>0
xiyi
∂2 lnL
∂γ∂γ0
=
P
yi=0
"
γ0xiφ (γ0xi)
1− Φ (γ0xi)
− φ
2 (γ0xi)
[1− Φ (γ0xi)]2
#
xix0i −
P
yi>0
xix0i
=
P
yi=0
φ (γ0xi)
1− Φ (γ0xi)
·
γ0xi −
φ (γ0xi)
1− Φ (γ0xi)
¸
xix
0
i −
P
yi>0
xix
0
i
Portanto, o Hessiano pode ser escrito como
H =


P
yi=0
φ(γ0xi)
1−Φ(γ0xi)
·
γ0xi −
φ(γ0xi)
1−Φ(γ0xi)
¸
xix0i 0
0 −n1θ2


+


−
P
yi>0
xix0i
P
yi>0
xiyiP
yi>0
yix0i −
P
yi>0
y2i


5
Como γ0xi −
φ(γ0xi)
1−Φ(γ0xi) < 0, as matrizes acima são negativa definidas. O
Hessiano é a soma de duas matrizes negativa definidas., logo, também é nega-
tivo definido, o que implica que a função de log-verossimilhança é globalmente
côncava.
Questão 6
a) Seja
g(U0, U1) =
Z ∞
−∞
g(U0, U1, V )dV
e
g(U0) =
Z ∞
−∞
g(U0, U1)dU1
Então,
g(U0, U1|Y0 > 0) = g(U0, U1|Xβ0 + U0 > 0) =
g(U0, U1)1(U0 > −Xβ0)
Pr(U0 > −Xβ0)
Portanto,
g(U1|U0 > −Xβ0) =
R∞
−Xβ0
g(U0, U1)dU0R∞
−Xβ0
g(U0)dU0
e
f(Y1|Y0 > 0,X) =
R∞
−Xβ0
g(U0, Y1 −Xβ1)dU0R∞
−Xβ0
g(U0)dU0
Assim sendo, a função de verossimilhança é igual a
L =
NY
i=1
[f(Yi1 |Yi0 > 0,X) ]
b) Seja
g(U1) =
Z ∞
−∞
Z ∞
−∞
g(U0, U1, V )dV dU0
g(U1|0 < Y1 < C1) = g(U1|0 < Xβ1 + U1 < C1)
= g(U1|−Xβ1 < U1 < C1 −Xβ1)
=
g(U1)1(−Xβ1 < U1 < C1 −Xβ1)
Pr(−Xβ1 < U1 < C1 −Xβ1)
=
g(U1)1(−Xβ1 < U1 < C1 −Xβ1)R C1−Xβ1
−Xβ1
g(U1)dU1
6
Portanto,
f(Y1|0 < Y1 < C1) = g(Y1 −Xβ1)1(0 < Y1 < C1)R C1
0
g(Y1 −Xβ1)dY1
E a função de verossimilhança é dada por
L =
NY
i=1
"
g(Yi1 −Xiβ1)1(0 < Yi1 < C1)R C1
0
g(Yi1 −Xiβ1)dYi1
#
c)
Pr(Y1 > 0) = Pr(Xβ1 + U1 > 0) = Pr(U1 > −Xβ1) =
Z ∞
−Xβ1
g(U1)dU1
Similarmente,
Pr(Y1 ≤ 0) = Pr(Xβ1 + U1 ≤ 0) = Pr(U1 ≤ −Xβ1) =
Z −Xβ1
−∞
g(U1)dU1
Portanto, a função de verossimilhança pode ser escrita como
L =
NY
i=1
[Pr(Yi1 > 0)]
Di [Pr(Yi1 ≤ 0)]1−Di
para
Di =
½
1 se Yi1 ≥ 0
0 se Yi1 < 0
d)
Pr(Y1 ≥ Y0) = Pr(Xβ1 + U1 ≥ Xβ0 + U0)
= Pr(U1 − U0 ≥ −(Xβ1 −Xβ0)) =
Z ∞
−(Xβ1−Xβ0)
gU1−U0(t)dt
sendo que gU1−U0(t) pode ser derivada a partir da função densidade g(U1, U0)
conforme segue abaixo:
gU1−U0(t) =
Z ∞
−∞
g(U0 + t, U0)dU0
Além disso,
g(U1, U1 − U0|U1 − U0 ≥ −(Xβ1 −Xβ0))
=
g(U1, U1 − U0)1(U1 − U0 ≥ −(Xβ1 −Xβ0))
Pr(U1 − U0 ≥ −(Xβ1 −Xβ0))
7
para gU1,U1−U0(s, t) = gU1,U0(s, s− t).Portanto,
g(U1|U1 − U0 ≥ −(Xβ1 −Xβ0)) =
R∞
−(Xβ1−Xβ0)
g(U1, U1 − U0)d(U1 − U0)R∞
−(Xβ1−Xβ0)
gU1−U0(t)dt
e
g(Y1 |Y1 ≥ Y0,X ) =
R∞
0
g(Y1 −Xβ1, Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)R∞
0
g(Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)
Similarmente,
Pr(Y1 < Y0) = Pr(Xβ1 + U1 < Xβ0) = Pr(U1 − U0 < −(Xβ1 −Xβ0)
=
Z −(Xβ1−Xβ0)
−∞
gU1−U0(t)dt
e
g(U0 |U1 − U0 < −(Xβ1 −Xβ0 )) =
R −(Xβ1−Xβ0)
−∞ g(U0, U1 − U0)d(U1 − U0)R −(Xβ1−Xβ0)
−∞ gU1−U0(t)dt
o que implica que
g(Y0 |Y0 > Y1,X ) =
R 0
−∞ g(Y0 −Xβ0, Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)R 0
−∞ g(Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)
Portanto, a função de verossimilhança é igual a
L =
NY
i=1
[g(Yi1|Yi1 ≥ Yi0,Xi) Pr(Yi1 ≥ Yi0)]Di [g(Yi0|Yi0 ≥ Yi1,Xi) Pr(Yi0 ≥ Yi1)]1−Di
=
NY
i=1
·Z ∞
0
g(Yi1 −Xiβ1, Yi1 − Yi0 − (Xiβ1 −Xiβ0))d(Yi1 − Yi0)
¸Di
×
·Z 0
−∞
g(Yi0 −Xiβ0, Yi1 − Yi0 − (Xiβ1 −Xiβ0))d(Yi1 − Yi0)
¸1−Di
para
Di =
½
1 se Yi1 ≥ Yi0
0 se Yi1 < Yi0
e) Seja
g(U1, V ) =
Z ∞
−∞
g(U0, U1, V )dU0
g(U0, V ) =
Z ∞
−∞
g(U0, U1, V )dU1
8
e
g(V ) =
Z ∞
−∞
g(U1, V )dU1
Então
Pr(I ≥ 0) = Pr(V ≥ −Zγ) =
Z ∞
−Zγg(V )dV
e
g(U0, U1, V |V > −Zγ) = g(U0, U1, V )1 (V > −Zγ)R∞
−Zγ g(V )dV
Portanto,
g(U1|V > −Zγ) =
R∞
−Zγ g(U1, V )dVR∞
−Zγ g(V )dV
o que implica que
g(Y1|I > 0,X, Z) =
R∞
−Zγ g(Y1 −Xβ1, V )dVR∞
−Zγ g(V )dV
Similarmente,
Pr(I < 0) = Pr(V < −Zγ) =
Z −Zγ
−∞
g(V )dV
e
g(Y0|I < 0,X,Z) =
R−Zγ
−∞ g(Y0 −Xβ0, V )dVR−Zγ
−∞ g(V )dV
Consequentemente, a função de verossimilhança pode ser expressa como
L =
NY
i=1
[g(Yi1|Ii ≥ 0,Xi, Zi) Pr(Ii ≥ Yi0)]Di [g(Yi0|Ii ≥ 0,Xi, Zi) Pr(Ii ≥ 0)]1−Di
=
NY
i=1
·Z ∞
−Zγ
g(Yi1 −Xiβ1, Vi)dVi
¸Di "Z −Zγ
−∞
g(Yi0 −Xiβ0, Vi)dVi
#1−Di
Onde Di = 1 se Ii ≥ 0 e 0 c.c
Questão 7
9
a)
E(X2) =
Z 1
0
θ(1 + θ)xθ+1(1− x)dx
=
Z 1
0
θ(1 + θ)xθ+1dx−
Z 1
0
θ(1 + θ)xθ+2dx
=
θ(1 + θ)x2+θ
2 + θ
¯¯¯¯1
0
− θ(1 + θ)x
3+θ
3 + θ
¯¯¯¯1
0
=
θ(1 + θ)
2 + θ
− θ(1 + θ)
3 + θ
=
θ(1 + θ)(θ + 3− θ − 2)
(θ + 2) (3 + θ)
=
θ(1 + θ)
(θ + 2) (3 + θ)
Assim sendo, as condições de ortogonalidade são dadas por
E


X − θ
θ + 2
X2 − θ(1 + θ)
(θ + 2) (3 + θ)

 =
·
0
0
¸
Assim sendo, a contrapartida amostral é dada por
g(θ;X) =


n−1
Pn
i=1
µ
Xi −
θ
θ + 2
¶
n−1
Pn
i=1
µ
X2i −
θ(1 + θ)
(θ + 2) (3 + θ)
¶


O estimador de GMM é dado por
argmin
θ
g(θ;X)0Vˆ −1n
³
θˆ
´
g(θ;X) (1)
para
Vn(θˆ) = n
−1
nX
i=1


X − θˆ
θˆ + 2
X2 − θˆ(1 + θˆ)³
θˆ + 2
´³
3 + θˆ
´




X − θˆ
θˆ + 2
X2 − θˆ(1 + θˆ)³
θˆ + 2
´³
3 + θˆ
´


0
(2)
e pode ser obtido em 2 passos, no primeiro utilizando Vˆ −1
³
θˆ
´
= I em (1),
obtendo um estimador consistente. Utilizamos esse estimador em (2). Por fim,
re-estimamos (1) utilizando o valor de V (θˆ) obtido no primeiro passo, obtendo
θGMMn .
b) Sendo
D0n =
∂g(θ;X)
∂θ0
¯¯¯¯
θ=θGMMn
=


2
(θ + 2)2
(2θ+1)(θ2+5θ+6)−(θ2+θ)(2θ+5)
(θ+2)2(θ+3)2


¯¯¯¯
¯¯
θ=θGMMn
10
temos que
√
n(θGMMn − θ)
p→ N
³
0,DnVˆ −1n D
0
n
´
Questão 8
a) As condições de ortogonalidade e suas contrapartidas amostraias são
dadas, respectivamente, por
E


½
y2t −
v
v − 2
¾
½
y4t − 3
v2
(v − 2)(v − 4)
¾

 =
·
0
0
¸
g(v;YT )=


½
µˆ2,T −
v
v − 2
¾
½
µˆ4,T − 3
v2
(v − 2)(v − 4)
¾


O estimador de GMM é dado por
argmin
v
g(v;YT )
0Vˆ −1T (vˆ) g(v;YT ) (3)
para
V (vˆ) = T−1
TX
i=1


½
y2t −
v
v − 2
¾
½
y4t − 3
v2
(v − 2)(v − 4)
¾




½
y2t −
v
v − 2
¾
½
y4t − 3
v2
(v − 2)(v − 4)
¾


0
(4)
e é obtido da mesma forma que no exercício anterior.
b) Sendo
D0T =
∂g(v;X)
∂v0
¯¯¯¯
v=vGMMT
=


2
(v − 2)2
3
µ
2v(v2 − 6v + 8)− v2(2v − 6)
(v − 2)2(v − 4)2
¶


¯¯¯¯
¯¯¯¯
v=vGMMT
temos que √
n(vGMMT − v)
p→ N
³
0,DT Vˆ
−1
T D
0
T
´
Questão 9
11
Podemos expressar as condições de momento da seguinte maneira:
Ef(xt, β) =
·
Ef1(xt, β)
Ef2(xt, β)
¸
nx1
Analogamente,
d0 = E
·
∂f(xt, β)
∂β
¸
=
· E ³∂f1(xt,β)∂β ´kxk
E
³
∂f2(xt,β)
∂β
´
n−kxk
¸
nx1
=
·
d10
d20
¸
É preciso designar uma matriz tal que quando formos trabalhar com todo o
sistema de equações, utilizemos apenas Ef1(xt, β) = 0, i.e,
a0Ef(xt, β) = 0 ⇐⇒ Ef1(xt, β) = 0
Seja a0 = [A0 B0]kxn , A0: kxk B0: kx(n− k)
[A0 B0]
·
Ef1(xt, β)
Ef2(xt, β)
¸
= A0Ef1(xt, β) +B0Ef2(xt, β)
Portanto é necessário que B0 = 0 e que A0 seja uma matriz não singular kxk
b) Esse procedimento em dois passos não é necessariamente eficiente. Do
ponto de vista do sistema, a matriz de seleção eficiente é dada por a∗0 =
d00V
−1
0 (lembre que para ∀e não singular e para toda matriz de seleção a∗0, ea∗0
induz à mesma distribuição que a∗0.
O procedimento de dois passos é eficiente se e somente se£
d10 d20
¤
V −10 = [K0 0]
para alguma matriz K0 não singular nxn
c) Sem perda de generalidade, imponha a0 =
£
Ik 0
¤
1√
T
TX
t=1
f(xt, βt) ≈ (I − d0(a0d0)−1a0)
1√
T
TX
t=1
f(xt, β0)
Seja
c0 ≡ (I − d0(a0d0)−1a0)
Como
1√
T
TX
t=1
f(xt, β0)
d→ N(0, V0),
· 1√
T
PT
t=1 f
1(xt, β)
1√
T
PT
t=1 f
2(xt, β)
¸
d→ N(0, c0V0c00)
12
Vamos encontrar uma expressão simplificada para c0. Primeiramente, note
que
d0(a0d0)−1a0 =
·
d10
d20
¸ £
d10
¤ £
Ik 0
¤
=
·
Ik
d20(d
1
0)
−1
¸ £
Ik 0
¤
=
·
Ik 0kx(n−k)
−d20(d10)(n−k)xk 0(n−k)x(n−k)
¸
Como
c0 = (Inxn − d0(a0d0)−1a0)
c0 = Inxn −
·
Ik 0kx(n−k)
−d20(d10)(n−k)xk 0(n−k)x(n−k)
¸
=
·
0kxk 0kx(n−k)
−d20(d10)(n−k)xk Inxk
¸
então
c0V0c00 =
·
0 0
−d20(d10) I
¸ ·
V11 V12
V21 V22
¸ ·
0 0
−d20(d10) I
¸0
=
·
0 0
0 V22 + d20(d
1
0)
−1V11
£
d20 d
1
0
¤0¸
Note que como as condições de f1 são usadas para estimar bt, β0 é ex-
atamente identificada. Assim, a variância de 1√
T
P
f1(xt, bt) é igual a zero,
conforme esperado.
A distribuição de 12√T
P
f2(xt, b1t ) é dada por
1
2
√
T
X
f2(xt, b1t )
d→ N(0, V22 + d20(d10)−1V11(d100 )−1d200 )
Sendo
V˜22 ≡ [V22 + d20(d−10 )−1V11(d−10 )−10d200 ]
podemos fazer um teste para restrições de sobreidentificação através de·
1
2
√
T
X
f2(xt, b1t )
¸
V˜22
·
1
2
√
T
X
f2(xt, b1t )
¸0
∼ χ2n−k
Questão 10
a) Isolando o consumo na restrição orçamentária, tratando-a com igualdade,
podemos escrever o problema do agente como
maxEt
∞X
s=t
βsu

−
NX
j=1
PjsQjs +
NX
j=1
RjsQjs−1 +Ws


13
sendo que o agente maximiza sua utilidade escolhendo o quanto comprar de
cada ativo j em cada instante de tempo s.Assim sendo, as condições de primeira
ordem para cada Qjs são dadas por
Et
©
−βsu0(cs)Pjs + βs+1u0(cs+1)Rjs+1
ª
= 0
u0(cs) = c−γs
βEt
"µ
cs+1
cs
¶−γ Rjs+1
Pjs
#
− 1 = 0
O operador Et representa o valor esperado condicionado no conjunto de
informações disponível no instante de tempo t. Assim sendo, definindo It como
esse conjunto de informações, temos que
βEt
"µ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
#
= βE
"µ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
¯¯¯¯
¯ It
#
= 0
E
"
β
õ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
!
It
#
= 0
onde xt denota o conjunto de informações que o comprador de ativos possui no
instante t e que também é observado pelo econometrista, composto pelo consumo
atual e passado (ct−m, m = 0, 1, 2...) e pelas taxas de retorno passadas.
b) Sendo W uma matriz de ponderação positiva definida, o estimador de
GMM será o vetor θˆ = (γˆ, βˆ)0 que minimizar o escalar
Q(θ, YT )
= T−1
TX
s=t
"
β
õ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
!
It
#0
W
"
β
õ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
!
It
#
c) O estimador eficiente de GMM é obtido em dois estágios. No primeiro
estágio, usamosW = I e obtemos θˆ
(0)
. Tendo θˆ
(0)
em mãos, obtemos o estimador
de GMM eficiente, θˆ
(1)
, minimizando
Q(θ, YT ) = T−1
TX
s=t
"
β
õ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
!
It
#0
S−1T (θˆ
(0)
)
"
β
õ
cs+1
cs
¶−γ Rjs+1
Pjs
− 1
!
It
#
14
ST (θˆ
(0)
) = T−1
TX
s=t
("
βˆ
(0)
õ
cs+1
cs
¶−γˆ(0) Rjs+1
Pjs
− 1
!
It
#
"
βˆ
(0)
õ
cs+1
cs
¶−γˆ(0) Rjs+1
Pjs
− 1
!
It
#)0
d)
T
TX
s=t



"
βˆ
(1)
õ
cs+1
cs
¶−γˆ(1) Rjs+1
Pjs
− 1
!
It
#0
ST (θˆ
(0)
)
ST (θˆ
(0)
)
"
βˆ
(1)
õ
cs+1
cs
¶−γˆ(1) Rjs+1
Pjs
− 1
!
It
#0

d→ χ2(N−2)
Questão 11
a) Na primeira etapa, estimamos a equação de demanda. Para tal, uti-
lizamos as variáveis exógenas ωt como instrumento para pt e ptrt. Na segunda
etapa, baseados nos estimadores da primeira etapa, construímos a variável
q∗t = −
qt
φˆ+ ζˆrt
. Então, utilizando yt e rt como instrumentos para q∗t e qt,
podemos estimar λ de forma consistente.
b) Inicialmente, consideremos um modelo exatamente identificado (ou seja,
ωt é um vetor com duas variáveis). Nesse caso, a condição de ortogonalidade
da primeira etapa se baseia no fato dos instrumentos em ωt não serem correla-
cionados com o termo de erro, εt.Assim sendo, temos que
E [g(xt, θ0)] = 0
para
g(xt, θ) = ωtεt = ωt (qt − α− φpt − γyt − ζptrt − ϕrt)
O estimador θˆ seria aquele que solucionaria T−1
PT
t=1 g(xt, θˆ) = 0. Na se-
gunda etapa, utilizando q∗t , a condição de ortogonalidade se baseia no fato dos
intrumentos yt e rt serem não correlacionados com o termo de erro, ηt. Assim
sendo, o estimador δˆ pode ser obtido resolvendo
T−1
TX
t=1
h(xt, θˆ, δˆ) = 0
15
com
E [h(xt, θ0, δ0)] = 0
para
h(xt, θ, δ) = zt
µ
pt +
λ
φ+ ζrt
qt − κ− πqt − ω0tρ
¶
Logo, expressando as condições de ortogonalidade dentro do instrumental deGMM, temos que
E
·
h(xt, θ0, δ0)
g(xt, θ0)
¸
= E [f (xt;β0)] =
·
0
0
¸
c) Sabemos que a distribuição assintótica do estimador de GMM é dada por
√
T (βˆ − β) p→ N(0,Ω)
para
Ω = (F 0S−1F )−1
S = E(f (xt;β0) f (xt;β0)
0)
F = E(fβ (xt;β0))
e
fβ (xt;β)
(10×10)
=


∂f1(x,β)
∂β1
∂f1(x,β)
∂β2
... ∂f1(x,β)∂β10
∂f2(x,β)
∂β1
∂f2(x,β)
∂β2
... ∂f2(x,β)∂β10
...
...
. . .
...
∂f10(x,β)
∂β1
∂f10(x,β)
∂β2
... ∂f10(x,β)∂β10


Intuitivamente, a matriz F mede a sensibilidade das funções de momentos
com relação aos parâmetros, enquanto que a matriz S é simplesmente a matriz
de variância-covariância das condições de ortogonalidade populacionais. Para
obter uma expressão explícita para as matrizes de covariância assintótica das
duas etapas, podemos particionar as matrizes F e S de forma que
F =
·
Gθ 0
Hθ Hδ
¸
S =
·
Sgg Sgh
Shg Shh
¸
Gθ = E (∂g(xt, θ0) /∂θ)
Gγ = E (∂g(xt, θ0) /∂δ) = 0
Hθ = E (∂h(xt, θ0, δ0) /∂θ)
16
Hδ = E (∂h(xt, θ0, δ0) /∂δ)
Sgg = E [g(xt, θ0)g(xt, θ0)0]
Shg = Sgh = E [h(xt, θ0, δ0)g(xt, θ0)0]
Shh = E [h(xt, θ0, δ0)h(xt, θ0, δ0)0]
O bloco superior da matriz F−1SF−10 nos dá a variância assintótica de θˆ,
G−1θ SggG
−10
θ , que nada mais é do que a variância assintótica do estimador de
variável instrumental obtido na primeira etapa. O bloco inferior de F−1SF−10
contém a variância assintótica do estimador da segunda etapa, δˆ. A primeira en-
trada da diagonal principal corresponde a variância assintótica de λˆ. Aplicando
a fórmula da inversa da matriz particionada, temos que
Ωδ = H
−1
δ ShhH
−10
δ +H
−1
δ Hθ
£
G−1θ SggG
−10
θ
¤
H 0θH
−10
δ
−H−1δ
£
HθG
−1
θ Sgh + ShgG
−10
θ H
0
θ
¤
H−10δ
O primeiro termo do lado direito nos dá a matriz de variância-covariância
assintótoca caso ignorassemos que φˆ e ζˆ não correspondem aos valores ver-
dadeiros φ0 e ζ0.O segundo e o terceiro termo corrigem a variabilidade adicional
introduzida pela utilização dos valores estimados φˆ e ζˆ.Logo, ignorar os efeitos
da estimação da primeira etapa nos leva a erros padrões assintóticos incorretos,
a não ser que Hθ = 0.
No caso em que a dimensão de ωt for maior do que o número de variáveis
endógenas, ou seja, tenhamos K parâmetros e M condições de ortogonalidade,
comK > M . Nesse caso mais geral, o estimador de GMM é aquele que soluciona
as condições de ortogonalidade amostral
aT fT (β) = T−1
TX
t=1
∂f(xt, β)0
∂β
V fT (β) = T−1
TX
t=1
∂f(xt, β)0
∂β
(K×M)
V
(M×M)
T−1
TX
t=1
f(xt, β)
(M×1)
A matriz (K ×M) aT isola as condições de momento usadas na estimação
e indexa os alternativos estimadores de GMM. Utilizando V = Ω−1 temos o
estimador assintótico eficiente na classe dos estimadores de GMM. Como Ω não
é conhecido a priori, o caso de sobreidentificação inclui uma etapa adicional
ao processo descrito acima, quando a dimensão de ωt era igual ao número de
variáveis endógenas. Essa etapa consiste em inicialmente utilizar V = I, obter
um estimador consisntente e utilizá-lo para obter Ωˆ−1.
17

Continue navegando