Baixe o app para aproveitar ainda mais
Prévia do material em texto
Universidade de São Paulo - Departamento de Economia Curso de Verão Estatística Prof. Dr. Ricardo Avelino Monitor: Fernando Santos 1o Semestre de 2009 Lista de Exercícios 3 - Solução Questão 1 a) E ¡ σˆ2 ¢ = E ·P (si+∆ − si − µˆ∗∆)2 n∆ ¸ = P E(si+∆ − si − µˆ∗∆)2 n∆ Mas E(si+∆ − si − µˆ∗∆)2 = E(si+∆ − si − µ∗∆+ (µ∗ − µˆ∗)∆)2 = E(si+∆ − si − µ∗∆)2 +E((µ∗ − µˆ∗)∆)2 +2E [si+∆ − si − µ∗∆] [(µ∗ − µˆ∗)∆] = σ2∆+ V ((µ∗ − µˆ∗)∆)− 2Cov (si+∆ − si, µˆ∗∆) = σ2∆+ σ2 n ∆− 2∆V ar (si+∆ − si) n∆ = σ2∆+ σ2∆ n − 2σ 2∆ n = σ2∆− σ 2∆ n = (n− 1) n σ2∆ Portanto E ¡ σˆ2 ¢ = (n− 1) n σ2 Questão 2 a) Substituindo a expressão de pi no modelo, temos que yi = α0 + α1pi + α2x ∗ 2i + ui − α1'i = α0 + α1pi + vi vi = α2x ∗ 2i + ui − α1'i Assim sendo, o estimador obtido na regressão de yi contra pi é dado por αˆp1 = P (pi − p¯)(yi − y¯)P (pi − p¯)2 = n−1 n−1 P piyi − np¯y¯P (pi − p¯)2 1 Para analisarmos a consistência de αˆp1, utilizando a Lei fraca de Klinchine e o Teorema de Mahn-Wald, temos que n−1 X (pi − p¯)2 = n−1 X p2i − (p¯)2 p→ E(p2i )−E(pi)2 = V ar(pi) n−1 X piyi − np¯y¯ = n−1 X piyi − p¯y¯ p→ E(piyi)−E(pi)E(yi) = Cov(pi, yi) Substituindo pi e yi, temos que Cov(pi, yi) = Cov [(x ∗ 1i +'i), α0 + α1x ∗ 1i + α2x ∗ 2i + ui] = α2Cov(x ∗ 1i, x ∗ 2i) + α1Cov(x ∗ 1i, x ∗ 1i) = α2Cov(x ∗ 1i, x ∗ 2i) + α1V ar(x ∗ 1i) V ar(pi) = V ar(x∗1i)− σ2' Assim sendo, temos que p lim αˆp1 = p limn−1 P piyi − np¯y¯ p limn−1 P (pi − p¯)2 = Cov(pi, yi) V ar(pi) = α2Cov(x∗1i, x ∗ 2i) + α1V ar(x ∗ 1i) V ar(x∗1i) + σ 2 ' = α1 + α2Cov(x∗1i, x ∗ 2i) V ar(x∗1i) + σ 2 ' − α1σ 2 ' V ar(x∗1i) + σ 2 ' p lim αˆp1 = α1 + α2Cov(x∗1i, x ∗ 2i) V ar(x∗1i) + σ 2 ' − α1σ 2 ' V ar(x∗1i) + σ 2 ' Assim, temos que αˆp1 é inconsistente. A inconsistência ocorre tanto em vir- tude da omissão de x∗2i ³ dado por α2Cov(x ∗ 1i,x ∗ 2i) V ar(x∗1i)+σ 2 ' ´ como do erro de medida pre- sente em pi ³ α1σ 2 ' V ar(x∗1i)+σ 2 ' ´ . Como α2 > 0, o sinal do segundo termo dependerá da covariância entre x∗1i e x ∗ 2i, enquanto que o sinal do terceiro termo será dado por α1. b) O estimador da regressão de mi contra pi é dado por βˆ1 = P (pi − p¯)(mi − m¯)P (pi − p¯)2 Assim como no item anterior, temos queX (pi − p¯)(mi − m¯) p→ Cov(mi, pi) 2 Cov(mi, pi) = E [(x∗1i +'i) (x ∗ 1i + ηi)]−E (x∗1i +'i)E (x∗1i + ηi) = E £ (x∗1i) 2 ¤ −E(x∗1i)2 = V ar(x∗1i) Portanto, temos que, para Cov(x∗1i, x ∗ 2i) = 0, p lim α˜1 = p lim αˆp1 βˆ1 = p lim αˆp1 p lim βˆ1 = Cov(yi, pi)/V ar(pi) Cov(mi, pi)/V ar(pi) = Cov(yi,mi) Cov(mi, pi) = α2Cov(x∗1i, x ∗ 2i) + α1V ar(x ∗ 1i) V ar(x∗1i) = α1 c) O estimador de variáveis instrumentais quando mi é usado como instru- mento para pi é dado por αIV1 = P (yi − y¯)(mi − m¯)P (mi − m¯)(pi − p¯) = αˆp1 βˆ1 Tal resultado é intuitivo, já que no item (b) fizemos o procedimento do estimador de mínimos quadrados em 2 estágios, regredindo primeiramente a variável correlacionada contra o instrumento e, no segundo estágio, rodando yi contra a variável resultante do primeiro estágio. Questão 3 a) L(xi|θ) = nY i=1 θxθ−1i lnL(xi|θ) = nX i=1 ln ¡ θxθ−1i ¢ = n ln θ + (θ − 1) nX i=1 lnxi ∂ lnL(xi|θ) ∂θ = n θ + nX i=1 lnxi ∂2 lnL(xi|θ) ∂θ2 = − n θ2 ∂ lnL(xi|θ) ∂θ = 0 =⇒ n θ + nX i=1 lnxi = 0 θMV = − nPn i=1 lnxi Sendo g(θ) = θ(1+θ)−1, pelo princípio da invariância temos que o estimador de máxima verossimilhança de g(θ) é dado por g(θMV ). 3 b) · −E∂ 2 lnL(xi| θ) ∂θ2 ¸−1 = θ2 n √ n(θMV − θ) d→ N(0, θ 2 n ) Note que g0(θ) = 1 (1 + θ)2 Utilizando o método delta, temos que √ n h g ³ θMV ´ − g(θ) i d→ g0(θ)N(0, θ 2 n ) = N µ 0, θ2 n(1 + θ)4 ¶ Questão 4 a) L(xi|θ) = nY i=1 1 θ exp ³ −x θ ´ lnL(xi|θ) = nX i=1 · ln 1 θ exp ³ −x θ ´¸ = −n ln θ − nX i=1 xi θ b) ∂ lnL(xi|θ) ∂θ = −n θ + nX i=1 xi θ2 = 0 θML = n−1 nX i=1 xi = x¯ c) ∂2 lnL(xi|θ) ∂θ2 = n θ2 − 2 Pn i=1 xi θ3· −E∂ 2 lnL(xi|θ) ∂θ2 ¸−1 = · − n θ2 + 2 nθ θ3 ¸−1 = θ2 n √ n(θMV − θ) d→ N µ 0, θ2 n ¶ d) Pelo princípio da invariância, o estimador de máxima verossimilhança de θ3 é dado por θˆ 3 .Pelo teorema de Mahn-Wald, esse estimador é consistente, dada a consistência de θˆ. 4 e) Utilizando o método Delta, sendo g(θ) = θ3, temos que √ n h g ³ θMV ´ − g(θ) i d→ g0(θ)N(0, θ 2 n ) = 3θ2N(0, θ2 n ) = N ¡ 0, 9θ6 ¢ Questão 5 a) lnL = P yi>0 −1 2 · ln(2π) + lnσ2 + (yi − β0xi)2 σ2 ¸ + P yi=0 ln · 1− Φ µ β0xi σ ¶¸ b) lnL = P yi>0 −1 2 £ ln(2π)− ln θ2 + (θyi − γ0xi)2 ¤ + P yi=0 ln [1− Φ (γ0xi)] ∂ lnL ∂θ = 0 =⇒ P yi>0 · 1 θ − (θyi − γ0xi)yi ¸ = 0 ∂ lnL ∂γ = 0 =⇒ P yi>0 (θyi − γ0xi)xi + P yi=0 −φ (γ0xi) 1− Φ (γ0xi) xi = 0 c) As segundas derivadas são iguais à ∂2 lnL ∂θ∂θ0 = −n1 θ2 − P yi>0 y2i ∂2 lnL ∂γ∂θ0 = P yi>0 xiyi ∂2 lnL ∂γ∂γ0 = P yi=0 " γ0xiφ (γ0xi) 1− Φ (γ0xi) − φ 2 (γ0xi) [1− Φ (γ0xi)]2 # xix0i − P yi>0 xix0i = P yi=0 φ (γ0xi) 1− Φ (γ0xi) · γ0xi − φ (γ0xi) 1− Φ (γ0xi) ¸ xix 0 i − P yi>0 xix 0 i Portanto, o Hessiano pode ser escrito como H = P yi=0 φ(γ0xi) 1−Φ(γ0xi) · γ0xi − φ(γ0xi) 1−Φ(γ0xi) ¸ xix0i 0 0 −n1θ2 + − P yi>0 xix0i P yi>0 xiyiP yi>0 yix0i − P yi>0 y2i 5 Como γ0xi − φ(γ0xi) 1−Φ(γ0xi) < 0, as matrizes acima são negativa definidas. O Hessiano é a soma de duas matrizes negativa definidas., logo, também é nega- tivo definido, o que implica que a função de log-verossimilhança é globalmente côncava. Questão 6 a) Seja g(U0, U1) = Z ∞ −∞ g(U0, U1, V )dV e g(U0) = Z ∞ −∞ g(U0, U1)dU1 Então, g(U0, U1|Y0 > 0) = g(U0, U1|Xβ0 + U0 > 0) = g(U0, U1)1(U0 > −Xβ0) Pr(U0 > −Xβ0) Portanto, g(U1|U0 > −Xβ0) = R∞ −Xβ0 g(U0, U1)dU0R∞ −Xβ0 g(U0)dU0 e f(Y1|Y0 > 0,X) = R∞ −Xβ0 g(U0, Y1 −Xβ1)dU0R∞ −Xβ0 g(U0)dU0 Assim sendo, a função de verossimilhança é igual a L = NY i=1 [f(Yi1 |Yi0 > 0,X) ] b) Seja g(U1) = Z ∞ −∞ Z ∞ −∞ g(U0, U1, V )dV dU0 g(U1|0 < Y1 < C1) = g(U1|0 < Xβ1 + U1 < C1) = g(U1|−Xβ1 < U1 < C1 −Xβ1) = g(U1)1(−Xβ1 < U1 < C1 −Xβ1) Pr(−Xβ1 < U1 < C1 −Xβ1) = g(U1)1(−Xβ1 < U1 < C1 −Xβ1)R C1−Xβ1 −Xβ1 g(U1)dU1 6 Portanto, f(Y1|0 < Y1 < C1) = g(Y1 −Xβ1)1(0 < Y1 < C1)R C1 0 g(Y1 −Xβ1)dY1 E a função de verossimilhança é dada por L = NY i=1 " g(Yi1 −Xiβ1)1(0 < Yi1 < C1)R C1 0 g(Yi1 −Xiβ1)dYi1 # c) Pr(Y1 > 0) = Pr(Xβ1 + U1 > 0) = Pr(U1 > −Xβ1) = Z ∞ −Xβ1 g(U1)dU1 Similarmente, Pr(Y1 ≤ 0) = Pr(Xβ1 + U1 ≤ 0) = Pr(U1 ≤ −Xβ1) = Z −Xβ1 −∞ g(U1)dU1 Portanto, a função de verossimilhança pode ser escrita como L = NY i=1 [Pr(Yi1 > 0)] Di [Pr(Yi1 ≤ 0)]1−Di para Di = ½ 1 se Yi1 ≥ 0 0 se Yi1 < 0 d) Pr(Y1 ≥ Y0) = Pr(Xβ1 + U1 ≥ Xβ0 + U0) = Pr(U1 − U0 ≥ −(Xβ1 −Xβ0)) = Z ∞ −(Xβ1−Xβ0) gU1−U0(t)dt sendo que gU1−U0(t) pode ser derivada a partir da função densidade g(U1, U0) conforme segue abaixo: gU1−U0(t) = Z ∞ −∞ g(U0 + t, U0)dU0 Além disso, g(U1, U1 − U0|U1 − U0 ≥ −(Xβ1 −Xβ0)) = g(U1, U1 − U0)1(U1 − U0 ≥ −(Xβ1 −Xβ0)) Pr(U1 − U0 ≥ −(Xβ1 −Xβ0)) 7 para gU1,U1−U0(s, t) = gU1,U0(s, s− t).Portanto, g(U1|U1 − U0 ≥ −(Xβ1 −Xβ0)) = R∞ −(Xβ1−Xβ0) g(U1, U1 − U0)d(U1 − U0)R∞ −(Xβ1−Xβ0) gU1−U0(t)dt e g(Y1 |Y1 ≥ Y0,X ) = R∞ 0 g(Y1 −Xβ1, Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)R∞ 0 g(Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0) Similarmente, Pr(Y1 < Y0) = Pr(Xβ1 + U1 < Xβ0) = Pr(U1 − U0 < −(Xβ1 −Xβ0) = Z −(Xβ1−Xβ0) −∞ gU1−U0(t)dt e g(U0 |U1 − U0 < −(Xβ1 −Xβ0 )) = R −(Xβ1−Xβ0) −∞ g(U0, U1 − U0)d(U1 − U0)R −(Xβ1−Xβ0) −∞ gU1−U0(t)dt o que implica que g(Y0 |Y0 > Y1,X ) = R 0 −∞ g(Y0 −Xβ0, Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0)R 0 −∞ g(Y1 − Y0 − (Xβ1 −Xβ0))d(Y1 − Y0) Portanto, a função de verossimilhança é igual a L = NY i=1 [g(Yi1|Yi1 ≥ Yi0,Xi) Pr(Yi1 ≥ Yi0)]Di [g(Yi0|Yi0 ≥ Yi1,Xi) Pr(Yi0 ≥ Yi1)]1−Di = NY i=1 ·Z ∞ 0 g(Yi1 −Xiβ1, Yi1 − Yi0 − (Xiβ1 −Xiβ0))d(Yi1 − Yi0) ¸Di × ·Z 0 −∞ g(Yi0 −Xiβ0, Yi1 − Yi0 − (Xiβ1 −Xiβ0))d(Yi1 − Yi0) ¸1−Di para Di = ½ 1 se Yi1 ≥ Yi0 0 se Yi1 < Yi0 e) Seja g(U1, V ) = Z ∞ −∞ g(U0, U1, V )dU0 g(U0, V ) = Z ∞ −∞ g(U0, U1, V )dU1 8 e g(V ) = Z ∞ −∞ g(U1, V )dU1 Então Pr(I ≥ 0) = Pr(V ≥ −Zγ) = Z ∞ −Zγg(V )dV e g(U0, U1, V |V > −Zγ) = g(U0, U1, V )1 (V > −Zγ)R∞ −Zγ g(V )dV Portanto, g(U1|V > −Zγ) = R∞ −Zγ g(U1, V )dVR∞ −Zγ g(V )dV o que implica que g(Y1|I > 0,X, Z) = R∞ −Zγ g(Y1 −Xβ1, V )dVR∞ −Zγ g(V )dV Similarmente, Pr(I < 0) = Pr(V < −Zγ) = Z −Zγ −∞ g(V )dV e g(Y0|I < 0,X,Z) = R−Zγ −∞ g(Y0 −Xβ0, V )dVR−Zγ −∞ g(V )dV Consequentemente, a função de verossimilhança pode ser expressa como L = NY i=1 [g(Yi1|Ii ≥ 0,Xi, Zi) Pr(Ii ≥ Yi0)]Di [g(Yi0|Ii ≥ 0,Xi, Zi) Pr(Ii ≥ 0)]1−Di = NY i=1 ·Z ∞ −Zγ g(Yi1 −Xiβ1, Vi)dVi ¸Di "Z −Zγ −∞ g(Yi0 −Xiβ0, Vi)dVi #1−Di Onde Di = 1 se Ii ≥ 0 e 0 c.c Questão 7 9 a) E(X2) = Z 1 0 θ(1 + θ)xθ+1(1− x)dx = Z 1 0 θ(1 + θ)xθ+1dx− Z 1 0 θ(1 + θ)xθ+2dx = θ(1 + θ)x2+θ 2 + θ ¯¯¯¯1 0 − θ(1 + θ)x 3+θ 3 + θ ¯¯¯¯1 0 = θ(1 + θ) 2 + θ − θ(1 + θ) 3 + θ = θ(1 + θ)(θ + 3− θ − 2) (θ + 2) (3 + θ) = θ(1 + θ) (θ + 2) (3 + θ) Assim sendo, as condições de ortogonalidade são dadas por E X − θ θ + 2 X2 − θ(1 + θ) (θ + 2) (3 + θ) = · 0 0 ¸ Assim sendo, a contrapartida amostral é dada por g(θ;X) = n−1 Pn i=1 µ Xi − θ θ + 2 ¶ n−1 Pn i=1 µ X2i − θ(1 + θ) (θ + 2) (3 + θ) ¶ O estimador de GMM é dado por argmin θ g(θ;X)0Vˆ −1n ³ θˆ ´ g(θ;X) (1) para Vn(θˆ) = n −1 nX i=1 X − θˆ θˆ + 2 X2 − θˆ(1 + θˆ)³ θˆ + 2 ´³ 3 + θˆ ´ X − θˆ θˆ + 2 X2 − θˆ(1 + θˆ)³ θˆ + 2 ´³ 3 + θˆ ´ 0 (2) e pode ser obtido em 2 passos, no primeiro utilizando Vˆ −1 ³ θˆ ´ = I em (1), obtendo um estimador consistente. Utilizamos esse estimador em (2). Por fim, re-estimamos (1) utilizando o valor de V (θˆ) obtido no primeiro passo, obtendo θGMMn . b) Sendo D0n = ∂g(θ;X) ∂θ0 ¯¯¯¯ θ=θGMMn = 2 (θ + 2)2 (2θ+1)(θ2+5θ+6)−(θ2+θ)(2θ+5) (θ+2)2(θ+3)2 ¯¯¯¯ ¯¯ θ=θGMMn 10 temos que √ n(θGMMn − θ) p→ N ³ 0,DnVˆ −1n D 0 n ´ Questão 8 a) As condições de ortogonalidade e suas contrapartidas amostraias são dadas, respectivamente, por E ½ y2t − v v − 2 ¾ ½ y4t − 3 v2 (v − 2)(v − 4) ¾ = · 0 0 ¸ g(v;YT )= ½ µˆ2,T − v v − 2 ¾ ½ µˆ4,T − 3 v2 (v − 2)(v − 4) ¾ O estimador de GMM é dado por argmin v g(v;YT ) 0Vˆ −1T (vˆ) g(v;YT ) (3) para V (vˆ) = T−1 TX i=1 ½ y2t − v v − 2 ¾ ½ y4t − 3 v2 (v − 2)(v − 4) ¾ ½ y2t − v v − 2 ¾ ½ y4t − 3 v2 (v − 2)(v − 4) ¾ 0 (4) e é obtido da mesma forma que no exercício anterior. b) Sendo D0T = ∂g(v;X) ∂v0 ¯¯¯¯ v=vGMMT = 2 (v − 2)2 3 µ 2v(v2 − 6v + 8)− v2(2v − 6) (v − 2)2(v − 4)2 ¶ ¯¯¯¯ ¯¯¯¯ v=vGMMT temos que √ n(vGMMT − v) p→ N ³ 0,DT Vˆ −1 T D 0 T ´ Questão 9 11 Podemos expressar as condições de momento da seguinte maneira: Ef(xt, β) = · Ef1(xt, β) Ef2(xt, β) ¸ nx1 Analogamente, d0 = E · ∂f(xt, β) ∂β ¸ = · E ³∂f1(xt,β)∂β ´kxk E ³ ∂f2(xt,β) ∂β ´ n−kxk ¸ nx1 = · d10 d20 ¸ É preciso designar uma matriz tal que quando formos trabalhar com todo o sistema de equações, utilizemos apenas Ef1(xt, β) = 0, i.e, a0Ef(xt, β) = 0 ⇐⇒ Ef1(xt, β) = 0 Seja a0 = [A0 B0]kxn , A0: kxk B0: kx(n− k) [A0 B0] · Ef1(xt, β) Ef2(xt, β) ¸ = A0Ef1(xt, β) +B0Ef2(xt, β) Portanto é necessário que B0 = 0 e que A0 seja uma matriz não singular kxk b) Esse procedimento em dois passos não é necessariamente eficiente. Do ponto de vista do sistema, a matriz de seleção eficiente é dada por a∗0 = d00V −1 0 (lembre que para ∀e não singular e para toda matriz de seleção a∗0, ea∗0 induz à mesma distribuição que a∗0. O procedimento de dois passos é eficiente se e somente se£ d10 d20 ¤ V −10 = [K0 0] para alguma matriz K0 não singular nxn c) Sem perda de generalidade, imponha a0 = £ Ik 0 ¤ 1√ T TX t=1 f(xt, βt) ≈ (I − d0(a0d0)−1a0) 1√ T TX t=1 f(xt, β0) Seja c0 ≡ (I − d0(a0d0)−1a0) Como 1√ T TX t=1 f(xt, β0) d→ N(0, V0), · 1√ T PT t=1 f 1(xt, β) 1√ T PT t=1 f 2(xt, β) ¸ d→ N(0, c0V0c00) 12 Vamos encontrar uma expressão simplificada para c0. Primeiramente, note que d0(a0d0)−1a0 = · d10 d20 ¸ £ d10 ¤ £ Ik 0 ¤ = · Ik d20(d 1 0) −1 ¸ £ Ik 0 ¤ = · Ik 0kx(n−k) −d20(d10)(n−k)xk 0(n−k)x(n−k) ¸ Como c0 = (Inxn − d0(a0d0)−1a0) c0 = Inxn − · Ik 0kx(n−k) −d20(d10)(n−k)xk 0(n−k)x(n−k) ¸ = · 0kxk 0kx(n−k) −d20(d10)(n−k)xk Inxk ¸ então c0V0c00 = · 0 0 −d20(d10) I ¸ · V11 V12 V21 V22 ¸ · 0 0 −d20(d10) I ¸0 = · 0 0 0 V22 + d20(d 1 0) −1V11 £ d20 d 1 0 ¤0¸ Note que como as condições de f1 são usadas para estimar bt, β0 é ex- atamente identificada. Assim, a variância de 1√ T P f1(xt, bt) é igual a zero, conforme esperado. A distribuição de 12√T P f2(xt, b1t ) é dada por 1 2 √ T X f2(xt, b1t ) d→ N(0, V22 + d20(d10)−1V11(d100 )−1d200 ) Sendo V˜22 ≡ [V22 + d20(d−10 )−1V11(d−10 )−10d200 ] podemos fazer um teste para restrições de sobreidentificação através de· 1 2 √ T X f2(xt, b1t ) ¸ V˜22 · 1 2 √ T X f2(xt, b1t ) ¸0 ∼ χ2n−k Questão 10 a) Isolando o consumo na restrição orçamentária, tratando-a com igualdade, podemos escrever o problema do agente como maxEt ∞X s=t βsu − NX j=1 PjsQjs + NX j=1 RjsQjs−1 +Ws 13 sendo que o agente maximiza sua utilidade escolhendo o quanto comprar de cada ativo j em cada instante de tempo s.Assim sendo, as condições de primeira ordem para cada Qjs são dadas por Et © −βsu0(cs)Pjs + βs+1u0(cs+1)Rjs+1 ª = 0 u0(cs) = c−γs βEt "µ cs+1 cs ¶−γ Rjs+1 Pjs # − 1 = 0 O operador Et representa o valor esperado condicionado no conjunto de informações disponível no instante de tempo t. Assim sendo, definindo It como esse conjunto de informações, temos que βEt "µ cs+1 cs ¶−γ Rjs+1 Pjs − 1 # = βE "µ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ¯¯¯¯ ¯ It # = 0 E " β õ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ! It # = 0 onde xt denota o conjunto de informações que o comprador de ativos possui no instante t e que também é observado pelo econometrista, composto pelo consumo atual e passado (ct−m, m = 0, 1, 2...) e pelas taxas de retorno passadas. b) Sendo W uma matriz de ponderação positiva definida, o estimador de GMM será o vetor θˆ = (γˆ, βˆ)0 que minimizar o escalar Q(θ, YT ) = T−1 TX s=t " β õ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ! It #0 W " β õ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ! It # c) O estimador eficiente de GMM é obtido em dois estágios. No primeiro estágio, usamosW = I e obtemos θˆ (0) . Tendo θˆ (0) em mãos, obtemos o estimador de GMM eficiente, θˆ (1) , minimizando Q(θ, YT ) = T−1 TX s=t " β õ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ! It #0 S−1T (θˆ (0) ) " β õ cs+1 cs ¶−γ Rjs+1 Pjs − 1 ! It # 14 ST (θˆ (0) ) = T−1 TX s=t (" βˆ (0) õ cs+1 cs ¶−γˆ(0) Rjs+1 Pjs − 1 ! It # " βˆ (0) õ cs+1 cs ¶−γˆ(0) Rjs+1 Pjs − 1 ! It #)0 d) T TX s=t " βˆ (1) õ cs+1 cs ¶−γˆ(1) Rjs+1 Pjs − 1 ! It #0 ST (θˆ (0) ) ST (θˆ (0) ) " βˆ (1) õ cs+1 cs ¶−γˆ(1) Rjs+1 Pjs − 1 ! It #0 d→ χ2(N−2) Questão 11 a) Na primeira etapa, estimamos a equação de demanda. Para tal, uti- lizamos as variáveis exógenas ωt como instrumento para pt e ptrt. Na segunda etapa, baseados nos estimadores da primeira etapa, construímos a variável q∗t = − qt φˆ+ ζˆrt . Então, utilizando yt e rt como instrumentos para q∗t e qt, podemos estimar λ de forma consistente. b) Inicialmente, consideremos um modelo exatamente identificado (ou seja, ωt é um vetor com duas variáveis). Nesse caso, a condição de ortogonalidade da primeira etapa se baseia no fato dos instrumentos em ωt não serem correla- cionados com o termo de erro, εt.Assim sendo, temos que E [g(xt, θ0)] = 0 para g(xt, θ) = ωtεt = ωt (qt − α− φpt − γyt − ζptrt − ϕrt) O estimador θˆ seria aquele que solucionaria T−1 PT t=1 g(xt, θˆ) = 0. Na se- gunda etapa, utilizando q∗t , a condição de ortogonalidade se baseia no fato dos intrumentos yt e rt serem não correlacionados com o termo de erro, ηt. Assim sendo, o estimador δˆ pode ser obtido resolvendo T−1 TX t=1 h(xt, θˆ, δˆ) = 0 15 com E [h(xt, θ0, δ0)] = 0 para h(xt, θ, δ) = zt µ pt + λ φ+ ζrt qt − κ− πqt − ω0tρ ¶ Logo, expressando as condições de ortogonalidade dentro do instrumental deGMM, temos que E · h(xt, θ0, δ0) g(xt, θ0) ¸ = E [f (xt;β0)] = · 0 0 ¸ c) Sabemos que a distribuição assintótica do estimador de GMM é dada por √ T (βˆ − β) p→ N(0,Ω) para Ω = (F 0S−1F )−1 S = E(f (xt;β0) f (xt;β0) 0) F = E(fβ (xt;β0)) e fβ (xt;β) (10×10) = ∂f1(x,β) ∂β1 ∂f1(x,β) ∂β2 ... ∂f1(x,β)∂β10 ∂f2(x,β) ∂β1 ∂f2(x,β) ∂β2 ... ∂f2(x,β)∂β10 ... ... . . . ... ∂f10(x,β) ∂β1 ∂f10(x,β) ∂β2 ... ∂f10(x,β)∂β10 Intuitivamente, a matriz F mede a sensibilidade das funções de momentos com relação aos parâmetros, enquanto que a matriz S é simplesmente a matriz de variância-covariância das condições de ortogonalidade populacionais. Para obter uma expressão explícita para as matrizes de covariância assintótica das duas etapas, podemos particionar as matrizes F e S de forma que F = · Gθ 0 Hθ Hδ ¸ S = · Sgg Sgh Shg Shh ¸ Gθ = E (∂g(xt, θ0) /∂θ) Gγ = E (∂g(xt, θ0) /∂δ) = 0 Hθ = E (∂h(xt, θ0, δ0) /∂θ) 16 Hδ = E (∂h(xt, θ0, δ0) /∂δ) Sgg = E [g(xt, θ0)g(xt, θ0)0] Shg = Sgh = E [h(xt, θ0, δ0)g(xt, θ0)0] Shh = E [h(xt, θ0, δ0)h(xt, θ0, δ0)0] O bloco superior da matriz F−1SF−10 nos dá a variância assintótica de θˆ, G−1θ SggG −10 θ , que nada mais é do que a variância assintótica do estimador de variável instrumental obtido na primeira etapa. O bloco inferior de F−1SF−10 contém a variância assintótica do estimador da segunda etapa, δˆ. A primeira en- trada da diagonal principal corresponde a variância assintótica de λˆ. Aplicando a fórmula da inversa da matriz particionada, temos que Ωδ = H −1 δ ShhH −10 δ +H −1 δ Hθ £ G−1θ SggG −10 θ ¤ H 0θH −10 δ −H−1δ £ HθG −1 θ Sgh + ShgG −10 θ H 0 θ ¤ H−10δ O primeiro termo do lado direito nos dá a matriz de variância-covariância assintótoca caso ignorassemos que φˆ e ζˆ não correspondem aos valores ver- dadeiros φ0 e ζ0.O segundo e o terceiro termo corrigem a variabilidade adicional introduzida pela utilização dos valores estimados φˆ e ζˆ.Logo, ignorar os efeitos da estimação da primeira etapa nos leva a erros padrões assintóticos incorretos, a não ser que Hθ = 0. No caso em que a dimensão de ωt for maior do que o número de variáveis endógenas, ou seja, tenhamos K parâmetros e M condições de ortogonalidade, comK > M . Nesse caso mais geral, o estimador de GMM é aquele que soluciona as condições de ortogonalidade amostral aT fT (β) = T−1 TX t=1 ∂f(xt, β)0 ∂β V fT (β) = T−1 TX t=1 ∂f(xt, β)0 ∂β (K×M) V (M×M) T−1 TX t=1 f(xt, β) (M×1) A matriz (K ×M) aT isola as condições de momento usadas na estimação e indexa os alternativos estimadores de GMM. Utilizando V = Ω−1 temos o estimador assintótico eficiente na classe dos estimadores de GMM. Como Ω não é conhecido a priori, o caso de sobreidentificação inclui uma etapa adicional ao processo descrito acima, quando a dimensão de ωt era igual ao número de variáveis endógenas. Essa etapa consiste em inicialmente utilizar V = I, obter um estimador consisntente e utilizá-lo para obter Ωˆ−1. 17
Compartilhar