Baixe o app para aproveitar ainda mais
Prévia do material em texto
Universidade de Sa˜o Paulo - Departamento de Economia EAE 5811 - Econometria I Prof. Dr. Ricardo Avelino 1o Semestre de 2007 Lista de Exerc´ıcios 5 - Soluc¸o˜es Monitoras: Paula Pereda Jaqueline de Oliveira 1. Seja i um vetor de 1’s de dimensa˜o Tx1. Assim, o estimador de OLS para µ e a variaˆncia do mesmo sa˜o iguais a: ˆ µOLS = (i 0i)−1i0y = X yt T V AR( ˆ µOLS) = (i 0i)−1(i0Ωi)(i0i)−1 onde Ω = E(εε0) = δ2 + σ2 δ2 ... δ2 δ2 δ2 + σ2 ... δ2 ... ... ... ... δ2 ... ... δ2 + σ2 Enta˜o, a variaˆncia de ˆ µOLSsera´: V AR( ˆ µOLS) = 1 T [ σ2 + Tδ2 σ2 + Tδ2 ... σ2 + Tδ2 ]i 1 T = 1 T (Tσ2 + T 2δ2) 1 T = σ2 T + δ2 O estimador de GLS para µ e´ igual a: ˆ µGLS = (i 0Ω−1i)−1i0Ω−1y Seja Ω−1 = a11 a12 ... a1T a21 a22 ... a2T ... ... ... ... aT1 aT2 ... aTT Enta˜o, δ2 + σ2 δ2 ... δ2 δ2 δ2 + σ2 ... δ2 ... ... ... ... δ2 ... ... δ2 + σ2 . a11 a12 ... a1T a21 a22 ... a2T ... ... ... ... aT1 aT2 ... aTT = 1 0 ... 0 0 1 ... 0 ... ... ... ... 0 0 ... 1 1 Assim, ¡ δ2 + σ2 ¢ a11 + δ 2a21 + ...+ δ 2aT1 = 1 δ2a11 + ¡ δ2 + σ2 ¢ a21 + ...+ δ 2aT1 = 0 ... δ2a11 + δ 2a21 + ...+ ¡ δ2 + σ2 ¢ aT1 = 1 Seguem deste sistema de equac¸o˜es alguns resultados como: a21 = a31 = ... = aT1 = a σ2a11 − σ2a21 = 1⇒ a11 = 1 σ2 + a ¡ Tδ2 + σ2 ¢ a11 + ¡ Tδ2 + σ2 ¢ (T − 1)a = 1¡ Tδ2 + σ2 ¢ ( 1 σ2 + a) + ¡ Tδ2 + σ2 ¢ (T − 1)a = 1¡ Tδ2 + σ2 ¢ 1 σ2 + ¡ Tδ2 + σ2 ¢ Ta = 1 ⇒ a = 1− (Tδ 2+σ2) σ2 T ¡ Tδ2 + σ2 ¢ ⇒ a = −δ2 σ2 ¡ Tδ2 + σ2 ¢ Assim, os elementos da primeira coluna da matriz inversa sera˜o: a11 = 1 σ2 − δ 2 σ2 ¡ Tδ2 + σ2 ¢ = (T − 1)δ2 + σ2 σ2 ¡ Tδ2 + σ2 ¢ a21 = a31 = ... = aT1 = − δ2 σ2 ¡ Tδ2 + σ2 ¢ Devido a` simetria existente nessa matriz, conclue-se que: Ω−1 = (T−1)δ2+σ2 σ2(Tδ2+σ2) − δ2 σ2(Tδ2+σ2) ... − δ2 σ2(Tδ2+σ2) − δ2σ2(Tδ2+σ2) (T−1)δ2+σ2 σ2(Tδ2+σ2) ... − δ2 σ2(Tδ2+σ2) ... ... ... ... − δ2σ2(Tδ2+σ2) − δ2 σ2(Tδ2+σ2) ... (T−1)δ2+σ2 σ2(Tδ2+σ2) = 1 σ2 ¡ Tδ2 + σ2 ¢ (T − 1)δ2 + σ2 −δ2 ... −δ2 −δ2 (T − 1)δ2 + σ2 ... −δ2 ... ... ... ... −δ2 −δ2 ... (T − 1)δ2 + σ2 Como ˆ µGLS = (i 0Ω−1i)−1i0Ω−1y = ¡£ σ2 σ2 ... σ2 ¤ i ¢−1 £ σ2 σ2 ... σ2 ¤ y = 1 Tσ2 .σ2 X yt = X yt T = y 2 Note que o estimador de GLS para µ e´ igual ao estmador OLS. Consequente- mente, as variaˆncias tambe´m sera˜o, ou seja: V AR( ˆ µGLS) = V AR( ˆ µOLS) = σ2 T + δ2 Portanto, a eficieˆncia relativa do OLS e´ 1. 2. a) OLS Seja xt = [x1t : x2t], temos que o estimador OLS para o beta e´: ˆ βOLS = ( X xtx0t) −1( X xtyt) = β + ( X xtx0t) −1( X xtεt) Portanto, temos que: √ n µ ˆ βOLS − β ¶ = ( X xtx0t n )−1( X xtεt√ n ) Pela Lei dos Grandes Nu´meros, p lim P xtx0t n =Mn, que e´ uma matriz posi- tiva definida. Assim, p lim ³P xtx0t n ´−1 =M−1n O segundo termo, tera´ distribuic¸a˜o assinto´tica igual a:X xtεt√ n d−→ N(0, Vn) para Vn = V ·X xtεt√ n ¸ = 1 n E(ε2txtx 0 t) Deste modo, temos que a distribuic¸a˜o assinto´tica do estimador de OLs sera´: √ n µ ˆ βOLS − β ¶ d−→ N(0,M−1n VnM−1n ) A matriz de variaˆncia-covariaˆncia assinto´tica de ˆ βOLS e´ dada por: AssV ( ˆ βOLS) =M −1 n VnM −1 n em que M−1n pode ser consistentemente estimado por ˆ M −1 n = µX xtx0t n ¶−1 Ja´ a matriz Vn pode ser estimada utilizando a abordagem de White, de maneira a obter um estimador robusto da variaˆncia: Para obtermos o estimador de White, devemos seguir os seguintes passos: 3 i) Rodar a equac¸a˜o por OLS para estimar os paraˆmetros: ˆ β1 e ˆ β2 ii).Calcular os res´ıduos ˆ εt = yt − x1t ˆ β1 − x2t ˆ β2 iii) Utilizando os res´ıduos, estima-se a matriz Vn como a seguir: ˆ V n = 1 n X ˆ ε 2 txtx 0 t Portanto, a matriz de variaˆncia-covariaˆncia assinto´tica estimada sera´ ˆ AssV ( ˆ βOLS) = µX xtx0t n ¶−1 1 n X ˆ ε 2 txtx 0 t µX xtx0t n ¶−1 Como queremos testar a hipo´tese de que β1β2 = 1, ou seja, β1−β2 = 0, temos que nossa hipo´tese se baseia em uma combinac¸a˜o linear dos paraˆmetros: H0 : Rβ = q H1 : Rβ 6= q onde R = £ 1 −1 ¤ β0 = £ β1 β2 ¤ q = 0 Para testar podemos utilizar a estatistica t: t = R ˆ βOLSr R ˆ AssV ( ˆ βOLS)R0 Se |t| > t1−α,n−2, rejeita-se a H0 b) Para estimarmos ˆ βGLS , devemos seguir os seguintes passos: i) Rodar a equac¸a˜o por OLS para estimar os paraˆmetros: ˆ β1 e ˆ β2 ii).Calcular os res´ıduos ˆ εt = yt − x1t ˆ β1 − x2t ˆ β2 iii) Estimar por OLS ˆ ε 2 t = ˆ α1x1t + ˆ α2x2t. iv) Construir a matriz de variancia-covariancia: ˆ Ω = ˆ α1x11 + ˆ α2x21 0 ... 0 0 ˆ α1x12 + ˆ α2x22 ... 0 ... ... ... ... 0 0 ... ˆ α1x1T + ˆ α2x2T 4 v) Calcular o estimador FGLS ˆ βGLS = à X 0 ˆ Ω −1 X !−1 X 0 ˆ Ω −1 Y ÃX xtx0t ˆ wt !−1ÃX xtyt ˆ wt ! onde ˆ wt = ˆ α1x1t + ˆ α2x2t Portanto, temos que: √ n µ ˆ βGLS − β ¶ = à 1 n X xtx0t ˆ wt !−1à 1√ n X xtεt ˆ wt ! Pela Lei dos Grandes Nu´meros, plim X xtx0t n ˆ wt = E[ xtx0t wt ], e o segundo termo, tera´ distribuic¸a˜o assinto´tica igual a:X xtεt ˆ wt √ n d−→ N µ 0, E( 1 w2t x0tε 2 txt) ¶ onde E x 0 tε 2 txt ˆ w 2 t /x = E(ε 2 t/x)xtx 0 t ˆ w 2 t = E xtx 0 t ˆ w 2 t Deste modo, temos que a distribuic¸a˜o assinto´tica do estimador de OLS sera´: √ n µ ˆ βGLS − β ¶ d−→ N " 0, µ E µ xtx0t wt ¶¶−1# onde V ·√ n µ ˆ βGLS − β ¶¸ = · E µ xtx0t wt ¶¸−1 E µ xtx0t wt ¶· E µ xtx0t wt ¶¸−1 = · E µ xtx0t wt ¶¸−1 h E ³ xtx 0 t wt ´i−1 pode ser consistemente estimado por ˆ V · ˆ βGLS ¸ = "X 1 n à xtx0t ˆ wt !#−1 5 Como anteriormente, queremos testar a hipo´tese de que β1 − β2 = 0. Por- tanto, H0 : Rβ = q H1 : Rβ 6= q onde R = £ 1 −1 ¤ β0 = £ β1 β2 ¤ q = 0 Para testar podemos utilizar a estatistica t: t = R ˆ βGLSr R ˆ V ( ˆ βGLS)R0 Se |t| > t1−α,n−2, rejeita-se a H0 c) Neste caso, como na˜o conhecemos a forma funcional da heterocedastici- dade, podemos corrigir a ineficieˆncia do estimador OLS utilizando o estimador robusto da variaˆncia, proposto por White. Este estimador foi utilizado no item a, portanto a estimac¸a˜o da matriz de variaˆncia-covariaˆncia robusta e o teste de hipo´tese ja´ foram realizados. 3. a) Sejam xa1 e x a 2 vetores (Tax1) que conteˆm as Ta primeiras observac¸o˜es de x1t e x2t, respectivamente. Da mesma maneira, defina ya e εa. SejaXa = [xa01 xa02 1a0]0 e β = [β1 β2 β3]. O estimador de OLS para os betas e´ igual a ˆ βOLS = (X a0Xa)−1(Xa0ya) = (Xa0Xa)−1Xa0(Xaβ + εa) = β + (Xa0Xa)−1Xa0εa Portanto, o estimador de OLS e´ na˜o viesado se E[(Xa0Xa)−1Xa0εa/Xa] = 0. Note que isso na˜o e´ uma implicac¸a˜o direta da hipo´tese inicial de que E[ε/X] = 0. Consequentemente, na˜o podemos afirmar que o estimador de OLS e´ na˜o viesado. b) Sejam ˜ X = " xa1 x a 2 1 a ˆ x b 1 x b 2 1 b # e ˜ ε = " εa1 εb1 + (x b 1 − ˆ x b 1)β1 # 6 onde ˆ x b 1 = z b ˆγ e ˆ γ = ( TaP t=1 zat z a0 t ) −1( TaP t=1 zat x a0 1t) O estimador ˆ β resultante sera´ ˆ β = ( ˜ X 0 ˜ X)−1( ˜ X 0 y) = β + ( ˜ X 0 ˜ X)−1( ˜ X 0 ˜ ε) e e´ na˜o viesado se E " ( ˜ X 0 ˜ X)−1( ˜ X 0 ˜ ε)/X # = ( ˜ X 0 ˜ X)−1 ˜ X 0 E( ˜ ε/X) = 0 Entretanto, E(ε˜/X˜) = E · εa1 εb1 + (x b 1 − xˆb1)β1 /X˜ ¸ = E · εa1 εb1 /X˜ ¸ +E · 0 (zbγ + εb2 − zbγˆ)β1 /X˜ ¸ = E(ε1/X˜) +E · 0 zb(γ − γˆ)β1 /X˜ ¸ +E · 0 εb2β1 /X˜ ¸ Segue, de E(ε1ε02/X,Z) = 0, que E(ε1(x−zγ)0/X,Z) = 0, o que implica que E(ε1/X,Z)ε02 = 0 =⇒ E(ε1/X,Z) = 0, a menos que X e Z sejam perfeitamente correlacionados. Entretanto, E(ε1/X,Z) = 0; E(ε1/X˜) = 0, uma vez que X˜ e´ um subconjunto de (X,Z). Analisando agora o termo E h zb(γ − γˆ)β1/X˜ i = zb h γ −E(γˆ/X˜) i β1. Por- tanto este termo sera´ zero somente se E(γˆ/X˜) = γ. Finalmente, E h εb2β1/X˜ i = E h εb2/X˜ i β1 = E h xb1 − zbγ/X˜ i , que provavel- mente e´ diferente de zero. Portanto, baseando-se nas esperanc¸as acima, na˜o se pode garantir que o estimador de β seja na˜o viesado. A consisteˆncia do estimador requere que plim( ˜ X 0 ˜ X)−1( ˜ X 0 ˜ ε) = 0.Assumindo- se que plim(˜ X 0 ˜ X T ) −1 = Q−1, em que esta matriz e´ positiva definida, a con- sisteˆncia de ˜ β passa a depender do plim( ˜ X 0 ˜ ε T ). 7 Entretanto, ˜ X 0 ˜ ε T = 1 T xa01 ˆ x b0 1 xa02 x b0 2 1a0 1b0 " εa1 εb1 + (x b 1 − ˆ x b 1)β1 # = 1 T xa01 εa1 + ˆ x b0 1 [ε b 1 + (x b 1 − ˆ x b 1)β1] xa02 ε a 1 + x b0 2 [ε b 1 + (x b 1 − ˆ x b 1)β1] 1a0εa1 + 1b0[εb1 + (xb1 − ˆ x b 1)β1] = 1 T xa01 εa1 + ˆ x b0 1 ε b 1 + ˆ x b0 1 [(x b 1 − ˆ x b 1)β1] xa02 ε a 1 + x b0 2 ε b 1 + x b0 2 [(x b 1 − ˆ x b 1)β1] 1a0εa1 + 1b0εb1 + 1b0[(xb1 − ˆ x b 1)β1] = X 0ε1 T + 1 T ( ˆ x b0 1 − xb1)εb1 0 0 + 1 T ˆ x b0 1 [(x b 1 − ˆ x b 1)β1] xb02 [(xb1 − ˆ x b 1)β1] 1b0[(xb1 − ˆ x b 1)β1] = A+B+C Analisaremos os termos A, B e C, separadamente: A: Temos, por hipo´tese, que p lim(X 00ε1 T ) = 0. B: Sabemos que ˆ x b 1 = z b ˆγ = zb(za 0 za)−1(za 0 xa) = zbγ + zb(za 0 za)−1(za 0 εa2) xb1 = z bγ + εb2 Portanto, ˆ x b 1 − xb1 = zb(za 0 za)−1(za 0 εa2)− εb2 =⇒ (ˆx b 1 − xb1)0εb1 = εa02 za(za 0 za)−1zb 0 εb1 − εb02 εb1 =⇒ ( ˆ x b 1 − xb1)0εb1 T = Tb T " εa02 za Ta ( za 0 za Ta )−1 zb 0 εb1 Tb − ε b0 2 ε b 1 Tb # =⇒ p lim ( ˆ x b 1 − xb1)0εb1 T = p lim µ Tb T ¶" p lim µ εa02 za Ta ¶ p lim " ( za 0 za Ta )−1 # p lim à zb 0 εb1 Tb ! −p lim µ εb02 ε b 1 Tb ¶¸ 8 Se o p lim ¡Tb T ¢ = 0 e todos os outros termos convergerem para matrizes finitas, a expressa˜o acima sera´ zero. Por outro lado, se p lim ¡Tb T ¢ > 0 , teremos que examinar os demais termos. p lim à zb 0 εb1 Tb ! = E " zb 0 εb1 Tb /X,Z # = zb 0 E(εb1/X,Z) Tb = 0 p lim µ εb02 εb1 Tb ¶ = E · εb02 εb1 Tb /X,Z ¸ = E(εb02 εb1/X,Z) Tb = 0 Assim, se os demais termos convergirem para matrizes finitas, teremos a convergeˆncia. C: 1 T xˆb01 (x b 1 − xˆb1)β1 = 1 T [γ0zb0 + εa02 z a(za 0 za)−1zb 0 [εb2 − zb(za 0 za)−1(za 0 εa2)]β1 = 1 T h γ0zb0εb2 − γ0zb0zb(za 0 za)−1(za 0 εa2) + ε a0 2 z a(za 0 za)−1zb 0 εb2 −εa02 za(za 0 za)−1zb 0 zb(za 0 za)−1(za 0 εa2) i β1 = Tb T " γ0zb0εb2 Tb − γ 0zb0zb Tb ( za 0 za Ta )−1( za 0 εa2 Ta ) + εa02 z a Ta ( za 0 za Ta )−1 zb 0 εb2 Tb −ε a0 2 z a Ta ( za 0 za Ta )−1 zb 0 zb Tb ( za 0 za Ta )−1( za 0 εa2 Ta ) # β1 Se o p lim ¡Tb T ¢ = 0 e todos os outros termos convergerem para matrizes finitas, a expressa˜o acima sera´ zero. Por outro lado, se p lim ¡ Tb T ¢ > 0 , teremos que examinar os demais termos. Suponha que Ta −→∞, p lim zb0εb2 Tb = E " zb 0 εb2 Tb /Z # = zb 0 E(εb2/Z) Tb = 0 p lim za 0 εa2 Ta = E " za 0 εa2 Ta /Z # = za 0 E(εb2/Z) Ta = 0 Assim, se Ta −→∞, toda a expressa˜o ira´ convergir para zero. 1 T ˆ x b0 2 (x b 1 − ˆ x b 1)β1 = Tb T [ xb02 εb2 Tb − x b0 2 z b Tb ( za 0 za Ta )−1( za 0 εa2 Ta )]β1 p lim xb02 εb2 Tb = E · xb02 εb2 Tb /X ¸ = xb02 E(εb2/X) Tb = 0 p lim za 0 εa2 Ta = E " za 0 εa2 Ta /Z # = za 0 E(εb2/Z) Ta = 0, se Ta −→∞ 9 e, por fim, 1 T 1b0(xb1 − ˆ x b 1)β1 = Tb T [ 1b0εb2 Tb − 1 b0zb Tb ( za 0 za Ta )−1( za 0 εa2 Ta )]β1 Se o p lim ¡Tb T ¢ = 0 e todos os outros termos convergerem para matrizes finitas, a expressa˜o acima sera´ zero. Por outro lado, se p lim ¡ Tb T ¢ > 0 , mas Ta −→∞, p lim 1b0εb2 Tb = E · 1b0εb2 Tb /Z ¸ = 1b0E(εb2/Z) Tb = 0 p lim za 0 εa2 Ta = E " za 0 εa2 Ta /Z # = za 0 E(εb2/Z) Ta = 0, se Ta −→∞ Neste caso, o u´ltimo termo tambe´m convergira´ para zero. Em resumo, o estimador de β sera´ consistente se p lim ¡ Tb T ¢ = 0 ou p limTa = 0 4. a) Para o j-e´simo grupo, temos: yj = x 0 jβ + εj Onde yj , x , j e εjsa˜o vetores de dimensa˜o jx1. Premultiplicando ambos os lados da equac¸a˜o por [1/j]i0, onde i e´ um vetor de 1’s de dimensa˜o jx1, encontramos: 1 j i0yj = 1 j i0x0jβ + 1 j i0εj ⇒ yj = x 0 jβ + εj Para todos grupos a equac¸a˜o fica: y = x0β + ε, onde y = [y1y2...yJ ], x = [x1x2...xJ ] e ε = [ε1ε2...εJ ]. Ω = E[εε0] = E ε1ε1 ε1ε2 ... ε1εJ ε2ε1 ε2ε2 ... ε2εJ ... ... ... ... εJε1 εJε2 ... εJεJ = σ2 0 ... 0 0 σ 2 2 ... 0 ... ... ... ... 0 0 ... σ 2 J Assim, o estimador de minimos quadrados generalizados (GLS) e´: ˆ βGLS = (x 0Ω−1x)−1(x0Ω−1y) Como a inversa da matriz oˆmega e´ dada por: Ω−1 = 1 σ2 0 ... 0 0 2σ2 ... 0 ... ... ... ... 0 0 ... Jσ2 10 Podemos reescrever o estimador GLS: ˆ βGLS = (x¯ 0Ω−1x¯)−1(x¯0Ω−1y¯) = ( X xjxj σ2/j )−1( X xj y¯j σ2/j ) = ( X jxj x¯j) −1( X jxj y¯j) Portanto, os grupos de observac¸o˜es sa˜o ponderados pelo nu´mero de ob- servac¸o˜es de cada grupo, isto porque a me´dia dos grupos que teˆm mais ob- servac¸o˜es possuem menores variaˆncias e, portanto, recebem maiores pesos. b) O coeficiente de determinac¸a˜o (R2) e´ uma medida nume´rica do ajuste da regressa˜o e espera-se que os valores me´dios dos dados agrupados estejam mais pro´ximos a` regressa˜o quando comparados com todas as observac¸o˜es da amostra, gerando assim um melhor ajuste, ou seja, apresentando um R2 maior. Mas isso na˜o contradiz o Teorema de Gauss-Markov. Para verificarmos isso, reescreveremos ˆ βGLS como: βˆGLS = (x 0H 0Hx)−1(x0H 0Hy) onde H = 1 0 0 ... 0 0 ... 0 0 12 1 2 ... 0 0 ... 0 ... ... ... ... ... ... ... ... 0 0 0 ... 1J 1 J ... 1 J A variaˆncia do estimador GLS sera´: V AR( ˆ βGLS/x) = σ 2(x0H 0Hx)−1 Enta˜o, a diferenc¸a entre as variaˆncias de OLS e GLS e´: V AR( ˆ βOLS/x)− V AR( ˆ βGLS/x) = σ 2(x0x)−1 − σ2(x0H 0Hx)−1 Para descobrirmos o sinal da diferenc¸a basta analisarmos as matrizes inver- tidas, ou seja, o sinal da expresa˜o abaixo: x0x− x0H 0Hx = x0(I −H 0H)x Como (I −H 0H) e´ idempotente, x0(I −H 0H)x ≡ x0(I −H 0H)0(I −H 0H)x, que e´ uma matriz positiva definida. Portanto, x0x ≥ x0H 0Hx, o que implica que V AR( ˆ βOLS/x) ≤ V AR( ˆ βGLS/x). Assim, a variaˆncia do estimador de OLS na˜o e´ maior que a variaˆncia do estimador GLS. 5. A densidade conjunta de (y1, y2,..., yn) e´ igual a: f(y1, y2,..., yn/x) = nY i=1 1√ 2π(z0iγ) exp · −1(yi − x0iβ)2 2(z0iγ)2 ¸ 11 Assim, a func¸a˜o de log-verossimilhanc¸a e´ dada por: ⇒ lnL(θ) = −n 2 ln(2π)− X ln(z0iγ)− 1 2 X·yi − x0iβ (z0iγ) ¸2 Para maximizarmos a func¸a˜o acima, devemos deriva´-la nos paraˆmetros de interesse θ0 = £ β γ ¤ e igualar a zero. Desta forma, derivamos as seguintes Condic¸o˜es de Primeira Ordem (CPO): ∂ lnL ∂β = X xi · yi − x0iβ (z0iγ)2 ¸ = 0 ∂ lnL ∂γ = − X zi (z0iγ) + X zi (yi − x0iβ)2 (z0iγ)3 = 0 As derivadas segundas sa˜o ∂2 lnL ∂β∂β0 = − X xix0i (z0iγ)2 ∂2 lnL ∂β∂γ0 = ∂2 lnL ∂γ∂β0 = −2 X·xi(yi − x0iβ)z0i (z0iγ)3 ¸ ∂2 lnL ∂γ∂γ0 = X ziz0i (z0iγ)2 − 3 X (yi − x0iβ)2ziz0i (z0iγ)4 Enta˜o, a matriz de informac¸a˜o sera´ I(θ) = E · −∂ 2 lnL ∂θ∂θ0 ¸ = E P xix0i (z0iγ)2 2 Phxi(yi−x0iβ)z0i (z0iγ)3 i 2 Phxi(yi−x0iβ)z0i (z0iγ)3 i − P ziz0i (z0iγ)2 + 3 P (yi−x0iβ)2ziz0i (z0iγ)4 = " P xix0i (z0iγ)2 0 0 2 P ziz0i (z0iγ)2 # pois E ·X xi(yi − x0iβ)z0i (z0iγ)3 ¸ = ·X xiE(yi − x0iβ)z0i (z0iγ)3 ¸ = 0 e E · − X ziz0i (z0iγ)2 + 3 X (yi − x0iβ)2ziz0i (z0iγ)4 ¸ = − X ziz0i (z0iγ)2 + 3 X E[(yi − x0iβ)2]ziz0i (z0iγ)4 = − X ziz0i (z0iγ)2 + 3 X (z0iγ)2ziz0i (z0iγ)4 = 2 X ziz0i (z0iγ)2 12 O Limite Inferior de Crame´r-Rao para a variaˆncia do estimador na˜o viesado e´ a inversa da matriz de informac¸a˜o, que no caso sera´ a matriz diagonal cu- jos elementos da diagonal sa˜o exatamente os elementos inversos da matriz de informac¸a˜o V (θ) = [I(θ)]−1 = µ E · −∂ 2 lnL ∂θ∂θ0 ¸¶−1 = Ã" P xix0i (z0iγ)2 0 0 2 P ziz0i (z0iγ)2 #!−1 = (z0iγ) 2 S xix0i 0 0 (z0iγ) 2 2 S ziz0i Segue pelo TLC de Lindberg-Levy temos √ n( ˆ θ − θ) d−→ N ³ 0, n [I(θ)]−1 ´ o que implica que a distribuic¸a˜o assinto´tica de ˆ θ sera´ ˆ θ d−→ N ³ θ, [I(θ)]−1 ´ Consequentemente, ˆ βMLE d−→ N(β, [I(θ)]−1) Como ˆ θ e´ estimador consistente para θ, a variaˆncia assinto´tica de ˆ βMLE pode ser consistentementeestimada por AssV ( ˆ βMLE) = (z0i ˆ γ)2P xix0i 6. a) No primeiro esta´gio de 2SLS, calculamos os valores estimados de x1 e y2, baseados na regressa˜o de x1 e y2 contra x1, x2 e x3, ou seja:" ˆ x1 ˆ y2 # = Z(Z 0Z)−1Z0 · x1 y2 ¸ = PZ · x1 y2 ¸ , onde PZ = Z(Z0Z)−1Z0 e Z0 = £ x01 x 0 2 x 0 3 ¤ . No segundo esta´gio, estimamos · γ β ¸ baseados na regressa˜o de y1, em ˆ y2e 13 ˆ x1: ˆ γ ˆ β = ·µ y02PZ x01PZ ¶¡ PZy2 PZx1 ¢¸−1 µ y02PZ x01PZ ¶·¡ y2 x1 ¢µ γ β ¶ + ε1 ¸ = ·µ y02PZy2 y02PZx1 x01PZy2 x01PZx1 ¶¸−1µ y02PZy2 y02PZx1 x01PZy2 x01PZx1 ¶µ γ β ¶ + ·µ y02PZy2 y 0 2PZx1 x01PZy2 x01PZx1 ¶¸−1µ y02PZε1 x01PZε1 ¶ = µ γ β ¶ + ·µ y02PZy2 y 0 2PZx1 x01PZy2 x 0 1PZx1 ¶¸−1µ y02PZε1 x01PZε1 ¶ Sendo p lim 1 n µ y02PZy2 y02PZx1 x01PZy2 x 0 1PZx1 ¶ = Q onde Q e´ uma matriz positiva definida, o estimador 2SLS e´ consistente desde que p lim 1 n (x01PZε1) = p lim 1 n (x01ε1) = 0 (por hipo´tese), p lim 1 n (y02PZε1) = 0 e que x1, x2 e x3 sejam instrumentos va´lidos. Entretanto, o estimador 2SLS na˜o utiliza as informac¸o˜es contidas na hete- rocedasticidade do termo aleato´rio. Portanto, na˜o e´ eficiente. E´ poss´ıvel demonstrar que o estimador 2SLS e´ um caso especial do estimador GMM, quando estimamos GMM utilizando como matriz de pesos a inversa de σ2(Z´Z). Para este caso, o estimador GMM minimiza a seguinte expressa˜o: 1 T X (yt − x0tβ)0z0t 1 σ2 ³X ztz 0 t ´−1 1 T X zt(yt − x0tβ) A condic¸a˜o de primeira ordem e´ dada por:X xtz 0 t ³X ztz 0 t ´−1X zt(yt − x0tβ) = 0 Seja ˆ δ 0 = P xtz0t ( P ztz0t) −1 o coeficiente da regressa˜o de xt contra zt esti- mada por MQO, enta˜o ˆ δ0zt e´ o valor previsto de xt, o que implica que a C.P.O pode ser escrita por: X ˆ xt(yt − x0tβ) = 0 14 Resolvendo para β temos: ˆ β = X ( ˆ xtx0t) −1 X ( ˆ xtyt) = X ( ˆ xt ˆ x 0 t) −1 X ( ˆ xtyt) que e´ exatamente o estimador 2SLS. b) Vimos no item a) que o estimador 2SLS na˜o utiliza a matriz de pon- derac¸o˜es o´tima, que no caso e´ igual a: E ·X ˆ xtutu0t ˆ x 0 t ¸ = X ˆ xtE (utu0t) ˆ x 0 t = X ˆ xtσ2x21t ˆ x 0 t = σ 2 X ˆ xtx21t ˆ x 0 t Portanto, para obtermos um estimador mais eficiente, o modelo deve ser estimado por GMM usando a seguinte matriz de ponderac¸a˜o: 1 σ2 µX ˆ xtx 2 1t ˆ x 0 t ¶−1 onde x1t = · y2 x1 ¸ Neste caso, o estimador GMM minimiza: 1 T X (yt − x0tβ)0z0t 1 σ2 ³X xˆtx21txˆ 0 t ´−1 1 T X ztyt c) A matriz de variaˆncia-covariaˆncia do estimador de 2SLS e´ dada por: V ˆ γ2SLS ˆ β2SLS = E h (Xˆ 0Xˆ)−1(Xˆ 0εε0Xˆ)(Xˆ 0Xˆ)−1/Xˆ i = (Xˆ 0Xˆ)−1Xˆ 0ΩXˆ(Xˆ 0Xˆ)−1 onde Ω = E(εitε0it) = σ 2diag £ x211 x 2 12 ... x 2 1T ¤ Enta˜o, √ n ˆ γ2SLS ˆ β2SLS − γ β d−→ N [0, Q−1Q∗Q−1] ˆ γ2SLS ˆ β2SLS d−→ N · γ β , Q−1Q∗Q−1 n ¸ onde Q−1 = p lim( ˆ X 0 ˆ X T ) −1 e Q∗ = p lim( ˆ X 0 Ω ˆ X T ) −1. O teste cuja hipo´tese nula e´ γ = 0, pode ser baseado na seguinte estat´ıstica: γˆ[(Xˆ 0Xˆ)−1Xˆ 0ΩXˆ(Xˆ 0Xˆ)−1]a11 ˆ γ d−→ κ21 onde a11 indica que e´ o elemento da primeira linha e primeira coluna da matriz. A hipo´tese nula e´ rejeitada ao n´ıvel de significaˆncia de 5% se a estat´ıstica acima tiver valor observado maior que o valor tabelado κ295%,1. 15
Compartilhar