Baixe o app para aproveitar ainda mais
Prévia do material em texto
Propriedades Estatísticas do Estimador MQO no Modelo de Regressão Múltiplo: esperanças dos estimadores MQO Aulas 10 e 11, Intodução à Econometria Prof. Moisés A. Resende Filho Capítulo 03, parte 3 18 e 20 de abril de 2018 Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 1 / 35 1. Hipóteses da Regressão Linear Múltipla (RLM) RLM.1. O modelo populacional ou processo gerador dos dados é linear nos parâmetros: yi = β0 + β1xi1 + β2xi2 + . . .+ βkxik + ui , i = 1, ..., n RLM.2. É possível obter uma amostra f(xi1, xi2, ..., xik , yi ) : i = 1, ..., ng aleatória da população, o que assegura: E (ui jxl1, xl2, ..., xlk ) = 0, i , l = 1, ..., n; i 6= l Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 2 / 35 Hipóteses da Regressão Linear Múltipla (RLM) RLM.3. Ausência de colinearidade perfeita das variáveis explicativas, tal que: n � (k + 1), ou seja, há mais observações que parâmetros a serem estimados; cada variável explicativa tem variabilidade na amostra; e nenhuma variável explicativa do modelo é uma combinação linear das outras variáveis explicativas, R2j < 1, j = 0, 1, ..., k em que R 2 j é o coe ciente de determinação da regressão de xj nas demais variáveis explicativas do modelo. RLM.4. A média condicional do erro é zero ou, equivalentemente, o erro é média independente de xi1, xi2, ..., xik : E (ui jxi1, xi2, ..., xik ) = 0, i = 1, ..., n ou, simplesmente, E (ujx1, x2, ..., xk ) = 0 Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 3 / 35 Hipóteses da Regressão Linear Múltipla (RLM) Por exemplo, no modelo log(consumo) = β0 + β1 log(renda) + β2 log(renda 2) + u, fazendo x1 = log(renda) e x2 = log(renda2), percebemos que x2 = 2x1, ou seja, x2 é uma combinação linear de x1 (colinearidade perfeita) e o R21 da regressão de x1 em uma constante e x2 é um. No entanto, não existiria colinearidade perfeita se a especi cação do modelo fosse log(consumo) = β0 + β1 log(renda) + β2 log(renda) 2 + u Por quê? Porque no caso x1 = log(renda) e x2 = log(renda)2 e, assim, x1 = x22 , ou seja, x2 é uma combinação não linear de x1. Em suma, sob RLM.3, será possível obter estimativas MQO dos parâmetros do modelo a partir da amostra. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 4 / 35 2. O valor esperado dos estimadores MQO Teorema 3.1 (Inexistência de Viés de MQO): sob RLM.1 a RLM.4 e condicional em f(xi1, ..., xik ) : i = 1, ..., ng, os estimadores MQO são não viesados, tal que: E (βˆj ) = βj , j = 0, 1, ..., k Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 5 / 35 2. O valor esperado dos estimadores MQO Teorema 3.1 (Inexistência de Viés de MQO): sob RLM.1 a RLM.4 e condicional em f(xi1, ..., xik ) : i = 1, ..., ng, os estimadores MQO são não viesados, tal que: E (βˆj ) = βj , j = 0, 1, ..., k Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 6 / 35 2. 1. Demonstração do Teorema 3.1 1 Substitua yi = β0 + β1xi1 + ...+ βkxik + ui no estimador de dois estágios bβj = ∑ni=1 brijyi∑ni=1 br2ij , j = 0, 1, ..., k em que brij é o resíduo da regressão de xj nas demais k � 1 variáveis explicativas da RLM, de onde obtemos que: bβj = βj + ∑ni=1 brijui∑ni=1 br2ij , j = 0, 1, ..., k (1) pois ∑ni=1 br2ij = ∑ni=1 brijxij , j = 0, 1, ..., k; ∑ni=1 brij = 0, j = 1, ..., k; e ∑ni=1 brijxim = 0, j = 0, 1, ..., k;m = 1, .., k; j 6= m. 2 Finalmente, usando RLM.2 e RLM.4, condicional em f(xi1, ..., xik ) : i = 1, ..., ng, E (bβj ) = βj + ∑ni=1 brijE (ui )∑ni=1 br 2ij = βj CQD. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 7 / 35 3. Viés de variável omitida: o caso simples Se apenas uma única variável, a variável xk , é omitida: β˜j = bβj + bβkeδj , j = 0, 1, ..., k � 1 (2) tal que, condicional nos valores f(xi1, ..., xik ) : i = 1, ..., ng da amostra, E (β˜j ) = βj + βkeδj|{z} viés de MQO , j = 0, 1, ..., k � 1 (3) em que eδj é o coe ciente de xj , j = 1, ..., k � 1 na regressão auxiliar de xk nas demais k � 1 variáveis explicativas do modelo, x1, x2, ..., xk�1. Ou seja, o viés devido à omissão de xk é βkeδj , j = 0, 1, ..., k e, assim, cada estimativa MQO bβj , j = 0, 1, ..., k � 1 provavelmente será viesada. Note que o viés pode ser zero mesmo se eδj 6= 0, desde que βk = 0 (irrelevância de xk para explicar y). Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 8 / 35 Viés de variável omitida: o caso simples EXEMPLO: Nota no exame nal e faltas nas aulas Amostra de 680 alunos na disciplina Introductory Microeconomics na Michigan State University em vários anos. A frequência dos estudantes foi registrada eletronicamente e atestada por monitores da disciplina. nal é a nota na prova nal na disciplina em um total de 40 pontos. missed é o número de aulas que o estudante faltou em um total de 32 aulas. priGPA é o GPA ou IRA do aluno no inicio do semestre com 0 � priGPA � 4. Baixe o arquivo attend.dta no sítio web da disciplina e clique sobre o arquivo para abrir o Stata. De fato, todas as bases de dados do livro texto estão em http://fmwww.bc.edu/ec-p/data/wooldridge/datasets.list.html Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 9 / 35 Viés de variável omitida: o caso simples Queremos estimar o custo de faltar uma aula de Introductory Microeconomics na Michigan State University. O modelo verdadeiro/certo é nali = bβ0 + bβmissedmissedi + bβpriGPApriGPAi + bui , i = 1, 2, ..., 680 (4) No entanto, estimou-se por MQO nali = eβ0 + eβmissedmissedi + eui , i = 1, 2, ..., 680 (5) Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 10 / 35 Viés de variável omitida: o caso simples Como apenas uma única variável, a variável priGP, foi omitida, temos que: β˜missed = bβmissed + bβpriGPAeδmissed (6) Portanto, condicional nos valores f(missedi , priGPAi ) : i = 1, ..., 680g da amostra, temos que: E (β˜missed ) = βmissed + βpriGPAeδmissed| {z } viés de MQO (7) em que eδmissed é o coe ciente de missed na regressão auxiliar de priGPA em uma constante e missed . Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 11 / 35 Viés de variável omitida: o caso simples Regredindo nal em missed obtém-se as estimativas MQO.d nal = 26, 60� 0, 121 missed n = 680 Com o comando Stata regress nal missed, cformat(%9.3f) pformat(%5.3f) sformat(%8.3f): _cons 26.599 0.263 101.293 0.000 26.083 27.114 missed -0.121 0.033 -3.683 0.000 -0.185 -0.056 final Coef. Std. Err. t P>|t| [95% Conf. Interval] Total 15061.9471 679 22.1825435 Root MSE = 4.6669 Adj R-squared = 0.0182 Residual 14766.5951 678 21.7796387 R-squared = 0.0196 Model 295.352008 1 295.352008 Prob > F = 0.0002 F( 1, 678) = 13.56 Source SS df MS Number of obs = 680 Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 12 / 35 Viés de variável omitida: o caso simples Na regressão MQO auxiliar de priGPA em uma constante e missed , obtemos que \priGPA = 2, 836� 0, 043 missed n = 680 ou seja, eδmissed = �0, 043 Com o comando Stata regress priGPA missed, cformat(%9.3f) pformat(%5.3f) sformat(%8.3f): _cons 2.836 0.028 102.278 0.000 2.782 2.891 missed -0.043 0.003 -12.302 0.000 -0.049 -0.036 priGPA Coef. Std. Err. t P>|t| [95% Conf. Interval] Total 201.468417 679 .296713427 Root MSE = .49287 Adj R-squared= 0.1813 Residual 164.702529 678 .242924084 R-squared = 0.1825 Model 36.765888 1 36.765888 Prob > F = 0.0000 F( 1, 678) = 151.35 Source SS df MS Number of obs = 680 Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 13 / 35 Viés de variável omitida: o caso simples Na regressão MQO de nal em missed e priGPA, obtemosd nal = 17, 42+ 0, 017missed + 3, 238priGPA n = 680 ou seja, bβpriGPA = 2, 238 Com o comando Stata regress nal missed priGPA, cformat(%9.3f) pformat(%5.3f) sformat(%8.3f): _cons 17.416 1.001 17.399 0.000 15.450 19.381 priGPA 3.238 0.342 9.467 0.000 2.566 3.909 missed 0.017 0.034 0.504 0.615 -0.050 0.084 final Coef. Std. Err. t P>|t| [95% Conf. Interval] Total 15061.9471 679 22.1825435 Root MSE = 4.3888 Adj R-squared = 0.1317 Residual 13040.2229 677 19.2617768 R-squared = 0.1342 Model 2021.72415 2 1010.86207 Prob > F = 0.0000 F( 2, 677) = 52.48 Source SS df MS Number of obs = 680 Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 14 / 35 Viés de variável omitida: o caso simples eδmissed = �0, 043 indica que há uma correlação negativa entre priGPA e missed na amostra, tal que muitas faltas estão associadas a baixos GPAs. Ou seja, "piores"alunos também faltam mais. Observe, que como β˜missed = bβmissed + bβpriGPAeδmissed e β˜missed = �0, 121, bβmissed = 0, 017 e bβpriGPA = 3, 238, de fato: eδmissed = �0, 121� 0, 0173, 238 = �0, 043 Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 15 / 35 Viés de variável omitida: o caso simples Assim, β˜missed = �0, 121, quando deveria ser bβmissed = 0, 017, tal que como ��β˜missed �� > ���bβmissed ���, o custo estimado de uma falta estaria sendo superestimado. A pior qualidade do aluno que falta faz com que a estimativa do custo de uma falta seja maior do que o correto. Quando não se controla para a qualidade do aluno, o custo estimado de uma falta é superestimado o tempo todo. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 16 / 35 Viés de variável omitida: o caso simples Pior ainda, em média, não acertamos o verdadeiro valor de βmissed , pois E (β˜missed ) = βmissed + βpriGPA (+) eδmissed (�)| {z } viés de MQO (�) . O viés de variável omitida, condicional nos valores de missed e priGPA na amostra, é β priGPA (+) eδmissed (�) < 0 Portanto, a omissão de priGPA faz com que, condicional nos valores de missed e priGPA na amostra, em média, se superestime o custo de faltar aulas, pois ��E (β˜missed )�� > ���E (bβmissed )��� Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 17 / 35 Viés de variável omitida: o caso simples De fato, eδmissed 6= 0 <=> Corr(priGPA,missed) 6= 0 implica que E (ujmissed) 6= 0, mesmo se E (ujmissed , priGPA) = 0. Todavia, se eδmissed 6= 0 mas βpriGPA = 0, o viés de MQO é zero mesmo sob E (ujmissed) 6= 0. Ou seja, o Teorema 3.1. de não enviesamento de MQO é um teorema de su ciência e, assim, não estabelece condições de necessidade. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 18 / 35 4. Variância dos estimadores MQO RLM.5 (Homocedasticidade) - A variância do erro u, condicional em f(xi1, ..., xik ) : i = 1, ..., ng na amostra é Var(ui ) = σ2, i = 1, ..., n ou, simplesmente, Var(ujx1, x2, ..., xk ) = Var(u) = σ2 (8) em que condicional em x1, x2, ..., xk deve ser entendido como condictional em f(xi1, xi2, ..., xik ) : i = 1, ..., ng da amostra. A hipótese RLM.5 é fundamental na obtenção de fórmulas simples para os estimadores da variância dos estimadores de MQO,dVar(bβj ), j = 0, 1, .., k , e na discussão da e ciência dos estimadores MQO. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 19 / 35 Variância dos estimadores MQO Sabemos que bβj = ∑ni=1 brijyi∑ni=1 br2ij , j = 0, 1, ..., k = ∑ni=1 brij (β0 + β1xi1 + ...+ βkxik + ui ) ∑ni=1 br2ij = βj + ∑ni=1 brijui ∑ni=1 br2ij (9) pois ∑ni=1 br2ij = ∑ni=1 brijxij , j = 0, 1, ..., k; ∑ni=1 brij = 0, j = 1, ..., k; e ∑ni=1 brijxim = 0, j = 0, 1, ..., k;m = 1, .., k; j 6= m. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 20 / 35 Variância dos estimadores MQO Sob RLM.1 a RLM.5 e conditional em f(xi1, ..., xik ) : i = 1, ..., ng, aplicando Var(.) dos dois lados de (9), temos que: Var(bβj ) = Var βj + ∑ni=1 brijui ∑ni=1 br2ij ! = ∑ni=1 Var 1 ∑ni=1 br2ij brijui ! , pois Var(βj ) = 0 = 1 ∑ni=1 br2ij !2 ∑ni=1 br2ijVar(ui ), como Var(ui ) = σ2, 8i = 1 ∑ni=1 br2ij !2 σ2∑ni=1 br2ij (10) e, assim, Var(bβj ) = σ2∑ni=1 br2ij , j = 0, 1, ..., k (11) Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 21 / 35 Variância dos estimadores MQO TEOREMA 3.2. (Variâncias amostrais dos estimadores MQO das inclinações). Sob RLM.1 a RLM.5 (hipóteses de Gauss-Markov), e conditional em f(xi1, ..., xik ) : i = 1, ..., ng ou valores das variáveis explicativas na amostra, Var(bβj ) = σ2SQTj (1� R2j ) , j = 1, ..., k (12) Pois, para j = 1, ..., k, ∑ni=1 br2ij = (SQTj � SQEj )SQTjSQTj = SQTj (1� R2j ), em que SQTj = ∑ni=1(xij � x¯j )2 e R2j = SQEjSQTj = 1� ∑ni=1 br 2ij SQTj é o R2 da regressão de xj nas outras k � 1 variáveis explicativas do modelo. RLM.3 elimina a possibilidade de R2j = 1, que só ocorreria se xj fosse uma combinação linear de uma constante e as outras k � 1 variáveis explicativas do modelo. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 22 / 35 Variância dos estimadores MQO Os componentes que afetam a variância Var(βˆj ) = σ2 SQTj (1� R2j ) , j = 1, ..., k 1. Se a variância do erro populacional σ2 decresse, então Var(βˆj ) diminui. Uma maneira de reduzir σ2 é acrescentar variáveis ao modelo, ou seja, retirar fatores inexplicados de u e passar a incorporá-los explicitamente no modelo. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 23 / 35 Variância dos estimadores MQO Var(βˆj ) = σ2 SQTj (1� R2j ) 2. Se a variabilidade amostral total de xj , SQTj , aumenta, então Var(βˆj ) decresse, ou seja, a estimativa do efeito de xj em y se torna mais precisa se há maior variação amostral em xj . Como SQTj/n é a variância amostral de fxij : i = 1, ..., ng, podemos considerar que SQTj � nσ2j onde a constante σ2j > 0 é a variância populacional de xj . Assim, ao aumentar o tamanho n da amostra, aumentamos SQTj , o que termina aumentando a precisão das estimativas βˆj de MQO. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 24 / 35 Variância dos estimadores MQO Var(βˆj ) = σ2 SQTj (1� R2j ) 3. Se R2j ! 1, Var(βˆj )! ∞, tal que quanto maior for a multicolinearidade menos precisa serão as estimativas βˆj . Lembre que R2j mede o quanto xj se relaciona linearmente com as outras k � 1 variáveis explicativas do modelo, tal que a menor variância de βˆj ocorre se R 2 j = 0, caso em que Var(βˆj ) = σ2 SQTj que é a fórmula no modelo de regressão simples. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 25 / 35 Variância dos estimadores MQO Um grá co típico de Var(βˆj ) = σ2 SQTj 1 (1�R 2j ) , por exemplo para Var(βˆj ) = 1 100 1 (1�R 2j ) ,R 2 j 2 [0, 1] é 0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.1 0.2 R-dois jota Var(beta jota chapéu) Um R2j muito próximo de 1 gera umproblema de multicolinearidade, mas o que é "muito próximo"de 1? De fato, alta multicolinearidade não viola nenhuma hipótese de Gauss-Markov. Em geral, uma forma viável para se reduzir Var(βˆj ) é aumentar o tamanho da amostra. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 26 / 35 5. Variância em modelos mal especi cados Podemos estudar as variâncias dos estimadores MQO em modelos mal especi cados. Por exemplo, suponha que tenhamos estimado os modelos: y = βˆ0 + βˆ1x1 + βˆ2x2 + bu (13) y = β˜0 + β˜1x1 + eu (14) e sabemos que Var(βˆ1) = σ2 SQT1(1� R21 ) (15) E (βˆ1) = β1 Var(β˜1) = σ2 SQT1 (16) E (β˜1) = β1 + β2eδ1 Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 27 / 35 Variância em modelos mal especi cados Moral da história Se β2 6= 0 (incluir x2 é necessário) e x1 e x2 são correlacionados na amostra, ou seja, R21 > 0, então: β˜1 é viesado e βˆ1 é não viesado, mas Var(β˜1) = σ2 SQT1 < Var(βˆ1) = σ2 SQT1(1�R 21 ) , ou seja, β˜1 é mais preciso que βˆ1. Se β2 = 0 (incluir x2 é desnecessário) e R 2 1 > 0, então: β˜1 e βˆ1 são ambos não viesados, mas Var(β˜1) = σ2 SQT1 < Var(βˆ1) = σ2 SQT1(1�R 21 ) , , ou seja, β˜1 é mais preciso que βˆ1. Portanto, Incluir variáveis desnecessárias no modelo não viesa, mas reduz a precisão das estimativas MQO. Em outras palavras, superespeci car o modelo não é uma medida sem custos. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 28 / 35 6. Estimador da variância do erro da regressão É necessário estimar σ2, pois apesar de constante é desconhecido, a partir de n observações e k + 1 parâmetros estimados, o que nos dá apenas n� (k + 1) graus de liberdade (gl). Perdemos (k + 1) graus de liberdade ao impor aos dados as k + 1 CPOs do problema de MQO, quais sejam: ∑ni=1 uˆi = 0 ∑ni=1 xij uˆi = 0, j = 1, ..., k Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 29 / 35 Estimador da variância do erro da regressão TEOREMA 3.3 (Estimação não viesada de σ2). Sob as hipóteses de Gauss-Markov (RLM.1 a RLM.5): σˆ2 = ∑ni=1 uˆ2i n� (k + 1) = SQR gl é o estimador não viesado de σ2e σˆ é o erro-padrão da regressão ("Root MSE"na saída do Stata). Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 30 / 35 Estimador da variância do erro da regressão O erro padrão de cada βˆj é calculado como ep(βˆj ) = σˆq SQTj (1� R2j ) , j = 1, ..., k e são reportados na saída do Stata na coluna com título "std. err". Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 31 / 35 Estimador da variância do erro da regressão Por exemplo, utilizando a base de dados WAGE2.DTA, e comando Stata: reg lwage educ IQ exper,cformat(%9.3f) pformat(%5.3f) sformat(%8.3f), obtemos: _cons 5.198 0.122 42.768 0.000 4.960 5.437 exper 0.020 0.003 6.018 0.000 0.013 0.026 IQ 0.006 0.001 5.906 0.000 0.004 0.008 educ 0.057 0.007 7.772 0.000 0.043 0.072 lwage Coef. Std. Err. t P>|t| [95% Conf. Interval] Total 165.656283 934 .177362188 Root MSE = .38609 Adj R-squared = 0.1595 Residual 138.779515 931 .149065 R-squared = 0.1622 Model 26.876768 3 8.95892266 Prob > F = 0.0000 F( 3, 931) = 60.10 Source SS df MS Number of obs = 935 . reg lwage educ IQ exper,cformat(%9.3f) pformat(%5.3f) sformat(%8.3f) [lwage = 5, 198 (0,122) + 0, 057 (0,007) educ + 0, 006 (0,001) IQ + 0, 020 (0,003) exper n = 935, R2 = 0, 1622 Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 32 / 35 6.1. E ciência de MQO TEOREMA 3.4. (Teorema de Gauss-Markov). Sob as suposições RLM.1 a RLM.5 (hipóteses de Gauss-Markov) e condicional em f(xi1, ..., xik ) : i = 1, ..., ng, os estimadores MQO βˆ0, βˆ1, ..., βˆk são os melhores estimadores linearres não viesados ou best linear unbiased estimators (BLUE). Ou seja, as variâncias das estimativas MQO são as menores dentre todos os possíveis estimadores lineares dos parâmetros do modelo econométrico. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 33 / 35 7. MQO é BLUE E (estimador): podemos computar uma estimativa a partir dos dados na amostra, utilizando uma regra, no caso, o estimador MQO. U (unbiased): sob RLM1 a RRLM.4 E (bβj ) = βj , j = 0, 1, ..., k (Teorema 3.1). L (linear): O estimador MQO é uma função linear de fyi : i = 1, ..., ng, ou seja, pode ser colocado na forma geralbβj = ∑ni=1 wijyi , onde wij , i = 1, ..., n são quaisquer funções de f(xi1, ..., xik ) : i = 1, ..., ng. No caso do estimador MQO, bβj = ∑ni=1 brij yi∑ni=1 br 2ij , j = 0, 1, ..., k, tal que de nindo wij = brij ∑ni=1 br 2ij , observamos que bβj = ∑ni=1 wijyi (é linear nos yi ). Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 34 / 35 E ciência de MQO B (best): O estimador possui a menor variância dentre os estimadores lineares, ou seja, sob RLM.1 a RLM.5 (hipóteses de Gauss-Markov) e condicional em f(xi1, ..., xik ) : i = 1, ..., ng: Var(βˆj ) � Var(β˜j ), para todo j = 0, ..., k (usualmente a desigualdade é estrita) e β˜j é qualquer outro estimador não viesado e linear de βj . βˆj continua não viesado mesmo se a hipótese RLM.5 não se sustenta, mas nesse caso: 1 As fórmulas para Var(βˆj ) e ep(βˆj ) se tornam incorretas, o que exige encontrar fórmulas corretas. 2 Os estimadores MQO βˆj , j = 0, 1, ..., k deixam de ser BLUE, o que abre espaço para se tentar obter estimadores melhores que MQO. Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 35 / 35 1. Hipóteses da Regressão Linear Múltipla (RLM) 2. O valor esperado dos estimadores MQO 2.1. Demonstração do Teorema de Inexistência de Viés de MQO 3. Viés de variável omitida 4. Variância dos Estimadores MQO 5. Variâncias em Modelos Mal Especificados 6. Estimador da variância do erro da regressão 6.1. Eficiência de MQO 7. MQO é BLUE
Compartilhar