Buscar

Propriedades Estatísticas do Estimador MQO

Prévia do material em texto

Propriedades Estatísticas do Estimador MQO no Modelo
de Regressão Múltiplo: esperanças dos estimadores
MQO
Aulas 10 e 11, Intodução à Econometria
Prof. Moisés A. Resende Filho
Capítulo 03, parte 3
18 e 20 de abril de 2018
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 1 / 35
1. Hipóteses da Regressão Linear Múltipla (RLM)
RLM.1. O modelo populacional ou processo gerador dos dados é
linear nos parâmetros:
yi = β0 + β1xi1 + β2xi2 + . . .+ βkxik + ui , i = 1, ..., n
RLM.2. É possível obter uma amostra
f(xi1, xi2, ..., xik , yi ) : i = 1, ..., ng aleatória da população, o que
assegura:
E (ui jxl1, xl2, ..., xlk ) = 0, i , l = 1, ..., n; i 6= l
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 2 / 35
Hipóteses da Regressão Linear Múltipla (RLM)
RLM.3. Ausência de colinearidade perfeita das variáveis explicativas,
tal que: n � (k + 1), ou seja, há mais observações que parâmetros a
serem estimados; cada variável explicativa tem variabilidade na
amostra; e nenhuma variável explicativa do modelo é uma
combinação linear das outras variáveis explicativas,
R2j < 1, j = 0, 1, ..., k em que R
2
j é o coe…ciente de determinação da
regressão de xj nas demais variáveis explicativas do modelo.
RLM.4. A média condicional do erro é zero ou, equivalentemente, o
erro é média independente de xi1, xi2, ..., xik :
E (ui jxi1, xi2, ..., xik ) = 0, i = 1, ..., n
ou, simplesmente,
E (ujx1, x2, ..., xk ) = 0
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 3 / 35
Hipóteses da Regressão Linear Múltipla (RLM)
Por exemplo, no modelo
log(consumo) = β0 + β1 log(renda) + β2 log(renda
2) + u,
fazendo x1 = log(renda) e x2 = log(renda2), percebemos que
x2 = 2x1, ou seja, x2 é uma combinação linear de x1 (colinearidade
perfeita) e o R21 da regressão de x1 em uma constante e x2 é um.
No entanto, não existiria colinearidade perfeita se a especi…cação do
modelo fosse
log(consumo) = β0 + β1 log(renda) + β2 log(renda)
2 + u
Por quê? Porque no caso x1 = log(renda) e x2 = log(renda)2 e,
assim, x1 = x22 , ou seja, x2 é uma combinação não linear de x1.
Em suma, sob RLM.3, será possível obter estimativas MQO dos
parâmetros do modelo a partir da amostra.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 4 / 35
2. O valor esperado dos estimadores MQO
Teorema 3.1 (Inexistência de Viés de MQO): sob RLM.1 a RLM.4
e condicional em f(xi1, ..., xik ) : i = 1, ..., ng, os estimadores MQO
são não viesados, tal que:
E (βˆj ) = βj , j = 0, 1, ..., k
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 5 / 35
2. O valor esperado dos estimadores MQO
Teorema 3.1 (Inexistência de Viés de MQO): sob RLM.1 a RLM.4
e condicional em f(xi1, ..., xik ) : i = 1, ..., ng, os estimadores MQO
são não viesados, tal que:
E (βˆj ) = βj , j = 0, 1, ..., k
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 6 / 35
2. 1. Demonstração do Teorema 3.1
1 Substitua yi = β0 + β1xi1 + ...+ βkxik + ui no estimador de dois
estágios bβj = ∑ni=1 brijyi∑ni=1 br2ij , j = 0, 1, ..., k
em que brij é o resíduo da regressão de xj nas demais k � 1 variáveis
explicativas da RLM, de onde obtemos que:
bβj = βj + ∑ni=1 brijui∑ni=1 br2ij , j = 0, 1, ..., k (1)
pois ∑ni=1 br2ij = ∑ni=1 brijxij , j = 0, 1, ..., k; ∑ni=1 brij = 0, j = 1, ..., k; e
∑ni=1 brijxim = 0, j = 0, 1, ..., k;m = 1, .., k; j 6= m.
2 Finalmente, usando RLM.2 e RLM.4, condicional em
f(xi1, ..., xik ) : i = 1, ..., ng, E (bβj ) = βj + ∑ni=1 brijE (ui )∑ni=1 br 2ij = βj CQD.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 7 / 35
3. Viés de variável omitida: o caso simples
Se apenas uma única variável, a variável xk , é omitida:
β˜j =
bβj + bβkeδj , j = 0, 1, ..., k � 1 (2)
tal que, condicional nos valores f(xi1, ..., xik ) : i = 1, ..., ng da
amostra,
E (β˜j ) = βj + βkeδj|{z}
viés de MQO
, j = 0, 1, ..., k � 1 (3)
em que eδj é o coe…ciente de xj , j = 1, ..., k � 1 na regressão auxiliar
de xk nas demais k � 1 variáveis explicativas do modelo,
x1, x2, ..., xk�1.
Ou seja, o viés devido à omissão de xk é βkeδj , j = 0, 1, ..., k e, assim,
cada estimativa MQO bβj , j = 0, 1, ..., k � 1 provavelmente será
viesada.
Note que o viés pode ser zero mesmo se eδj 6= 0, desde que βk = 0
(irrelevância de xk para explicar y).
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 8 / 35
Viés de variável omitida: o caso simples
EXEMPLO: Nota no exame …nal e faltas nas aulas
Amostra de 680 alunos na disciplina Introductory Microeconomics
na Michigan State University em vários anos.
A frequência dos estudantes foi registrada eletronicamente e atestada
por monitores da disciplina.
…nal é a nota na prova …nal na disciplina em um total de 40 pontos.
missed é o número de aulas que o estudante faltou em um total de 32
aulas.
priGPA é o GPA ou IRA do aluno no inicio do semestre com
0 � priGPA � 4.
Baixe o arquivo attend.dta no sítio web da disciplina e clique sobre o
arquivo para abrir o Stata.
De fato, todas as bases de dados do livro texto estão em
http://fmwww.bc.edu/ec-p/data/wooldridge/datasets.list.html
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 9 / 35
Viés de variável omitida: o caso simples
Queremos estimar o custo de faltar uma aula de Introductory
Microeconomics na Michigan State University.
O modelo verdadeiro/certo é
…nali = bβ0 + bβmissedmissedi + bβpriGPApriGPAi + bui , i = 1, 2, ..., 680
(4)
No entanto, estimou-se por MQO
…nali = eβ0 + eβmissedmissedi + eui , i = 1, 2, ..., 680 (5)
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 10 / 35
Viés de variável omitida: o caso simples
Como
apenas uma única variável, a variável priGP, foi omitida, temos que:
β˜missed =
bβmissed + bβpriGPAeδmissed (6)
Portanto, condicional nos valores f(missedi , priGPAi ) : i = 1, ..., 680g
da amostra, temos que:
E (β˜missed ) = βmissed + βpriGPAeδmissed| {z }
viés de MQO
(7)
em que eδmissed é o coe…ciente de missed na regressão auxiliar de
priGPA em uma constante e missed .
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 11 / 35
Viés de variável omitida: o caso simples
Regredindo …nal em missed obtém-se as estimativas MQO.d…nal = 26, 60� 0, 121 missed
n = 680
Com o comando Stata regress …nal missed, cformat(%9.3f)
pformat(%5.3f) sformat(%8.3f):
 _cons 26.599 0.263 101.293 0.000 26.083 27.114
 missed -0.121 0.033 -3.683 0.000 -0.185 -0.056
 final Coef. Std. Err. t P>|t| [95% Conf. Interval]
 Total 15061.9471 679 22.1825435 Root MSE = 4.6669
 Adj R-squared = 0.0182
Residual 14766.5951 678 21.7796387 R-squared = 0.0196
 Model 295.352008 1 295.352008 Prob > F = 0.0002
 F( 1, 678) = 13.56
Source SS df MS Number of obs = 680
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 12 / 35
Viés de variável omitida: o caso simples
Na regressão MQO auxiliar de priGPA em uma constante e missed ,
obtemos que
\priGPA = 2, 836� 0, 043 missed
n = 680
ou seja, eδmissed = �0, 043
Com o comando Stata regress priGPA missed, cformat(%9.3f)
pformat(%5.3f) sformat(%8.3f):
 _cons 2.836 0.028 102.278 0.000 2.782 2.891
 missed -0.043 0.003 -12.302 0.000 -0.049 -0.036
 priGPA Coef. Std. Err. t P>|t| [95% Conf. Interval]
 Total 201.468417 679 .296713427 Root MSE = .49287
 Adj R-squared= 0.1813
Residual 164.702529 678 .242924084 R-squared = 0.1825
 Model 36.765888 1 36.765888 Prob > F = 0.0000
 F( 1, 678) = 151.35
Source SS df MS Number of obs = 680
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 13 / 35
Viés de variável omitida: o caso simples
Na regressão MQO de …nal em missed e priGPA, obtemosd…nal = 17, 42+ 0, 017missed + 3, 238priGPA
n = 680
ou seja, bβpriGPA = 2, 238
Com o comando Stata regress …nal missed priGPA, cformat(%9.3f)
pformat(%5.3f) sformat(%8.3f):
 _cons 17.416 1.001 17.399 0.000 15.450 19.381
 priGPA 3.238 0.342 9.467 0.000 2.566 3.909
 missed 0.017 0.034 0.504 0.615 -0.050 0.084
 final Coef. Std. Err. t P>|t| [95% Conf. Interval]
 Total 15061.9471 679 22.1825435 Root MSE = 4.3888
 Adj R-squared = 0.1317
Residual 13040.2229 677 19.2617768 R-squared = 0.1342
 Model 2021.72415 2 1010.86207 Prob > F = 0.0000
 F( 2, 677) = 52.48
Source SS df MS Number of obs = 680
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 14 / 35
Viés de variável omitida: o caso simples
eδmissed = �0, 043 indica que há uma correlação negativa entre
priGPA e missed na amostra, tal que muitas faltas estão associadas a
baixos GPAs.
Ou seja, "piores"alunos também faltam mais.
Observe, que como β˜missed = bβmissed + bβpriGPAeδmissed e
β˜missed = �0, 121, bβmissed = 0, 017 e bβpriGPA = 3, 238, de fato:
eδmissed = �0, 121� 0, 0173, 238
= �0, 043
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 15 / 35
Viés de variável omitida: o caso simples
Assim, β˜missed = �0, 121, quando deveria ser bβmissed = 0, 017, tal
que como
��β˜missed �� > ���bβmissed ���, o custo estimado de uma falta estaria
sendo superestimado.
A pior qualidade do aluno que falta faz com que a estimativa do
custo de uma falta seja maior do que o correto.
Quando não se controla para a qualidade do aluno, o custo estimado
de uma falta é superestimado o tempo todo.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 16 / 35
Viés de variável omitida: o caso simples
Pior ainda, em média, não acertamos o verdadeiro valor de βmissed ,
pois E (β˜missed ) = βmissed + βpriGPA
(+)
eδmissed
(�)| {z }
viés de MQO (�)
.
O viés de variável omitida, condicional nos valores de missed e
priGPA na amostra, é
β
priGPA
(+)
eδmissed
(�)
< 0
Portanto, a omissão de priGPA faz com que, condicional nos valores
de missed e priGPA na amostra, em média, se superestime o custo
de faltar aulas, pois ��E (β˜missed )�� > ���E (bβmissed )���
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 17 / 35
Viés de variável omitida: o caso simples
De fato, eδmissed 6= 0 <=> Corr(priGPA,missed) 6= 0 implica que
E (ujmissed) 6= 0, mesmo se E (ujmissed , priGPA) = 0.
Todavia, se eδmissed 6= 0 mas βpriGPA = 0, o viés de MQO é zero mesmo
sob E (ujmissed) 6= 0.
Ou seja, o Teorema 3.1. de não enviesamento de MQO é um teorema
de su…ciência e, assim, não estabelece condições de necessidade.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 18 / 35
4. Variância dos estimadores MQO
RLM.5 (Homocedasticidade) - A variância do erro u, condicional
em f(xi1, ..., xik ) : i = 1, ..., ng na amostra é
Var(ui ) = σ2, i = 1, ..., n
ou, simplesmente,
Var(ujx1, x2, ..., xk ) = Var(u) = σ2 (8)
em que condicional em x1, x2, ..., xk deve ser entendido como
condictional em f(xi1, xi2, ..., xik ) : i = 1, ..., ng da amostra.
A hipótese RLM.5 é fundamental na obtenção de fórmulas simples
para os estimadores da variância dos estimadores de MQO,dVar(bβj ), j = 0, 1, .., k , e na discussão da e…ciência dos estimadores
MQO.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 19 / 35
Variância dos estimadores MQO
Sabemos que
bβj = ∑ni=1 brijyi∑ni=1 br2ij , j = 0, 1, ..., k
=
∑ni=1 brij (β0 + β1xi1 + ...+ βkxik + ui )
∑ni=1 br2ij
= βj +
∑ni=1 brijui
∑ni=1 br2ij (9)
pois ∑ni=1 br2ij = ∑ni=1 brijxij , j = 0, 1, ..., k; ∑ni=1 brij = 0, j = 1, ..., k; e
∑ni=1 brijxim = 0, j = 0, 1, ..., k;m = 1, .., k; j 6= m.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 20 / 35
Variância dos estimadores MQO
Sob RLM.1 a RLM.5 e conditional em f(xi1, ..., xik ) : i = 1, ..., ng,
aplicando Var(.) dos dois lados de (9), temos que:
Var(bβj ) = Var
 
βj +
∑ni=1 brijui
∑ni=1 br2ij
!
= ∑ni=1 Var
 
1
∑ni=1 br2ij brijui
!
, pois Var(βj ) = 0
=
 
1
∑ni=1 br2ij
!2
∑ni=1 br2ijVar(ui ), como Var(ui ) = σ2, 8i
=
 
1
∑ni=1 br2ij
!2
σ2∑ni=1 br2ij (10)
e, assim,
Var(bβj ) = σ2∑ni=1 br2ij , j = 0, 1, ..., k (11)
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 21 / 35
Variância dos estimadores MQO
TEOREMA 3.2. (Variâncias amostrais dos estimadores MQO
das inclinações). Sob RLM.1 a RLM.5 (hipóteses de Gauss-Markov),
e conditional em f(xi1, ..., xik ) : i = 1, ..., ng ou valores das variáveis
explicativas na amostra,
Var(bβj ) = σ2SQTj (1� R2j ) , j = 1, ..., k (12)
Pois, para j = 1, ..., k,
∑ni=1 br2ij = (SQTj � SQEj )SQTjSQTj = SQTj (1� R2j ), em que
SQTj = ∑ni=1(xij � x¯j )2 e R2j = SQEjSQTj = 1�
∑ni=1 br 2ij
SQTj
é o R2 da
regressão de xj nas outras k � 1 variáveis explicativas do modelo.
RLM.3 elimina a possibilidade de R2j = 1, que só ocorreria se xj fosse
uma combinação linear de uma constante e as outras k � 1 variáveis
explicativas do modelo.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 22 / 35
Variância dos estimadores MQO
Os componentes que afetam a variância
Var(βˆj ) =
σ2
SQTj (1� R2j )
, j = 1, ..., k
1. Se a variância do erro populacional σ2 decresse, então Var(βˆj )
diminui.
Uma maneira de reduzir σ2 é acrescentar variáveis ao modelo, ou
seja, retirar fatores inexplicados de u e passar a incorporá-los
explicitamente no modelo.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 23 / 35
Variância dos estimadores MQO
Var(βˆj ) =
σ2
SQTj (1� R2j )
2. Se a variabilidade amostral total de xj , SQTj , aumenta, então
Var(βˆj ) decresse, ou seja, a estimativa do efeito de xj em y se torna
mais precisa se há maior variação amostral em xj .
Como SQTj/n é a variância amostral de fxij : i = 1, ..., ng, podemos
considerar que
SQTj � nσ2j
onde a constante σ2j > 0 é a variância populacional de xj .
Assim, ao aumentar o tamanho n da amostra, aumentamos SQTj , o
que termina aumentando a precisão das estimativas βˆj de MQO.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 24 / 35
Variância dos estimadores MQO
Var(βˆj ) =
σ2
SQTj (1� R2j )
3. Se R2j ! 1, Var(βˆj )! ∞, tal que quanto maior for a
multicolinearidade menos precisa serão as estimativas βˆj .
Lembre que R2j mede o quanto xj se relaciona linearmente com as
outras k � 1 variáveis explicativas do modelo, tal que a menor
variância de βˆj ocorre se R
2
j = 0, caso em que
Var(βˆj ) =
σ2
SQTj
que é a fórmula no modelo de regressão simples.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 25 / 35
Variância dos estimadores MQO
Um grá…co típico de Var(βˆj ) =
σ2
SQTj
1
(1�R 2j ) , por exemplo para
Var(βˆj ) =
1
100
1
(1�R 2j ) ,R
2
j 2 [0, 1] é
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.1
0.2
R-dois jota
Var(beta jota chapéu)
Um R2j muito próximo de 1 gera umproblema de
multicolinearidade, mas o que é "muito próximo"de 1?
De fato, alta multicolinearidade não viola nenhuma hipótese de
Gauss-Markov.
Em geral, uma forma viável para se reduzir Var(βˆj ) é aumentar o
tamanho da amostra.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 26 / 35
5. Variância em modelos mal especi…cados
Podemos estudar as variâncias dos estimadores MQO em modelos
mal especi…cados.
Por exemplo, suponha que tenhamos estimado os modelos:
y = βˆ0 + βˆ1x1 + βˆ2x2 + bu (13)
y = β˜0 + β˜1x1 + eu (14)
e sabemos que
Var(βˆ1) =
σ2
SQT1(1� R21 )
(15)
E (βˆ1) = β1
Var(β˜1) =
σ2
SQT1
(16)
E (β˜1) = β1 + β2eδ1
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 27 / 35
Variância em modelos mal especi…cados
Moral da história
Se β2 6= 0 (incluir x2 é necessário) e x1 e x2 são correlacionados na
amostra, ou seja, R21 > 0, então: β˜1 é viesado e βˆ1 é não viesado,
mas Var(β˜1) =
σ2
SQT1
< Var(βˆ1) =
σ2
SQT1(1�R 21 ) , ou seja, β˜1 é mais
preciso que βˆ1.
Se β2 = 0 (incluir x2 é desnecessário) e R
2
1 > 0, então: β˜1 e βˆ1 são
ambos não viesados, mas
Var(β˜1) =
σ2
SQT1
< Var(βˆ1) =
σ2
SQT1(1�R 21 ) , , ou seja, β˜1 é mais
preciso que βˆ1.
Portanto, Incluir variáveis desnecessárias no modelo não viesa, mas
reduz a precisão das estimativas MQO.
Em outras palavras, superespeci…car o modelo não é uma medida
sem custos.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 28 / 35
6. Estimador da variância do erro da regressão
É necessário estimar σ2, pois apesar de constante é desconhecido, a
partir de n observações e k + 1 parâmetros estimados, o que nos dá
apenas n� (k + 1) graus de liberdade (gl).
Perdemos (k + 1) graus de liberdade ao impor aos dados as k + 1
CPOs do problema de MQO, quais sejam:
∑ni=1 uˆi = 0
∑ni=1 xij uˆi = 0, j = 1, ..., k
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 29 / 35
Estimador da variância do erro da regressão
TEOREMA 3.3 (Estimação não viesada de σ2). Sob as hipóteses
de Gauss-Markov (RLM.1 a RLM.5):
σˆ2 =
∑ni=1 uˆ2i
n� (k + 1)
=
SQR
gl
é o estimador não viesado de σ2e σˆ é o erro-padrão da regressão
("Root MSE"na saída do Stata).
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 30 / 35
Estimador da variância do erro da regressão
O erro padrão de cada βˆj é calculado como
ep(βˆj ) =
σˆq
SQTj (1� R2j )
, j = 1, ..., k
e são reportados na saída do Stata na coluna com título "std. err".
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 31 / 35
Estimador da variância do erro da regressão
Por exemplo, utilizando a base de dados WAGE2.DTA, e comando
Stata: reg lwage educ IQ exper,cformat(%9.3f) pformat(%5.3f)
sformat(%8.3f), obtemos:
 _cons 5.198 0.122 42.768 0.000 4.960 5.437
 exper 0.020 0.003 6.018 0.000 0.013 0.026
 IQ 0.006 0.001 5.906 0.000 0.004 0.008
 educ 0.057 0.007 7.772 0.000 0.043 0.072
 lwage Coef. Std. Err. t P>|t| [95% Conf. Interval]
 Total 165.656283 934 .177362188 Root MSE = .38609
 Adj R-squared = 0.1595
Residual 138.779515 931 .149065 R-squared = 0.1622
 Model 26.876768 3 8.95892266 Prob > F = 0.0000
 F( 3, 931) = 60.10
Source SS df MS Number of obs = 935
. reg lwage educ IQ exper,cformat(%9.3f) pformat(%5.3f) sformat(%8.3f)
[lwage = 5, 198
(0,122)
+ 0, 057
(0,007)
educ + 0, 006
(0,001)
IQ + 0, 020
(0,003)
exper
n = 935, R2 = 0, 1622
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 32 / 35
6.1. E…ciência de MQO
TEOREMA 3.4. (Teorema de Gauss-Markov). Sob as suposições
RLM.1 a RLM.5 (hipóteses de Gauss-Markov) e condicional em
f(xi1, ..., xik ) : i = 1, ..., ng, os estimadores MQO βˆ0, βˆ1, ..., βˆk são
os melhores estimadores linearres não viesados ou best linear
unbiased estimators (BLUE).
Ou seja, as variâncias das estimativas MQO são as menores dentre
todos os possíveis estimadores lineares dos parâmetros do modelo
econométrico.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 33 / 35
7. MQO é BLUE
E (estimador): podemos computar uma estimativa a partir dos
dados na amostra, utilizando uma regra, no caso, o estimador MQO.
U (unbiased): sob RLM1 a RRLM.4 E (bβj ) = βj , j = 0, 1, ..., k
(Teorema 3.1).
L (linear): O estimador MQO é uma função linear de
fyi : i = 1, ..., ng, ou seja, pode ser colocado na forma geralbβj = ∑ni=1 wijyi , onde wij , i = 1, ..., n são quaisquer funções de
f(xi1, ..., xik ) : i = 1, ..., ng.
No caso do estimador MQO, bβj = ∑ni=1 brij yi∑ni=1 br 2ij , j = 0, 1, ..., k, tal que
de…nindo wij =
brij
∑ni=1 br 2ij , observamos que bβj = ∑ni=1 wijyi (é linear nos
yi ).
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 34 / 35
E…ciência de MQO
B (best): O estimador possui a menor variância dentre os
estimadores lineares, ou seja, sob RLM.1 a RLM.5 (hipóteses de
Gauss-Markov) e condicional em f(xi1, ..., xik ) : i = 1, ..., ng:
Var(βˆj ) � Var(β˜j ),
para todo j = 0, ..., k (usualmente a desigualdade é estrita) e β˜j é
qualquer outro estimador não viesado e linear de βj .
βˆj continua não viesado mesmo se a hipótese RLM.5 não se sustenta,
mas nesse caso:
1 As fórmulas para Var(βˆj ) e ep(βˆj ) se tornam incorretas, o que exige
encontrar fórmulas corretas.
2 Os estimadores MQO βˆj , j = 0, 1, ..., k deixam de ser BLUE, o que
abre espaço para se tentar obter estimadores melhores que MQO.
Moisés Resende Filho (ECO/UnB) Propriedades Estatísticas de MQO 18 e 20/04/2018 35 / 35
	1. Hipóteses da Regressão Linear Múltipla (RLM)
	2. O valor esperado dos estimadores MQO
	2.1. Demonstração do Teorema de Inexistência de Viés de MQO
	3. Viés de variável omitida
	4. Variância dos Estimadores MQO
	5. Variâncias em Modelos Mal Especificados
	6. Estimador da variância do erro da regressão
	6.1. Eficiência de MQO
	7. MQO é BLUE

Continue navegando

Outros materiais