Buscar

Livro Analise de regressão

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 402 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 402 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 402 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Universidade de São Paulo
 
2015
 
Análise de regressão : uma introdução à
econometria
 
 
 
http://www.producao.usp.br/handle/BDPI/48616
 
Downloaded from: Biblioteca Digital da Produção Intelectual - BDPI, Universidade de São Paulo
Biblioteca Digital da Produção Intelectual - BDPI
Departamento de Economia, Administração e Sociologia -
ESALQ/LES
Livros e Capítulos de Livros - ESALQ/LES
 
 
 
 
 
 
ANÁLISE DE REGRESSÃO 
Uma Introdução à Econometria 
 
 
Rodolfo Hoffmann 
 
 
 
 
 
 
 
Esta é uma versão ligeiramente modificada do livro de mesmo título (quarta 
edição) publicado pela Editora HUCITEC em 2006, com edição esgotada em 
2014. 
 
 
 
 
 
 
 
 
março de 2015
SUMÁRIO 
 
1. INTRODUÇÃO E CONCEITOS ESTATÍSTICOS BÁSICOS ..................................................... 1 
1.1. Econometria e análise de regressão ........................................................................... 1 
1.2. Modelo matemático e modelo estatístico .................................................................. 1 
1.3. Variável aleatória ....................................................................................................... 4 
1.4. Esperança matemática ............................................................................................... 5 
1.5. Variância e covariância ............................................................................................. 5 
1.6. Estimador não-tendencioso ...................................................................................... 10 
1.7. Estimador de variância mínima ............................................................................... 15 
1.8. Estimadores de mínimos quadrados ........................................................................ 19 
1.9. Estimadores de máxima verossimilhança ................................................................ 21 
1.10. Propriedades assintóticas dos estimadores ............................................................ 24 
1.11. O limite inferior de Cramér-Rao e as propriedades assintóticas dos 
estimadores de máxima verossimilhança .............................................................. 32 
1.12. Teste de hipóteses .................................................................................................. 34 
Exercícios ....................................................................................................................... 40 
2. REGRESSÃO LINEAR SIMPLES ...................................................................................... 44 
2.1. modelo estatístico de uma regressão linear simples ............................................. 44 
2.2. Estimativa dos parâmetros ...................................................................................... 47 
2.3. O modelo simplificado e um exemplo numérico .................................................. 50 
2.4. Demonstração de que os estimadores de mínimos quadrados são 
estimadores lineares não-tendenciosos .................................................................. 53 
2.5. Variâncias e covariâncias das estimativas dos parâmetros .................................... 55 
2.6. Demonstração de que b é um estimador linear não-tendencioso de 
variância mínima ................................................................................................... 58 
2.7. Decomposição da soma de quadrados total ........................................................... 61 
2.8. Esperanças das somas de quadrados ...................................................................... 63 
2.9. Análise de variância da regressão .......................................................................... 65 
2.10. O coeficiente de determinação corrigido para graus de liberdade e o 
coeficiente de variação .......................................................................................... 68
2.11. Estimativas das variâncias das estimativas dos parâmetros, teste de 
hipóteses a respeito dos parâmetros e respectivos intervalos de 
confiança ................................................................................................................ 69 
2.12. Variância de iYˆ e intervalo de previsão ................................................................. 72 
2.13. O problema da especificação e as funções que se tornam lineares por 
anamorfose ............................................................................................................. 77 
2.14. Estimativa de máxima verossimilhança ................................................................ 80 
2.15. Análise de regressão quando X é uma variável aleatória ....................................... 81 
Exercícios ....................................................................................................................... 82 
3. CORRELAÇÃO ............................................................................................................ 103 
3.1. O coeficiente de correlação simples para uma amostra ....................................... 103 
3.2. Aplicação da análise de regressão a uma população com distribuição 
normal bidimensional .......................................................................................... 110 
Exercícios ..................................................................................................................... 112 
4. REGRESSÃO LINEAR MÚLTIPLA .................................................................................. 120 
4.1. O modelo estatístico de uma regressão linear múltipla .......................................... 120 
4.2. Estimativas dos parâmetros de acordo com o método dos mínimos 
quadrados ............................................................................................................. 121 
4.3. Variâncias e covariâncias das estimativas dos parâmetros ..................................... 124 
4.4. Variância de uma combinação linear das estimativas dos parâmetros ................... 125 
4.5. Análise de variância da regressão linear múltipla .................................................. 126 
4.6. Demonstração de que b é um estimador linear não-tendencioso de variância 
mínima ................................................................................................................. 130 
4.7. O uso das variáveis centradas ................................................................................. 132 
4.8. Exemplo de uma regressão linear múltipla com duas variáveis 
explanatórias ........................................................................................................ 135 
4.9. Previsão e teste de hipóteses a respeito do valor de combinações lineares dos 
parâmetros ............................................................................................................ 139 
4.10. Interpretação dos coeficientes de regressão de uma regressão linear 
múltipla com duas variáveis explanatórias .......................................................... 143 
4.11. Os coeficientes de correlação parcial ................................................................... 146 
4.12. Intervalos de confiança e regiões de confiança para os parâmetros..................... 154 
4.13. Exemplo de regressão linear múltipla com três variáveis explanatórias ............. 162
 
4.14. Problemas de especificação.................................................................................. 168 
4.15. Transformação das variáveis para obter a matriz de correlações simples .......... 171 
4.16. Regressões que se tornam lineares por anamorfose ............................................ 173 
4.17. Ortogonalidade e multicolinearidade na matriz X .............................................. 173 
4.18.Teste de hipóteses no modelo linear ................................................................... 178 
4.19. Interpretação geométrica da análise de regressão linear de acordo com o 
método de mínimos quadrados ........................................................................... 181 
Exercícios ..................................................................................................................... 194 
5. USO DE VARIÁVEIS BINÁRIAS .................................................................................. 219 
5.1. Níveis de medida ................................................................................................. 219 
5.2. Uso de variáveis binárias para distinguir as categorias de uma variável 
nominal ................................................................................................................. 220 
5.3. Uso de variáveis binárias para ajustar poligonais ............................................... 226 
5.4. Mudança estrutural .............................................................................................. 230 
5.5. Análise de variância de dados com vários tratamentos e o teste para "falta 
de ajustamento" ................................................................................................... 236 
Exercícios ..................................................................................................................... 240 
6. HETEROCEDASTICIA .................................................................................................. 254 
6.1. O caso de uma regressão linear simples em que o desvio padrão do erro é 
proporcional a X .................................................................................................. 254 
6.2. O método dos mínimos quadrados ponderados .................................................. 255 
6.3. Conseqüências do uso de estimadores de mínimos quadrados ordinários 
quando existe heterocedasticia ............................................................................ 257 
6.4. Testes para a homocedasticia e obtenção de estimativas dos parâmetros 
quando a matriz V é desconhecida ...................................................................... 261 
6.5. O estimador de White para variância quando há heterocedasticia ...................... 267 
Exercícios ..................................................................................................................... 268 
7. MÍNIMOS QUADRADOS GENERALIZADOS E AUTOCORRELAÇÃO NOS RESÍDUOS ........ 275 
7.1. Mínimos quadrados generalizados ...................................................................... 275 
7.2. Autocorrelação nos resíduos ............................................................................... 278 
7.3. O teste de Durbin-Watson ................................................................................... 283 
Exercícios ..................................................................................................................... 285
8. VARIÁVEIS INSTRUMENTAIS E ERROS NAS VARIÁVEIS EXPLANATÓRIAS ................... 291 
8.1. Introdução ........................................................................................................... 291 
8.2. A consistência dos estimadores de mínimos quadrados ordinários .................... 291 
8.3. A inconsistência dos estimadores de mínimos quadrados quando os erros 
estão assintoticamente correlacionados com uma ou mais das variáveis 
explanatórias ....................................................................................................... 294 
8.4. O uso de variáveis instrumentais para obter estimativas consistentes ................ 295 
8.5. Regressão linear simples com as duas variáveis sujeitas a erros de medida ....... 298 
8.6. O método da variável instrumental ..................................................................... 301 
8.7. Outro método ...................................................................................................... 303 
Exercícios ...................................................................................................................... 305 
9. EQUAÇÕES SIMULTÂNEAS ......................................................................................... 308 
9.1. Introdução ........................................................................................................... 308 
9.2. Um exemplo numérico ........................................................................................ 311 
9.3. O estimador de variável instrumental ................................................................. 312 
9.4. Mínimos quadrados indiretos .............................................................................. 312 
9.5. Mínimos quadrados em dois estágios ................................................................. 315 
9.6. Variáveis conjuntamente determinadas e variáveis predeterminadas ................. 317 
9.7. Notação geral ...................................................................................................... 318 
9.8. Variáveis instrumentais ....................................................................................... 319 
9.9. Identificação ........................................................................................................ 321 
9.10. Estimação dos parâmetros em caso de superidentificação .................................. 327 
9.11. Outras maneiras de obter o estimador de mínimos quadrados em dois 
estágios ................................................................................................................ 328 
9.12. Um exemplo numérico ........................................................................................ 329 
9.13. Um segundo exemplo numérico ......................................................................... 333 
9.14. Terceiro exemplo ................................................................................................ 334 
9.15. Uma visão global ................................................................................................. 340 
Exercícios ..................................................................................................................... 342 
10. SÉRIES TEMPORAIS .................................................................................................. 352 
10.1. Processos estocásticos ......................................................................................... 352 
10.2. Ruído branco ....................................................................................................... 354 
10.3. Modelos de regressão .......................................................................................... 355
10.4. Modelos de decomposição ................................................................................... 355 
10.5. Modelos ARMA .................................................................................................. 355 
10.6. Análise do AR(1) ................................................................................................. 357 
10.7. O passeio aleatório com deslocamento ................................................................ 358 
10.8. Transformando modelos AR em modelos MA e vice-versa ............................... 362 
10.9. Raiz unitária e modelos ARIMA ......................................................................... 364 
10.10.Função de autocorrelação ................................................................................... 365 
10.11. Os testes de Dickey-Fuller ................................................................................. 367 
10.12. Modelo de correção de erro e co-integração ..................................................... 368 
Exercícios .....................................................................................................................373 
APÊNDICE ....................................................................................................................... 376 
BIBLIOGRAFIA ............................................................................................................... 383 
ÍNDICE ANALÍTICO.......................................................................................................... 387 
 
 
 
PREFÁCIO 
 
Este livro reflete o esforço do autor em preparar material didático para 
disciplinas de econometria e análise de regressão ministradas na ESALQ-USP e, a partir 
de 1997, no Instituto de Economia da UNICAMP. 
O interesse na aprendizagem desses métodos estatísticos se deve, em grande 
parte, ao uso que deles se faz em pesquisas econômicas. Mas a análise de regressão 
também é largamente aplicada em outras áreas, como biologia, física ou engenharia. 
Não é exagero afirmar que muitas vezes a condução e a avaliação de uma pesquisa 
dependem do conhecimento do pesquisador sobre econometria e análise de regressão, 
inclusive no que tange a suas potencialidades e a suas limitações. 
Um aspecto didaticamente importante, neste livro, é a apresentação de exercícios 
numéricos que não exigem, para serem resolvidos, nem mesmo uma máquina de 
calcular. Dessa maneira o aluno pode, sem dispender muito tempo em cálculo, testar sua 
aprendizagem e usar os conhecimentos recém-adquiridos. Aliás, a idéia de minimizar 
cálculos não é nova. Basta lembrarmos de que, quando aprendemos a resolver equações 
do 2o grau, trabalhamos com exercícios do tipo 
0372 2 =+− xx 
e não do tipo 
01902,470481099,1072150,0 2 =−+− xx 
Não há dúvida, entretanto, que técnicas mais avançadas e recentes exigem o uso 
do computador. O próprio desenvolvimento dos métodos estatísticos nas últimas 
décadas está muito associado ao uso do computador como poderoso instrumento de 
fazer cálculos. 
Nesta quarta edição foi acrescentado um capítulo sobre séries temporais. 
Também foram incorporados novos exercícios e novas seções em capítulos anteriores, 
sempre procurando melhorar a apresentação dos temas, deixando para um outro volume 
a análise de regressão não-linear e modelos de lógite e próbite. 
Seria difícil listar todos os colegas e alunos que, com suas críticas e sugestões 
muito contribuíram para que versões anteriores deste livro fossem sucessivamente 
melhoradas. A Profa. Sonia Vieira foi co-autora das edições anteriores. A Profa. Angela 
A. Kageyama fez cuidadosa revisão da 1a edição. A Profa. Rosângela Ballini fez várias
sugestões e correções nesta 4a edição. E a tarefa de digitar todo o texto novamente foi 
realizada com muita competência e cuidado por Joselene Rodrigues da Silva. 
Cabe, finalmente, registrar as boas condições de trabalho fornecidas pelas 
instituições onde trabalhei e trabalho, a ESALQ-USP e o IE-UNICAMP, e agradecer o 
apoio recebido da FAPESP e do CNPq. 
Para esta nova edição em meio digital de 2015 contei com a indispensável 
colaboração de Helena Aparecida Cardoso. 
Sugestões, correções ou dúvidas podem ser enviadas para o e-mail do autor: 
hoffmannr@usp.br. 
 
 
 
 
 
 1 
1. INTRODUÇÃO E CONCEITOS ESTATÍSTICOS BÁSICOS 
1.1. Econometria e análise de regressão 
A econometria consiste na aplicação de métodos matemáticos e estatísticos a 
problemas de economia. O econometrista combina conhecimentos de três ramos 
científicos: Economia, Matemática e Estatística. 
A análise de regressão é o método mais importante da econometria. 
Sempre é interessante conhecer os efeitos que algumas variáveis exercem, ou 
que parecem exercer, sobre outras. Mesmo que não exista relação causal entre as 
variáveis podemos relaciona-las por meio de uma expressão matemática, que pode ser 
útil para se estimar o valor de uma das variáveis quando conhecemos os valores das 
outras (estas de mais fácil obtenção ou antecessoras da primeira no tempo), sob 
determinadas condições. 
Genericamente, tais relações funcionais podem ser representadas por 
),,,( 21 kXXXfY K= 
onde Y representa a variável dependente e os hX (h = 1, 2, ..., k) representam as 
variáveis explanatórias. 
São exemplos de relações funcionais entre variáveis: 
a) crescimento da população ou do PNB de um país (Y) em função dos anos (X); 
b) variação da produção (Y) obtida numa cultura conforme a quantidade de nitrogênio 
)( 1X , fósforo )( 2X e potássio )( 3X utilizada na adubação; 
c) variação do preço (Y) de um produto no mercado em função da quantidade oferecida 
(X). 
1.2. Modelo matemático e modelo estatístico 
Consideremos duas variáveis, X e Y, relacionadas por uma função matemática 
)(XfY = . Dado um conjunto de valores iX (i = 1, 2, ..., n) e os correspondentes 
valores de )( ii XfY = , se colocarmos os pontos ),( ii YX em um gráfico verificaremos 
que eles pertencem à curva que representa o modelo matemático que relaciona as duas 
variáveis, como mostra a figura 1.1. 
 
 
 
 2 
 
 
 
 
 
 
 
 
Figura 1.1. Modelo matemático: )( ii XfY = 
É comum, entretanto, que a variável dependente seja afetada por outros fatores, 
além dos considerados no modelo adotado. Admitamos que a variável dependente sofra 
a influência de k + m variáveis, isto é, 
),,,,,,( 121 mkkk XXXXXfY ++= KK 
e que por vários motivos (não disponibilidade dos valores, impossibilidade de 
mensuração, para simplificar a análise etc.) não consideramos a influência das variáveis 
mkk XX ++ ,,1 K . Ao analisarmos Y como função das k primeiras variáveis permanece, 
então, um resíduo ou erro. 
Admitindo que esse erro seja aditivo, o modelo estatístico fica 
ikiiii uXXXfY += ),,,( 21 K ),,1( ni K= 
Se apenas uma das variáveis independentes é considerada, temos 
iii uXfY += )( 
Neste caso, o conjunto de pares de valores ),( ii YX corresponde a um conjunto 
de pontos, dispersos em torno da curva representativa da função, como mostra a figura 
X
Y
 
 
 
 3 
1.2. Dizemos que as duas variáveis estão relacionadas de acordo com um modelo 
estatístico. 
 
 
 
 
 
 
 
 
 
 
Figura 1.2. Modelo estatístico: iii uXfY += )( 
 
Outra justificativa para a existência do erro )( iu em um modelo estatístico é 
dada pelos erros de mensuração da variável dependente. Se os verdadeiros valores )( iV 
da variável dependente são uma função matemática das variáveis explanatórias, isto é, 
),,,( 21 kiiii XXXfV K= 
e se os valores observados )( iY da variável dependente apresentam erros de mensuração 
)( iu , isto é, 
iii uVY += , 
a relação entre iY e os kiX (h = 1, 2, ..., k) fica 
ikiiii uXXXfY += ),,,( 21 K 
X
Y
 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
 
 
 4 
Em casos reais geralmente existem tanto erros de mensuração como efeitos de 
outras variáveis. Nestes casos, o erro residual do modelo será a soma desses dois tipos 
de erro. 
Desde que existam erros de mensuração, é lógico admitir que os valores das 
variáveis explanatórias também são afetados; os problemas que isso acarreta serão 
discutidos mais adiante; numa primeira etapa admitiremos apenas um erro residual 
devido à existência de fatores não incluídos no modelo e/ou erros de mensuração apenas 
na variável dependente. 
Nas próximas seções deste capítulo faremos uma revisão de alguns conceitos 
básicos de estatística.1 
 
1.3. Variável aleatória 
 
Dizemos que uma variável discreta X é aleatória, se a cada um de seus valores se 
associa uma probabilidade )(XP . O conjunto dos valores da variável e das respectivas 
probabilidades é a distribuição de X. 
Vejamos um exemplo. Se uma moeda é lançada 5 vezes, o número de vezes que 
se obtém “cara” é uma variável aleatória discreta,que pode assumir valores inteiros de 0 
a 5, inclusive. Essa variável tem distribuição binomial. Demonstra-se que, se p é a 
probabilidade de obter “cara” em um único lançamento da moeda, a probabilidade de 
ocorrerem X = k caras, em 5 lançamentos da moeda, é 
kk pp
k
kXP −−





==
5)1(5)( 
Esta é a função de probabilidade da distribuição binomial para n = 5, onde n é o 
número de ensaios. 
Se a variável aleatória é contínua, a probabilidade de obtermos exatamente um 
determinado valor k é zero, isto é: 
0)( == kXP 
 
1
 Um desenvolvimento mais detalhado da maioria dos temas abordados nesta revisão pode ser encontrado 
em HOFFMANN (1980). 
 
 
 5 
Entretanto, desde que seja definida a função de densidade )(Xf , podemos obter 
a probabilidade de a variável aleatória assumir valores no intervalo (a, b), isto é, 
∫=<<
b
a
dXXfbXaP )()( 
O valor de )(Xf também é denominado densidade de probabilidade. 
Se a variável contínua tem distribuição normal com média µ e variância 2σ , a 
função de densidade é 






−
−= 2
2
2 2
)(
exp
2
1)(
σ
µ
piσ
X
Xf 
 
1.4. Esperança matemática 
 
Por definição, se a variável aleatória é discreta, a esperança de X é 
)()( ii XPXXE ∑==µ 
e, se a variável aleatória é contínua, a esperança de X é 
∫
+∞
∞−
== dXXxfXE )()(µ 
Pode-se demonstrar, dadas as variáveis aleatórias X e Y e a constante K, que a 
esperança apresenta as seguintes propriedades: 
a) KKE =)( 
b) KXEKXE +=+ )()( 
c) )()( XKEKXE = 
d) )()()( YEXEYXE +=+ 
e, se X e Y são independentes, 
e) )()()( YEXEXYE ⋅= 
 
1.5. Variância e covariância 
Por definição, a variância de uma variável aleatória X, de população infinita, é 
 
 
 6 
222 )()]([)( µσ −=−== XEXEXEXV 
A variância é uma medida de dispersão da distribuição. 
Demonstremos, a seguir, que, se K é uma constante, )()( 2 XVKKXV = . 
Temos 
=−=
2)]([)( KXEKXEKXV 
c.q.d. ),(
)]([
})]([{
)]([
2
22
22
2
XVK
XEXEK
XEXKE
XKEKXE
=
=−=
=−=
=−=
 
Dadas duas variáveis aleatórias, X e Y, a covariância entre X e Y é, por definição: 
))(( 
)]([ )]([),cov(
YX YXE
YEYXEXEYX
µµ −−=
=−−=
 
Demonstremos, a seguir, que 
),cov(2)()()( YXYVXVYXV ++=+ 
Temos 
2)]()[()( YXEYXEYXV +−+=+ 
Então 
),cov(2)()( 
)])((2)()[( 
)]}([)]({[()(
22
2
YXYVXV
YXYXE
YEYXEXEYXV
YXYX
++=
=−−+−+−=
=−+−=+
µµµµ 
É fácil verificar que 
),cov(2)()()( YXYVXVYXV −+=− 
Se X e Y são duas variáveis aleatórias independentes temos 
0)()( 
))((),cov(
=−⋅−=
=−−=
YX
YX
YEXE
YXEYX
µµ
µµ
 
 
 
 7 
Segue-se que, no caso de variáveis independentes, 
)()()( YVXVYXV +=± 
Para exemplificar, consideremos que um tetraedro regular, feito de material 
homogêneo, em cujas faces estão marcados os números 0, 2, 4 e 6, é lançado. Seja X a 
variável aleatória que representa o valor marcado na face que ficar em contato com a 
mesa. Os sucessivos lançamentos desse tetraedro geram uma população infinita, em que 
a cada um dos 4 diferentes valores está associada a probabilidade 1/4. 
Então 
3
4
16
4
14
4
12
4
10)()(
4
1
=⋅+⋅+⋅+⋅=∑==
=
ii
i
X XPXXEµ 
e 
5
4
13
4
11
4
1)1(
4
1)3( 
)3()(
2222
22
=⋅+⋅+⋅−+⋅−=
=−== XEXVXσ
 
Consideremos, agora, que temos dois tetraedros, um azul e outro branco. Sejam 
X e Y as variáveis aleatórias que representam os valores obtidos nos tetraedros azul e 
branco, respectivamente. 
Temos 
5
3
22
==
==
YX
YX
σσ
µµ
 
Uma vez que X e Y são, obviamente, variáveis independentes, devemos verificar 
que 0),cov( =YX . 
Na tabela 1.1 são dados os valores do produto ))(( YX YX µµ −− a serem 
utilizados no cálculo da ),cov( YX . 
TABELA 1.1. Valores de )3)(3())(( −−=−− YXYX YX µµ 
Y 
X 
0 2 4 6 
0 9 3 –3 –9 
2 3 1 –1 –3 
4 –3 –1 1 3 
6 –9 –3 3 9 
 
 
 
 8 
Verificamos então que 
0
16
19
16
13
16
19 
))((),cov(
=⋅++⋅+⋅=
=−−=
K
YX YXEYX µµ
 
Seja YXZ += 
Então 1055),cov(2)()()( =+=++= YXYVXVZV 
Verifiquemos este resultado calculando )(ZV diretamente da definição. Na 
tabela 1.2 são apresentados os valores de YXZ += . 
TABELA 1.2. Soma dos valores obtidos lançando dois tetraedros 
Y 
X 
0 2 4 6 
0 0 2 4 6 
2 2 4 6 8 
4 4 6 8 10 
6 6 8 10 12 
 
Temos que 
633)()()()( =+=+=+= YEXEYXEZE 
Esse valor também pode ser obtido calculando a média dos valores obtidos na 
tabela 1.2, como segue: 
6
16
112
16
14
16
12
16
10)( =⋅++⋅+⋅+⋅= KZE 
Finalmente, obtemos 
=−=
2)]([)( ZEZEZV 
10
16
1)612(
16
1)62(
16
1)60( 222 =⋅−++⋅−+⋅−= K , 
confirmando o resultado obtido anteriormente. 
 
 
 9 
Devemos ressaltar que, embora 0),cov( =YX sempre que X e Y são variáveis 
aleatórias independentes, o inverso não é verdadeiro, isto é, se 0),cov( =YX , não 
podemos concluir que X e Y são independentes. Na tabela 1.3 apresentamos uma 
distribuição conjunta em que 0),cov( =YX e as variáveis não são independentes, pois 
)()(),( jiji YPXPYXP ⋅≠ 
TABELA 1.3. Valores de ),( ji YXP para a distribuição conjunta de duas 
variáveis dependentes com 0),cov( =YX 
Y X )(YP 
–1 0 1 
–1 0,10 0,30 0,10 0,50 
1 0,25 0 0,25 0,50 
)(XP 0,35 0,30 0,35 1,00 
 
Entretanto, é possível demonstrar que, se as variáveis têm distribuição normal, o 
fato de a covariância ser igual a zero é condição suficiente para podermos afirmar que 
são variáveis independentes. 
Vejamos, a seguir, um exemplo de duas variáveis com covariância não nula. No 
lançamento do tetraedro descrito anteriormente, seja X o valor marcado na face que fica 
em contato com a mesa e seja W a soma dos valores marcados nas outras 3 faces. A 
tabela 1.4 mostra os valores de X e de W, bem como do produto 
)]([ )]([ WEWXEX −− . 
 
TABELA 1.4. Valores necessários para o cálculo da ),cov( WX 
X W )]([ )]([ WEWXEX −− 
0 12 –9 
2 10 –1 
4 8 –1 
6 6 –9 
 
Temos que 
3)( =XE , 
9)( =WE e 
 
 
 10 
5
4
1)9(
4
1)1(
4
1)1(
4
1)9( 
)]([ )]([),cov(
−=−+−+−+−=
=−−= WEWXEXWX
 
Como exercício, o leitor pode verificar que 20)( =− XWV . 
Pode-se demonstrar que, se K é uma constante e se X, Y e Z são variáveis 
aleatórias, a covariância apresenta as seguintes propriedades: 
a) ),cov(),cov(),cov( ZYZXZYX +=+ 
b) ),cov(),cov(),cov( YXKKYXYKX == 
c) 0),cov(),cov( == KXXK 
Segue-se que, se 1α , 1β , 1γ , 2α , 2β e 2γ são constantes, 
=++++ ),cov( 222111 YXYX γβαγβα 
)(),cov()()( 21212121 YVYXXV γγγββγββ +++= 
Como caso particular temos: 
)(),cov( XVXX ββα =+ 
Este último resultado pode ser utilizado para obter a covariância entre as 
variáveis X e W da tabela 1.4. Como a soma de todos os valores marcados no tetraedro é 
sempre igual a 12, temos que XW −= 12 . Então 
5)()12,cov(),cov( −=−=−= XVXXWX , 
confirmando o resultado obtido anteriormente. 
 
1.6. Estimador não tendencioso 
Por definição, a é um estimador não-tendencioso (não-viesado ou imparcial) do 
parâmetro α da população se 
α=)(aE 
 
 
 11 
É importante lembrar que o estimador a é uma variável, isto é, ele representa 
uma dada fórmula de cálculo que fornecerá valores que serão diferentes, conforme a 
amostra selecionada. 
Para exemplificar, consideremos, novamente, a população infinita gerada pelo 
lançamento do tetraedro regular em cujas faces estão marcados os valores 0, 2, 4 e 6. 
Já vimos que 3)( == XEµ e 5)(2 == XVσ 
Lançando o tetraedro duas vezes, podemosobter amostras com n = 2 elementos 
dessa população. Na tabela 1.5 apresentamos as dezesseis amostras de tamanho n = 2, 
que podem ser obtidas, e as respectivas estimativas dos parâmetros µ e 2σ . Os 
estimadores são 
2
21 XX
n
X
X i
+
=
∑
= 
e 
2
2
2
1
2
2 )()(
1
)(
XXXX
n
XX
s i −+−=
−
−∑
= 
Calculamos, também, as estimativas da variância da média da amostra. Esta 
variância é definida por 
22 )]([)( XEXEXVX −==σ 
Temos 
)(1)( 21221 nn XXXVnn
XXX
VXV +++=




 +++
= K
K
 
Uma vez que as observações de uma amostra aleatória de uma população infinita 
são independentes, segue-se que 
n
n
n
XV
2
2
2
1)( σσ == 
O estimador da variância média é 
n
s
s X
2
2
= 
Obviamente, cada uma das dezesseis amostras tem probabilidade 1/16 de ser 
selecionada. 
 
 
 12 
TABELA 1.5. Valores de 22 ,, XssX e 
2)( µ−X para as 16 amostras que 
podem ser obtidas lançando duas vezes o tetraedro. 
Amostra X 2s 2Xs 
2)( µ−X 
0 e 0 0 0 0 9 
0 e 2 1 2 1 4 
0 e 4 2 8 4 1 
0 e 6 3 18 9 0 
2 e 0 1 2 1 4 
2 e 2 2 0 0 1 
2 e 4 3 2 1 0 
2 e 6 4 8 4 1 
4 e 0 2 8 4 1 
4 e 2 3 2 1 0 
4 e 4 4 0 0 1 
4 e 6 5 2 1 4 
6 e 0 3 18 9 0 
6 e 2 4 8 4 1 
6 e 4 5 2 1 4 
6 e 6 6 0 0 9 
 
Verificamos que 
µ==⋅+⋅++⋅+⋅+⋅=
16
48
16
16
16
15
16
12
16
11
16
10)( KXE , 
Ou seja, X é um estimador não-tendencioso (não viesado, não-viciado ou imparcial) de 
µ . Isto pode ser facilmente demonstrado: 
=




 +++
=
n
XXX
EXE n
K21)( 
µµ ==+++=
n
nXEXEXE
n
n )]()()([
1
21 K 
Verificamos, também, que 
22 5
16
80
16
10
16
12
16
18
16
12
16
10)( σ===⋅⋅++⋅⋅+⋅= KsE , 
ou seja, 2s é um estimador não-tendencioso de 2σ . 
A variância da média da amostra pode ser obtida através da expressão 
 
 
 13 
2
5)(
2
2
===
n
XV X
σ
σ 
ou diretamente, a partir da definição, utilizando os valores da última coluna da tabela 
1.5, como segue: 
2
5
16
40
16
19
16
14 
16
19)()]([)( 22
==⋅++⋅+
+⋅=−=−=
K
µXEXEXEXV
 
Considerando os valores de 2Xs apresentados na tabela 1.5, verificamos que 
2
5
16
40
16
10
16
11
16
14
16
11
16
10)( 2 ==⋅+⋅++⋅+⋅+⋅= KXsE , 
ou seja, 2Xs é um estimador não-tendencioso de 2Xσ . 
Devemos ressaltar que o exemplo apresentado refere-se a uma população 
infinita. As mesmas fórmulas serão válidas se, de uma população finita, tirarmos 
amostras com reposição dos elementos. 
Consideremos, agora, o caso de uma população finita (com m elementos) da 
qual se tiram amostras (de n elementos) sem reposição. 
A média da população é 
∑
=
==
m
i
iX
m
XE
1
1)(µ 
A variância de X é definida por (ver Cochran, 1965, p. 42) 
∑
=
−
−
==
m
i
iX
m
SXV
1
22 )(
1
1)( µ 
Demonstra-se que (ver Cochran, 1965, p. 44) 






−==
m
n
n
SXV X 1)(
2
2σ 
Dada uma amostra (sem reposição) de n elementos, uma estimativa não-
tendenciosa de µ é dada por 
 
 
 14 
n
X
X
n
i
i∑
=
=
1
 
As estimativas não-tendenciosas de 2S e 2Xσ são dadas, respectivamente, por 
1
)(
1
2
2
−
−
=
∑
=
n
XX
s
n
i
i
 e 





−=
m
n
n
s
s X 1
2
2
 
Vejamos um exemplo numérico simples, embora artificial. Seja uma população 
de apenas 4 elementos (m = 4), onde iX assume os valores 0, 2, 4 e 6. Temos que 
3
4
6420
=
+++
=µ 
e 
3
20
3
)36()34()31()30(
1
)( 222222
=
−+−+−+−
=
−
−∑
=
m
XS i µ 
Consideremos as 6
2
4
=





 diferentes amostras de 2 elementos (n = 2) que 
podemos tirar dessa população. Essas amostras estão discriminadas na tabela 1.6, com 
os correspondentes valores de X , 2s , 2Xs e 
2)( µ−X . 
TABELA 1.6. Valores de iX ,
22
,, XssX e 
2)( µ−X para as 6 possíveis 
amostras de 2 elementos (sem reposição). 
Valores de iX X 
2s 2Xs 
2)( µ−X 
0 e 2 1 2 1/2 4 
0 e 4 2 8 2 1 
0 e 6 3 18 9/2 0 
2 e 4 3 2 1/2 0 
2 e 6 4 8 2 1 
4 e 6 5 2 1/2 4 
 
Para amostras com n = 2 elementos, temos 
 
 
 15 
3
5
4
21
6
201)(
2
2
=





−=





−==
m
n
n
SXV Xσ 
O mesmo resultado pode ser obtido a partir da definição de variância, utilizando 
os valores da última coluna da tabela 1.6. Como as 6 diferentes amostras são igualmente 
prováveis, temos 
3
5
6
10
6
410014)( 22 ==+++++=−= µσ XEX 
Verificamos que: 
3
6
18)521(
6
1)( ==+++= KXE , 
ou seja, µ=)(XE 
3
20
6
40)282(
6
1)( 2 ==+++= KsE , 
ou seja, 22 )( SsE = 
3
5
2
20
6
1
2
12
2
1
6
1)( 2 =⋅=





+++= KXsE 
ou seja, 22 )( XXsE σ= 
 
1.7. Estimador de variância mínima 
A não-tendenciosidade ou ausência de viés é uma qualidade desejável para os 
estimadores. Entretanto, essa qualidade é insuficiente como critério para selecionar um 
estimador. Assim, por exemplo, no caso da média de uma população, podemos verificar 
que qualquer média ponderada dos valores de uma amostra é um estimador não 
tendencioso de µ . 
Consideremos a média ponderada 
∑
=
=
n
i
ii Xm
1
pi , com 1=∑ ipi 
 
 
 16 
Temos que 
µpiµpi =∑=∑= iii XEmE )()( 
Isso mostra que qualquer média ponderada dos valores observados em uma 
amostra aleatória é um estimados não tendencioso de µ . Portanto, existem infinitos 
estimadores não-tendenciosos de µ . 
Dados dois estimadores não-tendenciosos de α , 1a e 2a , por definição a 
eficiência relativa de 2a , em comparação com 1a , é igual a 
)(
)(
2
1
aV
aV
 
Assim, por exemplo, dada uma amostra aleatória com 2 elementos, 1X e 2X , de 
uma população infinita, consideremos 2 estimadores não-tendenciosos da média da 
população: 
a) a média aritmética 2121 2
1
2
1
2
XX
XX
X +=
+
= e 
b) a média ponderada 21 4
3
4
1 XXm += 
Temos 
2
)(
2σ
=XV 
e 
222
8
5
16
9
16
1)( σσσ =+=mV 
A eficiência de m em relação a X é 
8,0
5
4
8
5
2
1
2
2
==
σ
σ
 ou 80% 
 
 
 17 
É fácil provar que, dada uma amostra com 2 observações ) e ( 21 XX , dentre os 
estimadores da classe 
21 )1( XXm θθ −+= , 
o mais eficiente é a média aritmética, ou seja, o caso em que 
2
1
=θ . 
Temos 
222222 )221()1()( σθθσθσθ +==−+=mV 
Igualando a zero a derivada em relação a θ e simplificando, obtemos 
042 =+− θ 
Donde 
2
1
=θ 
A derivada segunda é positiva, confirmando que a variância é mínima quando 
2
1
=θ . 
Generalizando esse resultado, demonstraremos que, dada uma variável aleatória 
X de população infinita com média µ e variância 2σ , a média aritmética de uma 
amostra aleatória de n observações é, dentre os estimadores lineares não-tendenciosos, o 
estimador de variância mínima. 
Dizemos que um estimador é linear quando ele é uma combinação linear dos 
valores da amostra. Como exemplo, consideremos o seguinte estimador linear de µ : 
∑
=
=
n
i
ii Xm
1
pi 
Temos que 
imE piµ ∑=)( 
 
 
 18 
Para que m seja estimador não-tendencioso de µ , devemos ter 
1=∑ ipi 
Temos, também, que 
22)( imV piσ ∑= 
Para minimizar )(mV devemos minimizar 2ipi∑ , considerando a restrição 
1=∑ ipi . Utilizando o método do multiplicador de Lagrange, definimos a função 
( )12 −∑−∑= ii piλpiφ 
Igualando a zero as derivadas parciais em relação a λpi e i , obtemos o sistema 
de equações 
02 =− λpi i , i = 1, 2, ..., n (1.1) 
1=∑ ipi (1.2) 
De (1.1),obtemos 
 
2
λ
pi =i (1.3) 
Substituindo (1.3) em (1.2), obtemos 
1
2
=
λn
 
Donde 
n
1
2
=
λ
 
Comparando esse resultado com (1.3) concluímos que 
n
i
1
=pi , c.q.d. 
 
 
 19 
Não há necessidade de verificar a condição de 2a ordem para mínimo por se 
tratar de uma soma de quadrados. 
 
1.8. Estimadores de mínimos quadrados 
 
Pode parecer óbvio que o estimador da média de uma variável seja a média dos 
valores observados em uma amostra. Mas em situações um pouco mais complicadas 
será necessário recorrer a um método geral de determinação de estimadores, como o 
método dos mínimos quadrados ou o método da máxima verossimilhança (que será 
descrito na próxima seção). 
O método dos mínimos quadrados consiste em adotar os estimadores que 
minimizam a soma dos quadrados dos desvios entre valores estimados e valores 
observados na amostra. 
Mostraremos que a média aritmética dos valores da amostra é um estimador de 
mínimos quadrados. Para tanto, determinemos o valor de a que minimiza ∑
=
−
n
i
i aX
1
2)( . 
Derivando em relação a a e igualando a zero, obtemos: 
0)1)((2 =−−∑ aX i 
0=−∑ naX i 
Donde 
X
n
X
a i =
∑
= , c.q.d. 
É interessante notar que o método de mínimos quadrados conduz à média 
aritmética, mas que existem outros critérios associados às demais medidas de tendência 
central. Assim, para minimizar o valor absoluto do maior desvio, devemos adotar o 
ponto central entre os extremos (o ponto médio entre o menor e o maior valor); para 
maximizar o número de desvios iguais a zero devemos adotar a moda da amostra; e para 
minimizar a soma dos valores absolutos dos desvios devemos adotar a mediana. Para 
verificar essa última afirmativa, consideremos a distribuição de freqüências apresentada 
na tabela 1.7. 
 
 
 20 
TABELA 1.7. Distribuição de freqüências com 13 distribuições 
X : 0 1 2 3 4 5 6 7 8 
Freqüência: 1 5 1 1 1 1 2 0 1 
 
É fácil verificar que a moda é 1, a mediana é 2, a média aritmética é 3 e o ponto 
central entre os extremos é 4. 
A soma dos valores absolutos dos desvios em relação à mediana é 27 (7 para os 
valores abaixo da mediana e 20 para os valores acima da mediana). Para mostrar que a 
mediana é o ponto que minimiza a soma dos valores absolutos dos desvios, 
consideremos um ponto abaixo da mediana diferindo desta de menos de 1 unidade, isto 
é, o ponto de abcissa ∆−2 , com 10 << ∆ . Para os 6 pontos abaixo da mediana, os 
desvios ficam aumentados de ∆; para os 6 pontos localizados acima da mediana, os 
desvios ficam aumentados de ∆ e para o ponto cuja abcissa é igual à mediana surge um 
desvio igual a ∆ em valor absoluto. A soma dos valores absolutos dos desvios em 
relação ao ponto de abcissa ∆−2 é, portanto, 
272762067 >+=+++− ∆∆∆∆ 
Raciocínio semelhante mostra que a soma dos valores absolutos dos desvios em 
relação a um ponto acima da mediana também é maior do que 27. Concluímos, então, 
que essa soma é mínima quando referida à mediana. 
Vejamos um exemplo onde o uso da média aritmética, como medida de 
tendência central, parece ser mais razoável do que o uso da mediana, o que implica em 
afirmar que o critério de mínimos quadrados parece ser mais razoável do que a 
minimização da soma dos desvios absolutos. Consideremos uma amostra com 3 
observações, onde 021 == XX e 03 ≠X . A mediana é igual a zero, qualquer que seja 
o valor de 3X , isto é, o valor da mediana independe de 3X . Entretanto, a média 
aritmética é igual a 33
1 X . 
Para uma outra ilustração da aplicação do método de mínimos quadrados, 
consideremos a determinação do estimador do parâmetro p de uma distribuição 
binomial, sabendo que numa amostra de n observações foram constatados X casos 
favoráveis e n – X casos contrários. Como os valores esperados são de np casos 
 
 
 21 
favoráveis e )1( pn − casos contrários, queremos, de acordo com o método de mínimos 
quadrados, o valor de p que minimize 
22 )]1()[()( pnXnnpX −−−+− 
Deixamos para o leitor verificar que a solução é 
n
Xp =ˆ 
 
1.9. Estimadores de máxima verossimilhança 
De acordo com o método da máxima verossimilhança adotamos, como 
estimativas dos parâmetros, os valores que maximizam a probabilidade (no caso da 
variável aleatória ser discreta) ou a densidade de probabilidade (no caso de variável 
contínua) de ser obtida a amostra observada. Para obter estimadores de máxima 
verossimilhança é necessário conhecer ou pressupor qual é a distribuição da variável em 
estudo. 
Para exemplificar, consideremos que cada uma das faces de um tetraedro regular 
são pintadas de branco ou de azul, e que, ao lançar o tetraedro, o resultado é 
considerado sucesso se a face que ficar em contato com a mesa for azul. Vamos supor 
que o tetraedro foi lançado 4 vezes, sem que soubéssemos se o número de faces azuis do 
tetraedro era 0, 1, 2, 3 ou 4. Somos então informados de que, nas 4 tentativas, foi obtido 
sucesso apenas uma vez. Qual é a estimativa de máxima verossimilhança para o número 
de faces azuis no tetraedro utilizado? 
Na tabela 1.8 apresentamos a probabilidade de obter apenas um sucesso em 4 
tentativas, para cada um dos casos possíveis. 
 
 
 
 
 
 
 
 
 
 
 22 
TABELA 1.8. A função de verossimilhança. 
Número de 
faces azuis 
Probabilidade (p) de 
obter sucesso em uma 
tentativa 
Probabilidade de obter 
apenas um sucesso em 4 
tentativas = 4p(1 – p)3 
0 0 0 
1 1/4 27/64 
2 1/2 1/4 = 16/64 
3 3/4 3/64 
4 1 0 
 
A simples observação da tabela 1.8 mostra que o valor de p que maximiza a 
probabilidade de obter um sucesso em 4 tentativas é 4/1=p . Então, essa é a estimativa 
de máxima verossimilhança para a probabilidade de obter sucesso em um lançamento, 
ou seja, o tetraedro utilizado deve ter apenas uma face azul. 
Se p varia continuamente, a estimativa de máxima verossimilhança pode ser 
obtida através das condições necessárias e suficientes do cálculo diferencial. Desejamos 
o valor de p que maximize 
XnX pp
X
n
XP −−





= )1( )( , 
onde X é o número de sucessos obtidos em n tentativas. 
Como o logaritmo é uma função monotônica crescente, o valor de p que 
maximiza P(X) também maximiza 
)1( ln)(lnln)(ln pXnpX
X
n
XPZ −−++





== 
Igualando a zero a derivada em relação a p, obtemos 
0
ˆ1ˆ
=
−
−
−
p
Xn
p
X
 
cuja solução é 
n
Xp =ˆ , que é o estimador já obtido na seção anterior pelo método de 
mínimos quadrados. 
Como 
 
 
 23 
0)1( 222
2
<
−
−
−−=
p
Xn
p
X
dp
Zd
, 
a condição de segunda ordem para máximo é satisfeita. 
Como mais um exemplo, consideremos a determinação dos estimadores de 
máxima verossimilhança da média )(µ e da variância )( 2σ de uma variável aleatória 
(X), com distribuição normal, com base em uma amostra aleatória de n elementos. 
Neste caso, a densidade de probabilidade de obter um valor iX na amostra é 





 −
−= 2
2
2 2
)(
exp
2
1)(
σ
µ
piσ
i
i
X
Xf 
Como as observações são independentes, a densidade de probabilidade de obter 
os valores nXXX ,,, 21 K da amostra é 
=⋅⋅⋅= )()()(),;,,,( 21221 nn XfXfXfXXXL KK σµ 
∏
=
=





 −
−=
n
i
iX
1
2
2
2 2
)(
exp
2
1
σ
µ
piσ
 







 −
−=
∑−
2
2
22
2
)(
exp)2(
σ
µ
piσ
i
n X
 
Essa é a função de verossimilhança da amostra. É usual representa-la por L 
porque a palavra inglesa para verossimilhança é likelihood. 
Os estimadores de máxima verossimilhança de µ e σ2 são os valores que 
maximizam o valor de ),,,|,( 212 nXXXL Kσµ . Como o logaritmo é uma função 
monotônica crescente,os valores de µ e σ2 que maximizam L também maximizam 
2
2
2
2
)(ln
2
2ln
2
ln
σ
µ
σpi
−∑
−−−=
iXnnL 
Igualando a zero as derivadas parciais em relação a µ e σ2 obtemos o sistema de 
equações 
 
 
 24 






=
−∑
+−
=
−∑
0
ˆ2
)ˆ(
ˆ2
0
ˆ2
)ˆ(2
4
2
2
2
σ
µ
σ
σ
µ
i
i
Xn
X
 
De (1.4) obtemos 
 X
n
X i
=
∑
=µˆ (1.6) 
Já vimos que X é um estimador de mínimos quadrados, não-tendencioso e de 
variância mínima. Sabemos agora que, se X tem distribuição normal, X é, também, um 
estimador de máxima verossimilhança. 
De (1.5) e (1.6) obtemos 
( )
n
XX i
2
2
ˆ
−∑
=σ 
É interessante notar que o estimador de máxima verossimilhança da variância é 
tendencioso, uma vez que o estimador não-tendencioso é 
( )
1
2
2
−
−∑
=
n
XX
s i 
 
1.10. Propriedades assintóticas dos estimadores 
Seja na o estimador de um parâmetro α, obtido com base em uma amostra com 
n observações. Em geral na é uma variável aleatória cuja distribuição é caracterizada 
pela função de densidade )( naf , com média )( naE e variância 
2)]([)( nnn aEaEaV −= . Variando o tamanho da amostra, temos várias seqüências: 
a) a seqüência dos estimadores: 
 KK ,,,,}{ 21 nn aaaa = (1.7) 
b) a seqüência das médias: 
 KK ),(,),(),()}({ 21 nn aEaEaEaE = (1.8) 
(1.4) 
(1.5) 
 
 
 25 
c) a seqüência das variâncias: 
 KK ),(,),(),()}({ 21 nn aVaVaVaV = (1.9) 
d) a seqüência das funções de densidade: 
 KK ),(,),(),()}({ 21 nn afafafaf = (1.10) 
A teoria assintótica dos estimadores se destina a estabelecer o comportamento 
dessas seqüências quando n tende para infinito. 
Denominamos esperança assintótica de na ao valor do )(lim n
n
aE
∞→
. Se 
α=
∞→
)(lim n
n
aE , dizemos que na é um estimador assintoticamente não-tendencioso. 
Poderíamos pensar em definir a variância assintótica de na como )(lim n
n
aV
∞→
. 
Entretanto, esse limite é freqüentemente igual a zero, porque a distribuição de na se 
concentra em um único ponto. Para exemplificar, consideremos a média )(X de uma 
amostra aleatória com n observações da variável X, de média µ e variância 2σ . De 
nXV /)( 2σ= segue-se que 
0)(lim =
∞→
XV
n
 
Pode-se demonstrar que, quando n cresce, a distribuição da mediana (m) da 
amostra se concentra em torno de µ e o limite de sua variância também é zero, isto é, 
0)(lim =
∞→
mV
n
 
Para verificar qual de dois estimadores é assintoticamente mais eficiente, 
poderíamos pensar em comparar os limites das variâncias desses estimadores, quando n 
tende para infinito. Entretanto, se esses limites são iguais a zero a eficiência relativa não 
é definida. 
O problema é resolvido definindo variância assintótica como 
 
[ ]{ }21 )(lim nn
n
aEanEn −
∞→
−
 (1.11) 
Para o estimador X temos 
 
 
 26 
n
XEXV
2
2)()( σµ =−= 
Então 
22)]([ σµ =−XnE
 
e a variância assintótica de X é 
n
XnEn
n
2
21 )]([lim σµ =−
∞→
−
 
Pode-se demonstrar que, se X tem distribuição normal, a variância assintótica da 
mediana (m) da amostra é 
n
mnEn
n 2
)]([lim
2
21 piσµ =−
∞→
−
 
Como 1)2/( >pi , concluímos que a média ( X ) é um estimador de µ 
assintoticamente mais eficiente do que a mediana (m). 
Ao analisar a seqüência (1.7) é importante ter em mente que, fixado o valor de n, 
na é uma variável aleatória. Por isso não tem sentido falar no limite de na quando n 
tende a infinito. É necessário, então, introduzir o conceito de convergência em 
probabilidade. 
Dizemos que uma seqüência de variáveis aleatórias KK ,,,,}{ 21 nn aaaa = 
converge em probabilidade para uma constante α se, para qualquer 0>ε , 
arbitrariamente pequeno, 
 0)|(|lim =>−
∞→
εαn
n
aP , (1.12) 
indicando-se 
α
p
na → 
ou 
α=na plim , 
que se lê: “o limite em probabilidade de na é igual a α”. 
 
 
 27 
Dada uma amostra de n observações, na é um estimador consistente do 
parâmetro α da população se α=na plim . 
Antes de prosseguir vamos analisar melhor esse conceito. A expressão (1.12) 
pode ser escrita 
 1)(lim =+<<−
∞→
εαεα n
n
aP (1.13) 
Na figura 1.3 representamos a distribuição de na para n = 10 e n = 100 e 
assinalamos, por meio de traços verticais, os limites εα − e εα + . De acordo com 
(1.13), para que na seja um estimador consistente de α, a probabilidade de termos 
εαεα +<<− na deve tender para um quando n tende para infinito. Em outras 
palavras, dados ε e ω, positivos e arbitrariamente pequenos, deve existir on tal que para 
todo onn > temos 
ωεαεα −>+<<− 1)( naP 
Em termos da figura 1.3, à medida que n cresce, a distribuição de na deve se 
concentrar em torno de α, de maneira que quase toda a distribuição fique compreendida 
entre os limites εα − e εα + . 
Figura 1.3. O conceito de estimador consistente 
 
 
 28 
Prosseguindo no estudo das propriedades assintóticas dos estimadores, vejamos 
o conceito de convergência em média quadrática. Dizemos que uma série de variáveis 
aleatórias KK ,,,,}{ 21 nn aaaa = converge em média quadrática para uma constante α 
se 
 0)(lim 2 =−
∞→
αn
n
aE (1.14) 
Demonstraremos adiante que a convergência em média quadrática é condição 
suficiente para que tenhamos convergência em probabilidade. Para isso vamos deduzir, 
preliminarmente, a desigualdade de Chebyshev. 
Consideremos uma variável aleatória 0≥Z , com média finita, e um número real 
0>θ . Definimos a variável aleatória Y da seguinte maneira: 
0=Y , se θ<Z 
e 
θ=Y , se θ≥Z 
Então, 
)()0( θ<== ZPYP 
e 
)()( θθ ≥== ZPYP 
Segue-se que 
 )()()0(0)( θθθθ ≥⋅==⋅+=⋅= ZPYPYPYE (1.15) 
Da definição de Y, segue-se que 
ZY ≤ 
Então, 
)()( ZEYE ≤ 
Considerando (1.15) temos: 
 
 
 29 
)()( ZEZP ≤≥⋅ θθ 
ou 
 
θ
θ )()( ZEZP ≤≥ (1.16) 
 
Consideremos agora a variável aleatória X, com média µ e variância 2σ . 
Aplicando a relação (1.16) à variável aleatória 0)( 2 ≥− µX e ao número 2k , obtemos 
 2
2
2
2
22 )(])[(
kk
XEkXP σµµ =−≤≥− (1.17) 
Donde, com k > 0, 
2
2
)|(|
k
kXP σµ ≤≥− , 
que é a desigualdade de Chebyshev. 
Demonstremos agora que a convergência em média quadrática é condição 
suficiente para que tenhamos convergência em probabilidade. Aplicando a relação 
(1.16) à variável 2)( α−na e ao número 2ε , obtemos 
2
2
22 )(])[(
ε
α
εα
−
≤≥− nn
aE
aP 
Então 
2
2
22 )(lim])[(lim
ε
α
εα
−
≤≥−
∞→∞→
n
n
n
n
aE
aP 
Se na converge em média quadrática para α, temos 
0)(lim 2 =−
∞→
αn
n
aE 
Segue-se que 
 
 
 30 
0])[(lim 22 =≥−
∞→
εαn
n
aP 
Lembrando que para uma variável aleatória contínua a probabilidade de se 
observar um determinado valor é nula, podemos escrever 
0])[(lim 22 =>−
∞→
εαn
n
aP 
ou 
0]|)(|lim =>−
∞→
εαn
n
aP 
isto é, 
α=na plim 
Demonstremos, também, que 
 
22 ])([)()( αα −+=− nnn aEaVaE (1.18) 
Temos 
c.q.d. ,])([)(
]})([ )]([2])([)]({[
]})([)]({[)(
2
22
22
α
αα
αα
−+=
=−−+−+−=
=−+−=−
nn
nnnnnn
nnnn
aEaV
aEaEaaEaEaE
aEaEaEaE
 
Vamos resumir as definições e resultados obtidos até esse ponto. 
Para que o estimador na , baseado numa amostra de n observações, seja um 
estimador consistente de α, isto é, para que 
α=na plim , 
é suficiente que 
0)(lim 2 =−
∞→
αn
n
aE 
Para que isso aconteça, por sua vez, é suficiente, de acordo com (1.18), que 
0)(lim =
∞→
n
n
aV 
 
 
 31 
e 
α=)( naE 
ou 
α=
∞→
)]([lim nn
aE 
Concluímos então que um estimador não-tendencioso ou assintoticamente não-
tendencioso é consistente se o limite da sua variância, quando o tamanho da amostra 
tende para infinito, é igual a zero. 
Vejamos um exemplo. Sabemos que X é um estimador não-tendencioso de µ e 
que 
n
XV
2
)( σ= . 
Como 
0)(lim =
∞→
XV
n
, 
concluímos que µ=X plim , isto é, X é um estimador consistente de µ. 
Vimos que os estimadores devem ser não-tendenciosos e eficientes. É desejável, 
também, que sejam consistentes e assintoticamente eficientes, isto é, que apresentem 
variância assintótica mínima. A não-tendenciosidade e a eficiência são denominadas 
propriedades de amostra pequena, porque sua validade não depende do tamanho da 
amostra, isto é, quando um estimador apresenta tais propriedades, elas são igualmente 
válidas para amostras grandes e para amostras pequenas. Por outro lado, as propriedades 
definidas em termos de limites, quando o tamanho (n) da amostra tende para infinito, 
são denominadas propriedades de amostra grande ou propriedades assintóticas. 
A seguir são apresentadas, sem demonstração, algumas propriedades da 
convergência em probabilidade. 
Se α=a plim e )(aF é uma função contínua de a, então )()( plim αFaF = . 
Em particular, temos 22 ) plim()( plim aa = e 11 ) plim()( plim −− = aa . O teorema se 
estende ao caso de uma função contínua de duas ou mais variáveis, isto é, se 
α=a plim , β=b plim e ),( baF é uma função contínua, temos 
 
 
 32 
),(),( plim βαFbaF = . Temos, por exemplo, baba plim plim)( plim +=+ , 
) plim( ) plim()( plim baab = e, se 0 plim ≠b , ) plim/() plim()/( plim baba = . 
Essas propriedades facilitam a determinação do valor para o qual converge em 
probabilidade uma função de estimadores. Note que, conhecida a esperança matemática 
de várias variáveis, não é geralmente tão imediata a determinação da esperança 
matemática de expressões envolvendo tais variáveis. Dado que α=)(aE e β=)(bE , 
sabemos que βα +=+ )( baE , mas nada podemos dizer, de imediato, sobre o valor de 
)( 2aE , )(abE ou )/( baE . 
Para introduzir a idéia de convergência em distribuição, vamos considerar, 
novamente, a distribuição da média )(X de uma amostra aleatória com n observações, 
com µ=)(XE e 2)( σ=XV , mas sem que se conheça a forma da distribuição de X. Já 
vimos que )(XV tende a zero quando n cresce. Dizemos que, no limite, a distribuição 
de X degenera, concentrando-se em um ponto. Então é conveniente analisar o que 
ocorre com a distribuição de Xn . O teorema do limite central estabelece que, em 
condições bastante gerais, no limite, quando n tende a infinito, a distribuição de Xn é 
uma distribuição normal com média µn e variância 2σ . Esse é um exemplo de 
convergência em distribuição, indicando-se 
 ),( 2σµnNXn
d
→ 
Dizemos, então, que a distribuição assintótica de X é uma distribuição normal 
com média µ e variância n2σ . 
 
1.11. O limite inferior de Cramér-Rao e as propriedades assintóticas dos 
estimadores de máxima verossimilhança 
Consideremos uma amostra aleatória de n observações ),,,( 21 nXXX K de uma 
variável cuja distribuição é caracterizada por um parâmetro α cujo valor é 
desconhecido. Se )(Xf é uma função de densidade de II, a função de verossimilhança 
dessa amostra é 
 
 
 33 
∏
=
=
n
i
in XfXXXL
1
21 )();,,,( αK 
Seja a um estimador não-tendencioso de α. Se a função de densidade f(X) 
obedecer a certas condições de regularidade relativas à integração e diferenciação e se 
existe a variância de a, então pode-se demonstrar que2 
 2
2
2 ln
1
ln
1)(






=






−
≥
αα d
LdE
d
LdE
aV
 (1.19) 
O valor do 2o membro dessa desigualdade é denominado limite inferior de 
Cramér-Rao. A desigualdade (1.19) estabelece que não existe estimador não-
tendencioso cuja variância seja menor do que o limite inferior de Cramér-Rao. 
Para exemplificar, consideremos uma variável X com distribuição normal de 
média µ, desconhecida, e variância igual a um. Dada uma amostra aleatória com n 
observações ),,,( 21 nXXX K , a função de verossimilhança é 
=






−−= ∏
=
− 2
1
2
1
21 )(2
1
exp)2();,,,( µpiµ i
n
i
n XXXXL K 
 






−∑−=
− 22 )(
2
1
exp)2( µpi i
n
X 
Então 
2)(
2
12ln
2
ln µpi −∑−−= iX
nL 
Segue-se que 
)(ln µ
µ
−∑= iXd
Ld
 
e 
 
2
 A demonstração pode ser encontrada em Theil (1971), p. 384-387. 
 
 
 34 
n
d
Ld
−=2
2 ln
µ
 
De acordo com (1.19), obtemos 
n
mV 1)( ≥ 
onde m é qualquer estimador não-tendencioso de µ. Sabemos que, com 12 =σ , a 
variância de X é igual a 1/n, isto é, a média aritmética dos valores da amostra é um 
estimador com variância igual ao limite inferior de Cramér-Rao. 
Convém ressaltar que há casos nos quais o limite inferior de Cramér-Rao não é 
atingido, isto é, há casos onde não existe estimador não-tendencioso com variância igual 
ao limite inferior de Cramér-Rao. 
Entretanto, existe um teorema que afirma, em condições bastante gerais, que, se 
αˆ é o estimador de máxima verossimilhança de α então αˆ apresenta distribuição 
assintoticamente normal com média α e variância igual ao limite inferior de Cramér-
Rao, isto é, os estimadores de máxima verossimilhança são consistentes e 
assintoticamente eficientes.3 
 
1.12. Teste de hipóteses 
Dada uma hipótese de nulidade )( oH , define-se como erro tipo I o erro que 
consiste em rejeitar oH , dado que oH é verdadeira. Define-se como erro tipo II o erro 
que consiste em não rejeitar oH , dado que oH é falsa. 
A hipótese da nulidade, quando dada em termos quantitativos, é, 
necessariamente, uma igualdade. 
Usa-se a letra grega α para indicar a probabilidade de cometer erro tipo I, que é 
o nível de significância do teste, e a letra grega β para indicar a probabilidade de 
cometer erro tipo II. 
Podemos definir ainda o poder do teste, que é a probabilidade de rejeitar oH , 
dado que oH é falsa. 
 
3
 A demonstração deste teorema pode ser encontrada em Theil (1971), p. 392-395. 
 
 
 35 
Evidentemente, o poder do teste é igual a β−1 . 
Para exemplificar, consideremos 2 tetraedros regulares, feitos de material 
homogêneo, sendo que um deles tem uma face azul e 3 brancas e o outro tem 2 faces 
azuis e 2 brancas. Quando esses tetraedros são lançados, o resultado é considerado 
sucesso se a face em contato com a mesa for azul. Então, a probabilidade de obter 
sucesso em um lançamento é, para o primeiro tetraedro, p = 1/4 e, para o segundo 
tetraedro, p = 1/2. 
O número (X) de sucessos, obtidos em n lançamentos de um desses tetraedros é 
uma variável aleatória discreta com distribuição binomial. A tabela 1.9 apresenta a 
distribuição de X para cada um dos dois tetraedros, no caso de n = 2 lançamentos. 
TABELA 1.9. Distribuição do número de sucessos obtidos em dois lança- 
mentos, para cada um dos dois tetraedros 
X P(X) 
para p = 1/4 para p = 1/2 
0 9/16 1/4 
1 6/16 2/4 
2 1/16 1/4 
 
Consideremos a seguinte situação: suponhamos que um dos tetraedros (não 
sabemos qual) foi lançado duas vezes e que fomos informados sobre o número (X) de 
sucessos (X pode assumir os valores 0, 1 ou 2); com base nessa informação, devemos 
decidir qual dos dois tetraedros foi utilizado, ou seja, devemos decidir entre 
4/1: =pH o e 2/1: =pH A 
Para a solução deste problema, devemos proceder a um teste de hipóteses. Então, 
antes de conhecer o valor assumido por X, devemos estabelecer a regra de decisão a ser 
adotada, isto é, devemos estabelecer para que valores de X devemosrejeitar oH . Para 
este problema podemos estabelecer qualquer uma das quatro regras de decisão que 
constam na tabela 1.10. Nesta tabela também são dados os valores de α e β, relativos a 
cada regra de decisão, e a relação α∆β∆ , isto é, a razão entre o incremento em β e o 
incremento em α, quando se passa de uma regra de decisão para a seguinte. 
 
 
 
 36 
TABELA 1.10. Valores de α e β relativos às possíveis regras de decisão e relação 
α∆β∆ 
Regra de decisão α β α∆β∆ 
Nunca rejeitar oH 0 1 
–4 
–4/3 
–4/9 
Rejeitar oH se X = 2 1/16 = 0,0625 3/4 = 0,75 
Rejeitar oH se X ≥ 1 7/16 = 0,4375 1/4 = 0,25 
Sempre rejeitar oH 1 0 
 
Indiquemos por )(αφβ = a relação funcional decrescente que existe entre α e β. 
A figura 1.4 mostra essa relação para o problema descrito. Neste exemplo, a função 
)(αφβ = é descontínua porque o teste de hipótese é baseado em uma variável aleatória 
discreta. Se o teste de hipótese for baseado em uma variável aleatória contínua, a função 
)(αφβ = também será contínua. 
Como escolher a regra de decisão, ou seja, como escolher o nível de 
significância do teste? Isso implica escolher o “ponto ótimo” sobre a função )(αφβ = . 
Admitamos que a probabilidade a priori de oH ser verdadeira seja θ (Essa 
probabilidade deve ser determinada com base em outras informações que não as que 
estão sendo utilizadas para fazer o teste). 
Então, podemos obter, como constam na tabela 1.11, os valores da receita 
líquida U (num contexto mais geral, os valores U seriam os níveis de utilidade) 
associados a cada uma das 4 situações possíveis (quando a hipótese alternativa é 
simples), e as respectivas probabilidades. 
 
Figura 1.4. Relação entre α e β
 
 
 37 
TABELA 1.11. A tabela de resultados 
Situação real 
Decisão tomada 
não rejeitar oH rejeitar oH 
oH é verdadeira 
(probab. = θ) )1(11
11
αθ −=p
U
 
θα=12
12
p
U
 
 
oH é falsa 
(probab. = 1 – θ) βθ )1(21
21
−=p
U
 )1)(1(22
22
βθ −−=p
U
 
 
Se todas essas informações estivessem disponíveis, poderíamos escolher o nível 
de significância que maximiza a receita líquida esperada, dada por 
22211211 )1)(1()1()1()( UUUUUEL βθβθθααθ −−+−++−== (1.20) 
Essa relação pode ser escrita 
α
θ
θ
θ
θθβ )()(1(
)(
))(1(
)1(
2122
1211
2122
2211
UU
UU
UU
LUU
−−
−
−
−−
−−+
= (1.21) 
A diferença 0I1211 >=− CUU representa o custo de cometer erro tipo I e a 
diferença 0II2122 >=− CUU representa o custo de cometer erro tipo II. 
Dados os valores de θ , 11U , 12U , 21U , 22U , a relação (1.21) corresponde a um 
feixe de retas paralelas num sistema de eixos cartesianos com coordenadas α e β. O 
coeficiente angular é sempre igual a 
 
II
I
)1( C
C
θ
θ
−
− 
(1.22) 
e o coeficiente linear é tanto menor quanto maior for o valor de )(UEL = . Para 
maximizar )(UEL = devemos determinar o ponto de )(αφβ = que pertença a uma 
reta com declividade dada por (1.22) e coeficiente linear mínimo. 
Para exemplificar, consideremos a relação )(αφβ = representada na figura 1.4 e 
admitamos que 5,0=θ . Neste caso, temos: 
 
 
 38 
a) se ∞<<
II
I4
C
C
, o ponto ótimo é A, isto é, nunca devemos rejeitar oH . 
b) se 4
II
I
=
C
C
, é indiferente utilizar a regra de decisão correspondente ao ponto 
A ou ao ponto B. 
c) se 4
3
4
II
I <<
C
C
, o ponto ótimo é B, isto é, devemos rejeitar oH se X = 2, 
fazendo um teste com nível de significância 0625,0=α . 
d) se 
3
4
II
I
=
C
C
, é indiferente utilizar a regra de decisão correspondente ao ponto 
B ou ao ponto C. 
e) se 
3
4
9
4
II
I <<
C
C
, o ponto ótimo é C, isto é, devemos rejeitar oH se X ≥ 1, 
fazendo um teste com nível de significância 4375,0=α . 
f) se 
9
4
II
I
=
C
C
, é indiferente utilizar a regra de decisão correspondente ao ponto 
C ou ao ponto D, e 
g) se 
9
40
II
I <<
C
C
, o ponto ótimo é D, isto é, devemos rejeitar oH sempre, 
qualquer que seja o valor observado de X. 
Se a função )(αφβ = for contínua, o ponto que maximiza a receita líquida pode 
ser determinado igualando a zero a derivada de L em relação a α. 
De (1.20) obtemos 
=−−−−−=
α
βθθ
α d
dUUUU
d
dL ))(1()( 21221211 
 
α
βθθ
d
dCC III )1( −−−= (1.23) 
Segue-se que 
αd
dL
= 0 implica 
 
II
I
)1( C
C
d
d
θ
θ
α
β
−
−= (1.24) 
 
 
 39 
O ponto de )(αφβ = que satisfaz essa condição corresponde a um máximo de 
)(UEL = se 
02
2
<
αd
Ld
 
De (1.23) obtemos 
2
2
II2
2
)1(
α
βθ
α d
dC
d
Ld
−−= , 
mostrando que a condição de segunda ordem para máximo é satisfeita se 02
2
>
α
β
d
d
, isto 
é, se a função )(αφβ = for convexa em relação à origem. 
Sendo )(αφβ = uma função decrescente e convexa em relação à origem, o nível 
de significância ótimo estabelecido através de (1.24) será tanto menor quanto maior for 
θ (a probabilidade a priori de oH ser verdadeira) e quanto maior for a relação 
II
I
C
C
 (o 
custo de cometer erro tipo I em comparação com o custo de cometer erro tipo II). 
Em problemas práticos é geralmente impossível determinar o nível de 
significância ótimo da maneira indicada, porque não se tem nem a probabilidade )(θ de 
oH ser verdadeira a priori, nem o valor exato da relação 
II
I
C
C
. Além disso, a hipótese 
alternativa é, geralmente, composta; a determinação rigorosa de um nível de 
significância ótimo exigiria, neste caso, o conhecimento da distribuição a priori dos 
valores possíveis para a hipótese alternativa, com os respectivos valores do custo de 
cometer erro tipo II. 
Por isso, a escolha do nível de significância tem muito de arbitrário. 
A finalidade da discussão feita é deixar claro o sentido em que deve ser ajustado 
o nível de significância conforme mudem a probabilidade a priori de oH ser verdadeira 
e a relação entre os custos de cometer erro tipo I e erro tipo II. 
É usual que a hipótese alternativa não se refira a um valor específico. É comum, 
por exemplo, testar se um parâmetro γ é igual a zero )0:( 0 =γH contra a hipótese 
alternativa de que é diferente de zero )0:( ≠γAH . Neste caso pode-se fixar o nível de 
 
 
 40 
significância do teste (α), mas o poder do teste )1( β− não é um valor único. Pode-se 
construir a curva de poder do teste, que mostra como esse varia em função de valores 
alternativos do parâmetro. É claro que o poder do teste se aproxima do nível de 
significância quando o valor alternativo do parâmetro se aproxima do valor estabelecido 
pela hipótese da nulidade, fazendo com que, fixado um baixo nível de significância, o 
poder do teste seja baixo para tais valores alternativos do parâmetro. Note-se como, 
nestas condições, não há simetria entre as decisões de “rejeitar” e “aceitar” a hipótese da 
nulidade. Ao rejeitar a hipótese da nulidade estaremos tomando uma decisão de maneira 
que a probabilidade de estar cometendo erro (tipo I) é conhecida e pequena. Mas se o 
resultado do teste é não-significativo e “aceitamos” a hipótese da nulidade, a 
probabilidade de cometer erro tipo II é desconhecida e tende a ser elevada para valores 
do parâmetro próximos ao estabelecido pela hipótese da nulidade. A linguagem usada 
na interpretação do resultado de um teste de hipóteses deve refletir essa assimetria. Se, 
ao testar )0:( 0 =γH contra )0:( ≠γAH , o resultado do teste é significativo, 
rejeitamos a hipótese da nulidade. Se o resultado for não-significativo, a conclusão é 
que os dados da amostra utilizada não permitem rejeitar a hipótese da nulidade. Note-se 
a natureza “provisória” da conclusão. A afirmativa de que “aceita-seoH ” não reflete 
adequadamente a indeterminação da probabilidade de cometer erro tipo II quando a 
hipótese alternativa é composta (não estabelece um único valor alternativo para o 
parâmetro). 
 
Exercícios 
 
1.1. Seja X o resultado obtido no lançamento de um dado (hexaedro regular) não-
chumbado. Seja Y a soma dos resultados obtidos em 100 lançamentos desse dado. 
Determine E(X), V(X), E(Y) e V(Y). 
 
 
 41 
1.2. Com base na distribuição conjunta de 
X e Y, apresentada na tabela ao lado, 
determine a E(X), a E(Y), a V(X), a 
V(Y) e a cov (X, Y). As variáveis X e Y 
são independentes? 
1.3. A tabela ao lado mostra a distribuição 
conjunta de X e Y. 
a) Essas variáveis são 
independentes? (Justifique sua 
resposta). 
b) Determine E(X) e E(Y). 
c) Determine V(X) e V(Y). 
d) Determine cov (X, Y) e a 
correlação (ρ) entre as duas 
variáveis. 
1.4. Temos duas urnas, aparentemente idênticas, com 63 bolas no interior de cada uma. 
Essas bolas são marcadas com números (X) de zero a 5. Na urna A há X2 bolas 
com o número X, isto é, há uma bola com o no 0, duas bolas com o no 1, 4 bolas 
com o no 2, e assim por diante, até 32 bolas com o no 5. Na urna B há X−52 bolas 
com o número X, isto é, há 32 bolas com o no 0, 16 bolas com o no 1, 8 bolas com 
o no 2, e assim por diante, até uma bola com o no 5. Uma dessas urnas, escolhida 
ao acaso, é entregue a um estatístico, que deve decidir se é a urna A ou se é a urna 
B, retirando, ao acaso, uma única bola da urna. Ele especifica a hipótese da 
nulidade como 
:0H trata-se da urna A 
e a hipótese alternativa como 
:AH trata-se da urna B 
O estatístico decide, também; que a regra de decisão será rejeitar 0H (em favor 
de AH ) se a bola retirada da urna apresentar número menor do que 3. 
Determine: (a) o nível de significância do teste; (b) a probabilidade (β) de 
cometer erro tipo II; (c) o poder do teste. 
Valores de ),( ji YXP para a distribuição 
conjunta das variáveis iX e jY . 
jY i
X 
1 2 3 
4 0,3 0 0,3 
8 0 0,4 0 
 
Valores de ),( ji YXP para a distribuição 
conjunta das variáveis iX e jY . 
jY i
X 
2 4 6 
4 0,2 0,1 0 
5 0,1 0,2 0,1 
6 0 0,1 0,2 
 
 
 
 42 
Refaça o problema considerando, agora, que a regra de decisão é rejeitar 0H se 
o número (X) marcado na bola retirada for menor ou igual a 1. 
1.5. Temos duas urnas, aparentemente idênticas, com 55 bolas no interior de cada uma. 
Na urna A há uma bola com o no 0, duas bolas com o no 1, 3 bolas com o no 2, e 
assim por diante, até 10 bolas com o no 9. Na urna B há 1 bola com o no 9, 2 bolas 
com o no 8, 3 bolas com o no 7, e assim por diante, até 10 bolas com o no 0. Uma 
dessas urnas, escolhida ao acaso, é entregue a um estatístico, que deve decidir se é 
a urna A ou se é a urna B examinando uma única bola retirada da urna, ao acaso. 
Ele especifica a hipótese da nulidade como 
:0H trata-se da urna A 
e a hipótese alternativa como 
:AH trata-se da urna B 
O estatístico adota a seguinte regra de decisão: rejeitar 0H (em favor de AH ) se 
a bola retirada da urna apresentar número menor do que 5. Determine: 
a) o nível de significância do teste 
b) a probabilidade (β) de cometer erro tipo II 
c) o poder do teste. 
Refaça o problema considerando, agora, que a regra de decisão é rejeitar 0H se 
o número marcado na bola retirada for menor ou igual a 3. 
1.6. Temos dois tetraedros regulares de material homogêneo. Um deles tem uma face 
azul e três faces brancas. O outro tem três faces azuis e uma branca. Uma pessoa 
pega, ao acaso, um desses tetraedros e o lança n vezes. Seja X o número de vezes 
em que o resultado foi “face azul”. Com base no valor de X devemos testar a 
hipótese 
:0H “foi utilizado o tetraedro com uma face azul” 
contra a hipótese alternativa 
:AH “foi utilizado o tetraedro com três faces azuis” 
Seja α o nível de significância do teste e seja β a probabilidade de cometer erro 
tipo II. 
 
 
 43 
a) Considerando as diferentes regras de decisão, faça uma tabela e um gráfico 
mostrando como β varia em função de α para n = 3. 
b) Qual é o nível de significância para um teste com n = 5, mantendo β = α? 
 
Respostas 
1.1. 5,3)( =XE , 9167,2
6
5,17)( ==XV , E(Y) = 350 e 67,291
6
1750)( ==YV 
1.2. E(X) = 2, E(Y) = 5,6 , V(X) = 0,6 , V(Y) = 3,84, cov (X, Y) = 0. As variáveis X e 
Y não são independentes. 
1.3. a) Não b) E(X) = 4 e E(Y) = 5 b) V(X) = 2,4 e V(Y) = 0,6 
c) cov (X, Y) = 0,8 e ρ = 0,667. 
1.4. Para a regra de decisão “Rejeitar 0H se X < 3” obtemos α = 7/63 = 1/9 = 0,111, 
β = 1/9 = 0,111 e 1 – β = 8/9 = 0,889 
Para a regra de decisão “Rejeitar 0H se X ≤ 1” obtemos α = 3/63 = 1/21 = 0,0476, 
β = 15/63 = 5/21 = 0,238 e 1 – β = 16/21 = 0,762. 
1.5. Rejeitar 0H se número < 5: α = 3/11, β = 3/11 e 1 – β = 8/11. 
Rejeitar 0H se número ≤ 3: α = 2/11, β = 21/55 e 1 – β = 34/55. 
1.6. 
a) Regra de decisão: 
rejeitar 4/1:0 =pH se α β 
X ≥ 0 (sempre) 1 0 
X ≥ 1 37/64 1/64 
X ≥ 2 10/64 10/64 
X ≥ 3 1/64 37/64 
X > 3 (nunca) 0 1 
 
 b) 1035,0
512
53
=== βα 
 
 
 
 
 
 44 
2. REGRESSÃO LINEAR SIMPLES 
2.1. O modelo estatístico de uma regressão linear simples 
Dados n pares de valores de duas variáveis, iX , iY (com i = 1, 2, ..., n), se 
admitirmos que Y é função linear de X, podemos estabelecer uma regressão linear 
simples, cujo modelo estatístico é 
iii uXY ++= βα , 
onde α e β são parâmetros, X é a variável explanatória e Y é a variável dependente. 
O coeficiente angular da reta (β) é também denominado coeficiente de regressão 
e o coeficiente linear da reta (α) é também conhecido como termo constante da equação 
de regressão. 
A análise de regressão também pode ser aplicada às relações não-lineares. 
Inicialmente, estudaremos apenas o caso da reta. Veremos adiante o caso das relações 
não-lineares. 
Ao estabelecer o modelo de regressão linear simples, pressupomos que: 
I) A relação entre X e Y é linear. 
II) Os valores de X são fixos, isto é, X não é uma variável aleatória. 
III) A média do erro é nula, isto é, 0)( =iuE . 
IV) Para um dado valor de X, a variância do erro u é sempre 2σ , denominada 
variância residual, isto é, 
22 )( σ=iuE 
ou 
22)]|([ σ=− iii XYEYE 
Dizemos, então, que o erro é homocedástico ou que temos homocedasticia (do 
erro ou da variável dependente). 
V) O erro de uma observação é não-correlacionado com o erro em outra 
observação, isto é, 0)( =jiuuE para i ≠ j. 
 
 
 45 
VI) Os erros têm distribuição normal. 
Combinando as pressuposições III, IV e VI, temos que 
),0(~ 2σNui 
Devemos, ainda, verificar se o número de observações disponíveis é maior do 
que o número de parâmetros da equação de regressão. Para ajustar uma regressão linear 
simples precisamos ter, no mínimo, 3 observações. Se só dispomos de 2 observações (2 
pontos), a determinação da reta é um problema de geometria analítica; não é possível, 
neste caso, fazer nenhuma análise estatística. 
Veremos adiante que as pressuposições I, II e III são necessárias para que se 
possa demonstrar que as estimativas dos parâmetros obtidas pelo método dos mínimos 
quadrados são não-tendenciosas ou imparciais, isto é, que 
α=)(aE 
e 
β=)(bE 
 onde a e b são as estimativas de mínimos quadrados de α e β, respectivamente. 
Veremos também que, com base nas cinco primeiras pressuposições, é possível 
demonstrar que as estimativas dos parâmetros obtidas pelo método dos mínimos 
quadrados são estimativas lineares não-tendenciosas de variância mínima. 
É interessante assinalar que a pressuposição II não é, na verdade, essencial. 
Veremos, no fim deste capítulo, que em certas condições, se X for uma variável 
aleatória, os resultados obtidos pressupondo que os valores de X são fixos continuam

Outros materiais