Baixe o app para aproveitar ainda mais
Prévia do material em texto
Inferência estatística frequentista Prof. Marcelo Bourguignon Pereira Departamento de Estatística Centro de Ciências Exatas e da Terra Universidade Federal do Rio Grande do Norte Bourguignon, M. (DEST-UFRN) Inf. Estatística 1 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 1 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 1 / 70 Introdução Interesse: como uma variável se comporta em determinada popula- ção; Problema: o acesso a população por completo é inviável ou impos- sível; A distribuição verdadeira da variável é desconhecida; Solução: I propor um modelo probabilístico dependente de um, ou mais, parâmetros; I através de uma amostra estimar e testar hipóteses com respeito a esse(s) parâmetro(s). Bourguignon, M. (DEST-UFRN) Inf. Estatística 2 / 70 Introdução Interesse: como uma variável se comporta em determinada popula- ção; Problema: o acesso a população por completo é inviável ou impos- sível; A distribuição verdadeira da variável é desconhecida; Solução: I propor um modelo probabilístico dependente de um, ou mais, parâmetros; I através de uma amostra estimar e testar hipóteses com respeito a esse(s) parâmetro(s). Bourguignon, M. (DEST-UFRN) Inf. Estatística 2 / 70 Introdução Interesse: como uma variável se comporta em determinada popula- ção; Problema: o acesso a população por completo é inviável ou impos- sível; A distribuição verdadeira da variável é desconhecida; Solução: I propor um modelo probabilístico dependente de um, ou mais, parâmetros; I através de uma amostra estimar e testar hipóteses com respeito a esse(s) parâmetro(s). Bourguignon, M. (DEST-UFRN) Inf. Estatística 2 / 70 Introdução Interesse: como uma variável se comporta em determinada popula- ção; Problema: o acesso a população por completo é inviável ou impos- sível; A distribuição verdadeira da variável é desconhecida; Solução: I propor um modelo probabilístico dependente de um, ou mais, parâmetros; I através de uma amostra estimar e testar hipóteses com respeito a esse(s) parâmetro(s). Bourguignon, M. (DEST-UFRN) Inf. Estatística 2 / 70 Introdução Interesse: como uma variável se comporta em determinada popula- ção; Problema: o acesso a população por completo é inviável ou impos- sível; A distribuição verdadeira da variável é desconhecida; Solução: I propor um modelo probabilístico dependente de um, ou mais, parâmetros; I através de uma amostra estimar e testar hipóteses com respeito a esse(s) parâmetro(s). Bourguignon, M. (DEST-UFRN) Inf. Estatística 2 / 70 Exemplo 1 Seja X a resitência a tensão de um componente utilizado em um chassi de automóvel; Suponha que n observações deX foram feitas e forneceram os valores x1, x2, . . . , xn; O histograma das observações realizadas é apresentado abaixo: Resitência a tensão D en si da de 8 9 10 11 12 0. 0 0. 2 0. 4 Qual modelo probabilístico conjecturar para esses da- dos? O modelo N(µ, σ2) parece ser adequado! Quais valores de µ e σ2 são apropriados? Estimar µ e σ2! Bourguignon, M. (DEST-UFRN) Inf. Estatística 3 / 70 Exemplo 1 Seja X a resitência a tensão de um componente utilizado em um chassi de automóvel; Suponha que n observações deX foram feitas e forneceram os valores x1, x2, . . . , xn; O histograma das observações realizadas é apresentado abaixo: Resitência a tensão D en si da de 8 9 10 11 12 0. 0 0. 2 0. 4 Qual modelo probabilístico conjecturar para esses da- dos? O modelo N(µ, σ2) parece ser adequado! Quais valores de µ e σ2 são apropriados? Estimar µ e σ2! Bourguignon, M. (DEST-UFRN) Inf. Estatística 3 / 70 Exemplo 1 Seja X a resitência a tensão de um componente utilizado em um chassi de automóvel; Suponha que n observações deX foram feitas e forneceram os valores x1, x2, . . . , xn; O histograma das observações realizadas é apresentado abaixo: Resitência a tensão D en si da de 8 9 10 11 12 0. 0 0. 2 0. 4 Qual modelo probabilístico conjecturar para esses da- dos? O modelo N(µ, σ2) parece ser adequado! Quais valores de µ e σ2 são apropriados? Estimar µ e σ2! Bourguignon, M. (DEST-UFRN) Inf. Estatística 3 / 70 Exemplo 1 Seja X a resitência a tensão de um componente utilizado em um chassi de automóvel; Suponha que n observações deX foram feitas e forneceram os valores x1, x2, . . . , xn; O histograma das observações realizadas é apresentado abaixo: Resitência a tensão D en si da de 8 9 10 11 12 0. 0 0. 2 0. 4 Qual modelo probabilístico conjecturar para esses da- dos? O modelo N(µ, σ2) parece ser adequado! Quais valores de µ e σ2 são apropriados? Estimar µ e σ2! Bourguignon, M. (DEST-UFRN) Inf. Estatística 3 / 70 Exemplo 2 Seja T o tempo de cura de um paciente com determinada doença após a administração de determinado medicamento.; Suponha que n observações de T foram feitas e forneceram os valores t1, t2, . . . , tn; O histograma das observações realizadas é apresentado abaixo: Tempo de cura D en si da de 0 2 4 6 8 12 0. 00 0. 15 0. 30 Qual modelo probabilístico conjecturar para esses da- dos? O modelo Exp(λ) parece ser adequado! Qual valor de λ é apro- priado? Estimar λ! Bourguignon, M. (DEST-UFRN) Inf. Estatística 4 / 70 Exemplo 2 Seja T o tempo de cura de um paciente com determinada doença após a administração de determinado medicamento.; Suponha que n observações de T foram feitas e forneceram os valores t1, t2, . . . , tn; O histograma das observações realizadas é apresentado abaixo: Tempo de cura D en si da de 0 2 4 6 8 12 0. 00 0. 15 0. 30 Qual modelo probabilístico conjecturar para esses da- dos? O modelo Exp(λ) parece ser adequado! Qual valor de λ é apro- priado? Estimar λ! Bourguignon, M. (DEST-UFRN) Inf. Estatística 4 / 70 Exemplo 2 Seja T o tempo de cura de um paciente com determinada doença após a administração de determinado medicamento.; Suponha que n observações de T foram feitas e forneceram os valores t1, t2, . . . , tn; O histograma das observações realizadas é apresentado abaixo: Tempo de cura D en si da de 0 2 4 6 8 12 0. 00 0. 15 0. 30 Qual modelo probabilístico conjecturar para esses da- dos? O modelo Exp(λ) parece ser adequado! Qual valor de λ é apro- priado? Estimar λ! Bourguignon, M. (DEST-UFRN) Inf. Estatística 4 / 70 Exemplo 2 Seja T o tempo de cura de um paciente com determinada doença após a administração de determinado medicamento.; Suponha que n observações de T foram feitas e forneceram os valores t1, t2, . . . , tn; O histograma das observações realizadas é apresentado abaixo: Tempo de cura D en si da de 0 2 4 6 8 12 0. 00 0. 15 0. 30 Qual modelo probabilístico conjecturar para esses da- dos? O modelo Exp(λ) pareceser adequado! Qual valor de λ é apro- priado? Estimar λ! Bourguignon, M. (DEST-UFRN) Inf. Estatística 4 / 70 Diferenças entre estatística descritiva e inferencial Estatística descritiva Os dados já foram observados (pós-experimental); As ferramentas não permitem a extrapolação dos resultados para toda a população. Inferência estatística Raciocínio pré-experimental, estabelecendo ummodelo para as obser- vações (como se os dados não tivessem sido observados); Os resultados obtidos podem ser extrapolados e fornecerem conclu- sões para toda a população. Bourguignon, M. (DEST-UFRN) Inf. Estatística 5 / 70 Diferenças entre estatística descritiva e inferencial Estatística descritiva Os dados já foram observados (pós-experimental); As ferramentas não permitem a extrapolação dos resultados para toda a população. Inferência estatística Raciocínio pré-experimental, estabelecendo ummodelo para as obser- vações (como se os dados não tivessem sido observados); Os resultados obtidos podem ser extrapolados e fornecerem conclu- sões para toda a população. Bourguignon, M. (DEST-UFRN) Inf. Estatística 5 / 70 Diferenças entre estatística descritiva e inferencial Estatística descritiva Os dados já foram observados (pós-experimental); As ferramentas não permitem a extrapolação dos resultados para toda a população. Inferência estatística Raciocínio pré-experimental, estabelecendo ummodelo para as obser- vações (como se os dados não tivessem sido observados); Os resultados obtidos podem ser extrapolados e fornecerem conclu- sões para toda a população. Bourguignon, M. (DEST-UFRN) Inf. Estatística 5 / 70 Diferenças entre estatística descritiva e inferencial Estatística descritiva Os dados já foram observados (pós-experimental); As ferramentas não permitem a extrapolação dos resultados para toda a população. Inferência estatística Raciocínio pré-experimental, estabelecendo ummodelo para as obser- vações (como se os dados não tivessem sido observados); Os resultados obtidos podem ser extrapolados e fornecerem conclu- sões para toda a população. Bourguignon, M. (DEST-UFRN) Inf. Estatística 5 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 5 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 5 / 70 Parâmetros Seja X v.a. com distribuição de probabilidades f (função de proba- bilidades se X é discreta e função de densidade se X é contínua); Um parâmetro é qualquer quantidade constante que dependa de f . Exemplos: A probabilidade de sucesso p de um ensaio de Bernoulli; O valor esperado µ = E(X) de uma v.a. X; A variância σ2 = V ar(X) de uma v.a. X; A taxa de ocorrências λ de uma Poisson; O mínimo a e o máximo b de uma v.a. X ∼ U [a, b]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 6 / 70 Parâmetros Seja X v.a. com distribuição de probabilidades f (função de proba- bilidades se X é discreta e função de densidade se X é contínua); Um parâmetro é qualquer quantidade constante que dependa de f . Exemplos: A probabilidade de sucesso p de um ensaio de Bernoulli; O valor esperado µ = E(X) de uma v.a. X; A variância σ2 = V ar(X) de uma v.a. X; A taxa de ocorrências λ de uma Poisson; O mínimo a e o máximo b de uma v.a. X ∼ U [a, b]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 6 / 70 Parâmetros Seja X v.a. com distribuição de probabilidades f (função de proba- bilidades se X é discreta e função de densidade se X é contínua); Um parâmetro é qualquer quantidade constante que dependa de f . Exemplos: A probabilidade de sucesso p de um ensaio de Bernoulli; O valor esperado µ = E(X) de uma v.a. X; A variância σ2 = V ar(X) de uma v.a. X; A taxa de ocorrências λ de uma Poisson; O mínimo a e o máximo b de uma v.a. X ∼ U [a, b]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 6 / 70 Parâmetros Seja X v.a. com distribuição de probabilidades f (função de proba- bilidades se X é discreta e função de densidade se X é contínua); Um parâmetro é qualquer quantidade constante que dependa de f . Exemplos: A probabilidade de sucesso p de um ensaio de Bernoulli; O valor esperado µ = E(X) de uma v.a. X; A variância σ2 = V ar(X) de uma v.a. X; A taxa de ocorrências λ de uma Poisson; O mínimo a e o máximo b de uma v.a. X ∼ U [a, b]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 6 / 70 Parâmetros Seja X v.a. com distribuição de probabilidades f (função de proba- bilidades se X é discreta e função de densidade se X é contínua); Um parâmetro é qualquer quantidade constante que dependa de f . Exemplos: A probabilidade de sucesso p de um ensaio de Bernoulli; O valor esperado µ = E(X) de uma v.a. X; A variância σ2 = V ar(X) de uma v.a. X; A taxa de ocorrências λ de uma Poisson; O mínimo a e o máximo b de uma v.a. X ∼ U [a, b]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 6 / 70 Parâmetros Seja X v.a. com distribuição de probabilidades f (função de proba- bilidades se X é discreta e função de densidade se X é contínua); Um parâmetro é qualquer quantidade constante que dependa de f . Exemplos: A probabilidade de sucesso p de um ensaio de Bernoulli; O valor esperado µ = E(X) de uma v.a. X; A variância σ2 = V ar(X) de uma v.a. X; A taxa de ocorrências λ de uma Poisson; O mínimo a e o máximo b de uma v.a. X ∼ U [a, b]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 6 / 70 Parâmetros Seja X v.a. com distribuição de probabilidades f (função de proba- bilidades se X é discreta e função de densidade se X é contínua); Um parâmetro é qualquer quantidade constante que dependa de f . Exemplos: A probabilidade de sucesso p de um ensaio de Bernoulli; O valor esperado µ = E(X) de uma v.a. X; A variância σ2 = V ar(X) de uma v.a. X; A taxa de ocorrências λ de uma Poisson; O mínimo a e o máximo b de uma v.a. X ∼ U [a, b]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 6 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 6 / 70 Amostra A população não pode ser completamente observada; Embora constantes, os parâmetros são desconhecidos! Uma amostra pode ser utilizada para aproximar os parâmetros; Uma amostra selecionada por conveniência pode acarretar os seguin- tes problemas: I resultados tendenciosos; I o comportamento probabilístico desconhecido; Necessidade de uma amostra representativa; Principal solução→ mecanismo aleatório para selecionar a amostra. Bourguignon, M. (DEST-UFRN) Inf. Estatística 7 / 70 Amostra A população não pode ser completamente observada; Embora constantes, os parâmetros são desconhecidos! Uma amostra pode ser utilizada para aproximaros parâmetros; Uma amostra selecionada por conveniência pode acarretar os seguin- tes problemas: I resultados tendenciosos; I o comportamento probabilístico desconhecido; Necessidade de uma amostra representativa; Principal solução→ mecanismo aleatório para selecionar a amostra. Bourguignon, M. (DEST-UFRN) Inf. Estatística 7 / 70 Amostra A população não pode ser completamente observada; Embora constantes, os parâmetros são desconhecidos! Uma amostra pode ser utilizada para aproximar os parâmetros; Uma amostra selecionada por conveniência pode acarretar os seguin- tes problemas: I resultados tendenciosos; I o comportamento probabilístico desconhecido; Necessidade de uma amostra representativa; Principal solução→ mecanismo aleatório para selecionar a amostra. Bourguignon, M. (DEST-UFRN) Inf. Estatística 7 / 70 Amostra A população não pode ser completamente observada; Embora constantes, os parâmetros são desconhecidos! Uma amostra pode ser utilizada para aproximar os parâmetros; Uma amostra selecionada por conveniência pode acarretar os seguin- tes problemas: I resultados tendenciosos; I o comportamento probabilístico desconhecido; Necessidade de uma amostra representativa; Principal solução→ mecanismo aleatório para selecionar a amostra. Bourguignon, M. (DEST-UFRN) Inf. Estatística 7 / 70 Amostra A população não pode ser completamente observada; Embora constantes, os parâmetros são desconhecidos! Uma amostra pode ser utilizada para aproximar os parâmetros; Uma amostra selecionada por conveniência pode acarretar os seguin- tes problemas: I resultados tendenciosos; I o comportamento probabilístico desconhecido; Necessidade de uma amostra representativa; Principal solução→ mecanismo aleatório para selecionar a amostra. Bourguignon, M. (DEST-UFRN) Inf. Estatística 7 / 70 Amostra A população não pode ser completamente observada; Embora constantes, os parâmetros são desconhecidos! Uma amostra pode ser utilizada para aproximar os parâmetros; Uma amostra selecionada por conveniência pode acarretar os seguin- tes problemas: I resultados tendenciosos; I o comportamento probabilístico desconhecido; Necessidade de uma amostra representativa; Principal solução→ mecanismo aleatório para selecionar a amostra. Bourguignon, M. (DEST-UFRN) Inf. Estatística 7 / 70 Amostra A população não pode ser completamente observada; Embora constantes, os parâmetros são desconhecidos! Uma amostra pode ser utilizada para aproximar os parâmetros; Uma amostra selecionada por conveniência pode acarretar os seguin- tes problemas: I resultados tendenciosos; I o comportamento probabilístico desconhecido; Necessidade de uma amostra representativa; Principal solução→ mecanismo aleatório para selecionar a amostra. Bourguignon, M. (DEST-UFRN) Inf. Estatística 7 / 70 Amostra A população não pode ser completamente observada; Embora constantes, os parâmetros são desconhecidos! Uma amostra pode ser utilizada para aproximar os parâmetros; Uma amostra selecionada por conveniência pode acarretar os seguin- tes problemas: I resultados tendenciosos; I o comportamento probabilístico desconhecido; Necessidade de uma amostra representativa; Principal solução→ mecanismo aleatório para selecionar a amostra. Bourguignon, M. (DEST-UFRN) Inf. Estatística 7 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 7 / 70 Amostra aleatória Definição Seja X uma v.a. Uma amostra aleatória (a.a.) de X é um conjunto de observações independentes entre si e com a mesma distribuição de X. Uma a.a. é caracterizada pré-experimentalmente; As observações ainda não foram coletadas; Portanto, uma a.a. é um conjunto de v.a.; Uma a.a. de X de tamanho n é denotada X1, . . . , Xn. Exercício: Em uma população de N indivíduos, K possuem determi- nada característica. Suponha que desejamos selecionar n indívíduos para inferir sobre a verdadeira proporção K/N de indivíduos com essa carac- terística. Uma a.a. seria obtida se realizassemos o sorteio dos indívíduos com ou sem reposição? Bourguignon, M. (DEST-UFRN) Inf. Estatística 8 / 70 Amostra aleatória Definição Seja X uma v.a. Uma amostra aleatória (a.a.) de X é um conjunto de observações independentes entre si e com a mesma distribuição de X. Uma a.a. é caracterizada pré-experimentalmente; As observações ainda não foram coletadas; Portanto, uma a.a. é um conjunto de v.a.; Uma a.a. de X de tamanho n é denotada X1, . . . , Xn. Exercício: Em uma população de N indivíduos, K possuem determi- nada característica. Suponha que desejamos selecionar n indívíduos para inferir sobre a verdadeira proporção K/N de indivíduos com essa carac- terística. Uma a.a. seria obtida se realizassemos o sorteio dos indívíduos com ou sem reposição? Bourguignon, M. (DEST-UFRN) Inf. Estatística 8 / 70 Amostra aleatória Definição Seja X uma v.a. Uma amostra aleatória (a.a.) de X é um conjunto de observações independentes entre si e com a mesma distribuição de X. Uma a.a. é caracterizada pré-experimentalmente; As observações ainda não foram coletadas; Portanto, uma a.a. é um conjunto de v.a.; Uma a.a. de X de tamanho n é denotada X1, . . . , Xn. Exercício: Em uma população de N indivíduos, K possuem determi- nada característica. Suponha que desejamos selecionar n indívíduos para inferir sobre a verdadeira proporção K/N de indivíduos com essa carac- terística. Uma a.a. seria obtida se realizassemos o sorteio dos indívíduos com ou sem reposição? Bourguignon, M. (DEST-UFRN) Inf. Estatística 8 / 70 Amostra aleatória Definição Seja X uma v.a. Uma amostra aleatória (a.a.) de X é um conjunto de observações independentes entre si e com a mesma distribuição de X. Uma a.a. é caracterizada pré-experimentalmente; As observações ainda não foram coletadas; Portanto, uma a.a. é um conjunto de v.a.; Uma a.a. de X de tamanho n é denotada X1, . . . , Xn. Exercício: Em uma população de N indivíduos, K possuem determi- nada característica. Suponha que desejamos selecionar n indívíduos para inferir sobre a verdadeira proporção K/N de indivíduos com essa carac- terística. Uma a.a. seria obtida se realizassemos o sorteio dos indívíduos com ou sem reposição? Bourguignon, M. (DEST-UFRN) Inf. Estatística 8 / 70 Amostra aleatória Definição Seja X uma v.a. Uma amostra aleatória (a.a.) de X é um conjunto de observações independentes entre si e com a mesma distribuição de X. Uma a.a. é caracterizada pré-experimentalmente; As observações ainda não foram coletadas; Portanto, uma a.a. é um conjunto de v.a.; Uma a.a. de X de tamanho n é denotada X1, . . . , Xn. Exercício: Em uma população de N indivíduos, K possuem determi- nada característica. Suponha que desejamos selecionar n indívíduos para inferir sobre a verdadeira proporção K/N de indivíduos com essa carac- terística. Uma a.a. seria obtida se realizassemos o sorteio dos indívíduos com ou sem reposição? Bourguignon, M. (DEST-UFRN) Inf. Estatística 8 / 70 Amostra aleatória Definição Seja X uma v.a. Uma amostra aleatória (a.a.) de X é um conjunto de observações independentes entre si e com a mesma distribuição de X. Uma a.a. é caracterizada pré-experimentalmente; As observações ainda não foram coletadas; Portanto, uma a.a. é um conjunto de v.a.; Uma a.a. de X de tamanho n é denotada X1, . . . , Xn.Exercício: Em uma população de N indivíduos, K possuem determi- nada característica. Suponha que desejamos selecionar n indívíduos para inferir sobre a verdadeira proporção K/N de indivíduos com essa carac- terística. Uma a.a. seria obtida se realizassemos o sorteio dos indívíduos com ou sem reposição? Bourguignon, M. (DEST-UFRN) Inf. Estatística 8 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 8 / 70 Exemplo Considere um experimento de Bernoulli com probabilidade de sucesso p (desconhecida) e seja X a v.a. que associa o valor 1 se esse experimento resulta sucesso e 0 caso contrário. Dizemos queX é uma v.a. de Bernoulli com parâmetro p e escrevemos X ∼ Ber(p). Note que também temos X ∼ B(1, p). Como tirar conclusões sobre a probabilidade de sucesso p? Podemos coletar uma a.a. X1, . . . , Xn de X; Após coletar a amostra podemos calcular a proporção amostral pˆ; Podemos usar o valor que pˆ fornecerá como aproximação de p; Mas, antes de observar a a.a., pˆ é v.a., pois é função de v.a.'s; Como dizer se pˆ será uma boa aproximação para p sem conhecer p (e antes de obervar a amostra)? Bourguignon, M. (DEST-UFRN) Inf. Estatística 9 / 70 Exemplo Considere um experimento de Bernoulli com probabilidade de sucesso p (desconhecida) e seja X a v.a. que associa o valor 1 se esse experimento resulta sucesso e 0 caso contrário. Dizemos queX é uma v.a. de Bernoulli com parâmetro p e escrevemos X ∼ Ber(p). Note que também temos X ∼ B(1, p). Como tirar conclusões sobre a probabilidade de sucesso p? Podemos coletar uma a.a. X1, . . . , Xn de X; Após coletar a amostra podemos calcular a proporção amostral pˆ; Podemos usar o valor que pˆ fornecerá como aproximação de p; Mas, antes de observar a a.a., pˆ é v.a., pois é função de v.a.'s; Como dizer se pˆ será uma boa aproximação para p sem conhecer p (e antes de obervar a amostra)? Bourguignon, M. (DEST-UFRN) Inf. Estatística 9 / 70 Exemplo Considere um experimento de Bernoulli com probabilidade de sucesso p (desconhecida) e seja X a v.a. que associa o valor 1 se esse experimento resulta sucesso e 0 caso contrário. Dizemos queX é uma v.a. de Bernoulli com parâmetro p e escrevemos X ∼ Ber(p). Note que também temos X ∼ B(1, p). Como tirar conclusões sobre a probabilidade de sucesso p? Podemos coletar uma a.a. X1, . . . , Xn de X; Após coletar a amostra podemos calcular a proporção amostral pˆ; Podemos usar o valor que pˆ fornecerá como aproximação de p; Mas, antes de observar a a.a., pˆ é v.a., pois é função de v.a.'s; Como dizer se pˆ será uma boa aproximação para p sem conhecer p (e antes de obervar a amostra)? Bourguignon, M. (DEST-UFRN) Inf. Estatística 9 / 70 Exemplo Considere um experimento de Bernoulli com probabilidade de sucesso p (desconhecida) e seja X a v.a. que associa o valor 1 se esse experimento resulta sucesso e 0 caso contrário. Dizemos queX é uma v.a. de Bernoulli com parâmetro p e escrevemos X ∼ Ber(p). Note que também temos X ∼ B(1, p). Como tirar conclusões sobre a probabilidade de sucesso p? Podemos coletar uma a.a. X1, . . . , Xn de X; Após coletar a amostra podemos calcular a proporção amostral pˆ; Podemos usar o valor que pˆ fornecerá como aproximação de p; Mas, antes de observar a a.a., pˆ é v.a., pois é função de v.a.'s; Como dizer se pˆ será uma boa aproximação para p sem conhecer p (e antes de obervar a amostra)? Bourguignon, M. (DEST-UFRN) Inf. Estatística 9 / 70 Exemplo Considere um experimento de Bernoulli com probabilidade de sucesso p (desconhecida) e seja X a v.a. que associa o valor 1 se esse experimento resulta sucesso e 0 caso contrário. Dizemos queX é uma v.a. de Bernoulli com parâmetro p e escrevemos X ∼ Ber(p). Note que também temos X ∼ B(1, p). Como tirar conclusões sobre a probabilidade de sucesso p? Podemos coletar uma a.a. X1, . . . , Xn de X; Após coletar a amostra podemos calcular a proporção amostral pˆ; Podemos usar o valor que pˆ fornecerá como aproximação de p; Mas, antes de observar a a.a., pˆ é v.a., pois é função de v.a.'s; Como dizer se pˆ será uma boa aproximação para p sem conhecer p (e antes de obervar a amostra)? Bourguignon, M. (DEST-UFRN) Inf. Estatística 9 / 70 Exemplo Considere um experimento de Bernoulli com probabilidade de sucesso p (desconhecida) e seja X a v.a. que associa o valor 1 se esse experimento resulta sucesso e 0 caso contrário. Dizemos queX é uma v.a. de Bernoulli com parâmetro p e escrevemos X ∼ Ber(p). Note que também temos X ∼ B(1, p). Como tirar conclusões sobre a probabilidade de sucesso p? Podemos coletar uma a.a. X1, . . . , Xn de X; Após coletar a amostra podemos calcular a proporção amostral pˆ; Podemos usar o valor que pˆ fornecerá como aproximação de p; Mas, antes de observar a a.a., pˆ é v.a., pois é função de v.a.'s; Como dizer se pˆ será uma boa aproximação para p sem conhecer p (e antes de obervar a amostra)? Bourguignon, M. (DEST-UFRN) Inf. Estatística 9 / 70 Exemplo Considere um experimento de Bernoulli com probabilidade de sucesso p (desconhecida) e seja X a v.a. que associa o valor 1 se esse experimento resulta sucesso e 0 caso contrário. Dizemos queX é uma v.a. de Bernoulli com parâmetro p e escrevemos X ∼ Ber(p). Note que também temos X ∼ B(1, p). Como tirar conclusões sobre a probabilidade de sucesso p? Podemos coletar uma a.a. X1, . . . , Xn de X; Após coletar a amostra podemos calcular a proporção amostral pˆ; Podemos usar o valor que pˆ fornecerá como aproximação de p; Mas, antes de observar a a.a., pˆ é v.a., pois é função de v.a.'s; Como dizer se pˆ será uma boa aproximação para p sem conhecer p (e antes de obervar a amostra)? Bourguignon, M. (DEST-UFRN) Inf. Estatística 9 / 70 Estimador Definição Sejam X v.a. cuja distribuição depende de um parâmetro θ e X1, . . . , Xn a.a. de tamanho n de X. Um estimador θˆ de θ é qualquer função da amostra X1, . . . , Xn utilizada para aproximar (estimar) o valor de θ. Isto é, θˆ = θˆ(X1, . . . , Xn). Suponha que a amostra observada (ponto amostral) foi x1, . . . , xn, isto é, que X1 = x1, . . . , Xn = xn. A realização de θˆ, θˆ(x1, . . . , xn), é denominada estimativa. Bourguignon, M. (DEST-UFRN) Inf. Estatística 10 / 70 Exemplos de estimadores Dada uma a.a. X1, . . . , Xn, alguns exemplos de estimadores são: O total ∑n i=1Xi; A média X¯ = 1n ∑n i=1Xi; A variância (viciada) σˆ2 = 1n ∑n i=1(Xi − X¯)2; A variância (não viciada) S2 = 1n−1 ∑n i=1(Xi − X¯)2; O mínimo X(1) = min{X1, . . . , Xn}; O máximo X(n) = max{X1, . . . , Xn}; A proporção pˆ = 1n ∑n i=1Xi (se a a.a. for de uma v.a. Bernoulli). Bourguignon, M. (DEST-UFRN) Inf. Estatística 11 / 70 Exemplos de estimadores Dada uma a.a. X1, . . . , Xn, alguns exemplos de estimadores são: O total ∑n i=1Xi; A média X¯ = 1n ∑n i=1Xi; A variância (viciada) σˆ2 = 1n ∑n i=1(Xi − X¯)2; A variância (não viciada) S2 = 1n−1 ∑n i=1(Xi − X¯)2; O mínimo X(1) = min{X1, . . . , Xn}; O máximo X(n) = max{X1, . . . , Xn}; A proporção pˆ = 1n ∑n i=1Xi (se a a.a. for de uma v.a. Bernoulli). Bourguignon, M. (DEST-UFRN) Inf. Estatística 11 / 70 Exemplos de estimadores Dada uma a.a. X1, . . . , Xn, alguns exemplos de estimadores são: O total ∑n i=1Xi; A média X¯ = 1n ∑n i=1Xi; A variância (viciada) σˆ2 = 1n ∑n i=1(Xi − X¯)2; A variância (não viciada) S2 = 1n−1 ∑n i=1(Xi − X¯)2; O mínimo X(1)= min{X1, . . . , Xn}; O máximo X(n) = max{X1, . . . , Xn}; A proporção pˆ = 1n ∑n i=1Xi (se a a.a. for de uma v.a. Bernoulli). Bourguignon, M. (DEST-UFRN) Inf. Estatística 11 / 70 Exemplos de estimadores Dada uma a.a. X1, . . . , Xn, alguns exemplos de estimadores são: O total ∑n i=1Xi; A média X¯ = 1n ∑n i=1Xi; A variância (viciada) σˆ2 = 1n ∑n i=1(Xi − X¯)2; A variância (não viciada) S2 = 1n−1 ∑n i=1(Xi − X¯)2; O mínimo X(1) = min{X1, . . . , Xn}; O máximo X(n) = max{X1, . . . , Xn}; A proporção pˆ = 1n ∑n i=1Xi (se a a.a. for de uma v.a. Bernoulli). Bourguignon, M. (DEST-UFRN) Inf. Estatística 11 / 70 Exemplos de estimadores Dada uma a.a. X1, . . . , Xn, alguns exemplos de estimadores são: O total ∑n i=1Xi; A média X¯ = 1n ∑n i=1Xi; A variância (viciada) σˆ2 = 1n ∑n i=1(Xi − X¯)2; A variância (não viciada) S2 = 1n−1 ∑n i=1(Xi − X¯)2; O mínimo X(1) = min{X1, . . . , Xn}; O máximo X(n) = max{X1, . . . , Xn}; A proporção pˆ = 1n ∑n i=1Xi (se a a.a. for de uma v.a. Bernoulli). Bourguignon, M. (DEST-UFRN) Inf. Estatística 11 / 70 Exemplos de estimadores Dada uma a.a. X1, . . . , Xn, alguns exemplos de estimadores são: O total ∑n i=1Xi; A média X¯ = 1n ∑n i=1Xi; A variância (viciada) σˆ2 = 1n ∑n i=1(Xi − X¯)2; A variância (não viciada) S2 = 1n−1 ∑n i=1(Xi − X¯)2; O mínimo X(1) = min{X1, . . . , Xn}; O máximo X(n) = max{X1, . . . , Xn}; A proporção pˆ = 1n ∑n i=1Xi (se a a.a. for de uma v.a. Bernoulli). Bourguignon, M. (DEST-UFRN) Inf. Estatística 11 / 70 Exemplos de estimadores Dada uma a.a. X1, . . . , Xn, alguns exemplos de estimadores são: O total ∑n i=1Xi; A média X¯ = 1n ∑n i=1Xi; A variância (viciada) σˆ2 = 1n ∑n i=1(Xi − X¯)2; A variância (não viciada) S2 = 1n−1 ∑n i=1(Xi − X¯)2; O mínimo X(1) = min{X1, . . . , Xn}; O máximo X(n) = max{X1, . . . , Xn}; A proporção pˆ = 1n ∑n i=1Xi (se a a.a. for de uma v.a. Bernoulli). Bourguignon, M. (DEST-UFRN) Inf. Estatística 11 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 11 / 70 Distribuição amostral Estimadores → pré-observacional → são v.a.'s; Estimadores tem distribuição de probabilidades denominada distri- buição amostral. Definição Seja X v.a. com distribuição de probabilidades dependente de um parâ- metro θ. Seja θˆ um estimador de θ. A distribuição amostral de θˆ é a distribuição de probabilidades da v.a. (estimador) θˆ. A distribuição amostral depende principalmente: I da distribuição da v.a. X cuja amostra X1, . . . , Xn foi coletada; I do tipo de amostragem realizada. Bourguignon, M. (DEST-UFRN) Inf. Estatística 12 / 70 Distribuição amostral Estimadores → pré-observacional → são v.a.'s; Estimadores tem distribuição de probabilidades denominada distri- buição amostral. Definição Seja X v.a. com distribuição de probabilidades dependente de um parâ- metro θ. Seja θˆ um estimador de θ. A distribuição amostral de θˆ é a distribuição de probabilidades da v.a. (estimador) θˆ. A distribuição amostral depende principalmente: I da distribuição da v.a. X cuja amostra X1, . . . , Xn foi coletada; I do tipo de amostragem realizada. Bourguignon, M. (DEST-UFRN) Inf. Estatística 12 / 70 Distribuição amostral Estimadores → pré-observacional → são v.a.'s; Estimadores tem distribuição de probabilidades denominada distri- buição amostral. Definição Seja X v.a. com distribuição de probabilidades dependente de um parâ- metro θ. Seja θˆ um estimador de θ. A distribuição amostral de θˆ é a distribuição de probabilidades da v.a. (estimador) θˆ. A distribuição amostral depende principalmente: I da distribuição da v.a. X cuja amostra X1, . . . , Xn foi coletada; I do tipo de amostragem realizada. Bourguignon, M. (DEST-UFRN) Inf. Estatística 12 / 70 Distribuição amostral Estimadores → pré-observacional → são v.a.'s; Estimadores tem distribuição de probabilidades denominada distri- buição amostral. Definição Seja X v.a. com distribuição de probabilidades dependente de um parâ- metro θ. Seja θˆ um estimador de θ. A distribuição amostral de θˆ é a distribuição de probabilidades da v.a. (estimador) θˆ. A distribuição amostral depende principalmente: I da distribuição da v.a. X cuja amostra X1, . . . , Xn foi coletada; I do tipo de amostragem realizada. Bourguignon, M. (DEST-UFRN) Inf. Estatística 12 / 70 Distribuição amostral Estimadores → pré-observacional → são v.a.'s; Estimadores tem distribuição de probabilidades denominada distri- buição amostral. Definição Seja X v.a. com distribuição de probabilidades dependente de um parâ- metro θ. Seja θˆ um estimador de θ. A distribuição amostral de θˆ é a distribuição de probabilidades da v.a. (estimador) θˆ. A distribuição amostral depende principalmente: I da distribuição da v.a. X cuja amostra X1, . . . , Xn foi coletada; I do tipo de amostragem realizada. Bourguignon, M. (DEST-UFRN) Inf. Estatística 12 / 70 Distribuição amostral Estimadores → pré-observacional → são v.a.'s; Estimadores tem distribuição de probabilidades denominada distri- buição amostral. Definição Seja X v.a. com distribuição de probabilidades dependente de um parâ- metro θ. Seja θˆ um estimador de θ. A distribuição amostral de θˆ é a distribuição de probabilidades da v.a. (estimador) θˆ. A distribuição amostral depende principalmente: I da distribuição da v.a. X cuja amostra X1, . . . , Xn foi coletada; I do tipo de amostragem realizada. Bourguignon, M. (DEST-UFRN) Inf. Estatística 12 / 70 Exemplo Suponha nove indivíduos: dois com nenhum filho; três com um filho; e quatro com dois filhos. Denote X como o número de filhos de um indivíduo selecionado ao acaso dessa população. Temos que a função de probabilidades de X é dada por: X 0 1 2 PX 2 9 1 3 4 9 O valor esperado de X é µ = E(X) = 119 = 1.22. Um pesquisador desconhece a distribuição de X e o valor de µ. Para inferir sobre µ, esse pesquisador: coletará uma amostra com reposição de X de tamanho n = 2: X1, X2; utilizará X¯ = X1+X22 para estimar µ. Encontremos a distribuição amostral de X¯. Bourguignon, M. (DEST-UFRN) Inf. Estatística 13 / 70 Exemplo Suponha nove indivíduos: dois com nenhum filho; três com um filho; e quatro com dois filhos. Denote X como o número de filhos de um indivíduo selecionado ao acaso dessa população. Temos que a função de probabilidades de X é dada por: X 0 1 2 PX 2 9 1 3 4 9 O valor esperado de X é µ = E(X) = 119 = 1.22. Um pesquisador desconhece a distribuição de X e o valor de µ. Para inferir sobre µ, esse pesquisador: coletará uma amostra com reposição de X de tamanho n = 2: X1, X2; utilizará X¯ = X1+X22 para estimar µ. Encontremos a distribuição amostral de X¯. Bourguignon, M. (DEST-UFRN) Inf. Estatística 13 / 70 Exemplo Suponha nove indivíduos: dois com nenhum filho; três com um filho; e quatro com dois filhos. Denote X como o número de filhos de um indivíduo selecionado ao acaso dessa população. Temos que a função de probabilidades de X é dada por: X 0 1 2 PX 2 9 1 3 4 9 O valor esperado de X é µ = E(X) = 119 = 1.22. Um pesquisador desconhece a distribuição de X e o valor de µ. Para inferir sobre µ, esse pesquisador: coletará uma amostra com reposição de X de tamanho n = 2: X1, X2; utilizará X¯ = X1+X22 para estimar µ. Encontremos a distribuiçãoamostral de X¯. Bourguignon, M. (DEST-UFRN) Inf. Estatística 13 / 70 Exemplo Suponha nove indivíduos: dois com nenhum filho; três com um filho; e quatro com dois filhos. Denote X como o número de filhos de um indivíduo selecionado ao acaso dessa população. Temos que a função de probabilidades de X é dada por: X 0 1 2 PX 2 9 1 3 4 9 O valor esperado de X é µ = E(X) = 119 = 1.22. Um pesquisador desconhece a distribuição de X e o valor de µ. Para inferir sobre µ, esse pesquisador: coletará uma amostra com reposição de X de tamanho n = 2: X1, X2; utilizará X¯ = X1+X22 para estimar µ. Encontremos a distribuição amostral de X¯. Bourguignon, M. (DEST-UFRN) Inf. Estatística 13 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. A tabela abaixo mostra os possíveis pontos amostrais; suas respectivas probabilidades e as estimativas geradas por esses pontos. (x1, x2) PX1,X2(x1, x2) x¯ (0, 0) 4/81 0 (0, 1) 2/27 0.5 (0, 2) 8/81 1 (1, 0) 2/27 0.5 (1, 1) 1/9 1 (1, 2) 4/27 1.5 (2, 0) 8/81 1 (2, 1) 4/27 1.5 (2, 2) 16/81 2 Total 1 - Distribuição de X¯ é: X¯ 0 0.5 1 1.5 2 PX¯ 4 81 4 27 25 81 8 27 16 81 O valor esperado de X¯ é: µX¯ = 2 27 + 25 81 + 12 27 + 32 81 = 1 81 (6 + 25 + 36 + 32) = 99 81 = 11 9 = µ Bourguignon, M. (DEST-UFRN) Inf. Estatística 14 / 70 Exemplo - cont. Exercício: Refaça o exemploanterior com amostragem sem reposição para verificar que a distribuição amostral de X¯ é modificada. Verifique a distribuição amostral de S2. A diferença na distribuição amostral provocada por amostragem com e sem reposição é menos evidente quando o tamanho da população é grande; Esse efeito é nulo para populações infinitas; No exemplo anterior a amostragem com reposição fornece uma a.a; De agora em diante consideraremos apenas amostras aleatórias. Bourguignon, M. (DEST-UFRN) Inf. Estatística 15 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 15 / 70 Consistência e distribuição amostral assintótica Teorema (Populações infinitas) Seja X1, . . . , Xn a.a. de X, onde E(X) = µ e V ar(X) = σ 2 < ∞. Então E(X¯) = µ e V ar(X¯) = σ 2 n , onde X¯ = 1 n ∑n i=1Xi é a média amostral. Teorema (Teorema Central do Limite - TCL) Seja X1, . . . , Xn a.a. de X, onde E(X) = µ e V ar(X) = σ 2 <∞. Então a v.a. Zn = X¯ − µ σ/ √ n tem distribuição aproximadamente normal padrão. A aproximação fica melhor com o aumento de n. Corolário (Populações infinitas) Seja X1, . . . , Xn a.a. de X ∼ Ben(p). Então, se pˆ for a proporção amostral, Zn = pˆ− p√ p(1− p)/n tem distribuição aproximadamente normal-padrão. A aproximação fica melhor com o aumento de n. Bourguignon, M. (DEST-UFRN) Inf. Estatística 16 / 70 Comentários A média amostral tem distribuição aproximadamente normal com parâmetros µ e σ 2 n ; A aproximação se torna melhor com o aumento do tamanho amostral n; O valor de n necessário para que a aproximação seja boa depende da distribuição dos dados; Dados provenientes de distribuições assimétricas exigem o valor de n maior. Bourguignon, M. (DEST-UFRN) Inf. Estatística 17 / 70 Número de amostras coletadas: 10000. 0 4 8 0. 00 0. 04 0. 08 U [ 0 , 10 ] D en si da de l l l l n = 10 X D en si da de 2 4 6 8 0. 0 0. 2 0. 4 n = 30 X D en si da de 3 5 7 0. 0 0. 3 0. 6 n = 1000 X D en si da de 4.6 5.0 5.4 0 1 2 3 4 0 4 8 0. 00 0. 10 0. 20 Exp ( 0.2 ) D en si da de l l n = 10 X D en si da de 2 6 10 0. 00 0. 15 n = 30 X D en si da de 3 5 7 9 0. 0 0. 2 0. 4 n = 1000 X D en si da de 4.4 5.0 5.6 0. 0 1. 0 2. 0 Bourguignon, M. (DEST-UFRN) Inf. Estatística 18 / 70 Exemplo Seja T o tempo em meses que uma lâmpada produzida por determinada empresa dura até queimar. Suponha que T ∼ Exp(λ), onde λ = 0.25. Uma sala é iluminada por essa lâmpada. Caso queime uma lâmpada ela é imediatamente trocada. Se há 36 dessas lâmpadas no estoque. Qual a probabilidade que não haja mais lâmpadas em estoque em menos de 9 anos? Primeiramente: µ = E(T ) = 1λ = 1 0.25 = 4; σ2 = V ar(T ) = 1 λ2 = 16. Portanto, temos que P ( 36∑ i=1 Ti < 9× 12 ) = P (T¯ < 3) = P ( T¯ − µ σ/ √ n < 3− 4 4/ √ 36 ) = P (Zn < −1.5) ≈ P (Z < −1.5) = 0.05591 A aproximação acima se deve ao TCL. A probabilidade exata é 0.05588. Bourguignon, M. (DEST-UFRN) Inf. Estatística 19 / 70 Exemplo Seja T o tempo em meses que uma lâmpada produzida por determinada empresa dura até queimar. Suponha que T ∼ Exp(λ), onde λ = 0.25. Uma sala é iluminada por essa lâmpada. Caso queime uma lâmpada ela é imediatamente trocada. Se há 36 dessas lâmpadas no estoque. Qual a probabilidade que não haja mais lâmpadas em estoque em menos de 9 anos? Primeiramente: µ = E(T ) = 1λ = 1 0.25 = 4; σ2 = V ar(T ) = 1 λ2 = 16. Portanto, temos que P ( 36∑ i=1 Ti < 9× 12 ) = P (T¯ < 3) = P ( T¯ − µ σ/ √ n < 3− 4 4/ √ 36 ) = P (Zn < −1.5) ≈ P (Z < −1.5) = 0.05591 A aproximação acima se deve ao TCL. A probabilidade exata é 0.05588. Bourguignon, M. (DEST-UFRN) Inf. Estatística 19 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 19 / 70 Introdução Podemos dividir a tarefa de estimação de parâmetros em: Estimação pontual: I lida com a avaliação do desempenho de um estimador; Estimação intervalar: I lida com a construção de intervalos que englobam a variabilidade do estimador no processo de estimação. Bourguignon, M. (DEST-UFRN) Inf. Estatística 20 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 20 / 70 Estimação pontual Sejam X v.a., X1, . . . , Xn uma a.a. de X e θ um parâmetro; Um estimador de θ é qualquer função de X1, . . . , Xn utilizada para aproximar o valor de θ; Assim sendo, é possível definir diversos estimadores para um deter- minado parâmetro; Como avaliar a qualidade desses estimadores? Resposta: I Vício; I Erro-padrão; I Erro Quadrático Médio (EQM). Bourguignon, M. (DEST-UFRN) Inf. Estatística 21 / 70 Estimação pontual Sejam X v.a., X1, . . . , Xn uma a.a. de X e θ um parâmetro; Um estimador de θ é qualquer função de X1, . . . , Xn utilizada para aproximar o valor de θ; Assim sendo, é possível definir diversos estimadores para um deter- minado parâmetro; Como avaliar a qualidade desses estimadores? Resposta: I Vício; I Erro-padrão; I Erro Quadrático Médio (EQM). Bourguignon, M. (DEST-UFRN) Inf. Estatística 21 / 70 Estimação pontual Sejam X v.a., X1, . . . , Xn uma a.a. de X e θ um parâmetro; Um estimador de θ é qualquer função de X1, . . . , Xn utilizada para aproximar o valor de θ; Assim sendo, é possível definir diversos estimadores para um deter- minado parâmetro; Como avaliar a qualidade desses estimadores? Resposta: I Vício; I Erro-padrão; I Erro Quadrático Médio (EQM). Bourguignon, M. (DEST-UFRN) Inf. Estatística 21 / 70 Estimação pontual Sejam X v.a., X1, . . . , Xn uma a.a. de X e θ um parâmetro; Um estimador de θ é qualquer função de X1, . . . , Xn utilizada para aproximar o valor de θ; Assim sendo, é possível definir diversos estimadores para um deter- minado parâmetro; Como avaliar a qualidade desses estimadores? Resposta: I Vício; I Erro-padrão; I Erro Quadrático Médio (EQM). Bourguignon, M. (DEST-UFRN) Inf. Estatística 21 / 70 Estimação pontual Sejam X v.a., X1, . . . , Xn uma a.a. de X e θ um parâmetro; Um estimador de θ é qualquer função de X1, . . . , Xn utilizada para aproximar o valor de θ; Assim sendo, é possível definir diversos estimadores para um deter- minado parâmetro; Como avaliar a qualidade desses estimadores? Resposta: I Vício; I Erro-padrão; I Erro Quadrático Médio (EQM). Bourguignon, M. (DEST-UFRN) Inf. Estatística 21 / 70 Estimação pontual Sejam X v.a.,X1, . . . , Xn uma a.a. de X e θ um parâmetro; Um estimador de θ é qualquer função de X1, . . . , Xn utilizada para aproximar o valor de θ; Assim sendo, é possível definir diversos estimadores para um deter- minado parâmetro; Como avaliar a qualidade desses estimadores? Resposta: I Vício; I Erro-padrão; I Erro Quadrático Médio (EQM). Bourguignon, M. (DEST-UFRN) Inf. Estatística 21 / 70 Estimação pontual Sejam X v.a., X1, . . . , Xn uma a.a. de X e θ um parâmetro; Um estimador de θ é qualquer função de X1, . . . , Xn utilizada para aproximar o valor de θ; Assim sendo, é possível definir diversos estimadores para um deter- minado parâmetro; Como avaliar a qualidade desses estimadores? Resposta: I Vício; I Erro-padrão; I Erro Quadrático Médio (EQM). Bourguignon, M. (DEST-UFRN) Inf. Estatística 21 / 70 Estimação pontual Sejam X v.a., X1, . . . , Xn uma a.a. de X e θ um parâmetro; Um estimador de θ é qualquer função de X1, . . . , Xn utilizada para aproximar o valor de θ; Assim sendo, é possível definir diversos estimadores para um deter- minado parâmetro; Como avaliar a qualidade desses estimadores? Resposta: I Vício; I Erro-padrão; I Erro Quadrático Médio (EQM). Bourguignon, M. (DEST-UFRN) Inf. Estatística 21 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 21 / 70 Vício Deve ser esperado de um bom estimador que ele forneça o verda- deiro valor do parâmetro; O vício de um estimador mede, em média, quanto o estimador se distância do parâmetro. Definição Seja θ um parâmetro e θˆ um estimador de θ. O vício (ou viés) de θˆ é definido por B(θˆ) = E(θˆ)− θ = µθˆ − θ, onde µθˆ = E(θˆ) é o valor esperado de θˆ. Dizemos que θˆ é não viciado (ou não viesado) se seu vício B(θˆ) = 0. Bourguignon, M. (DEST-UFRN) Inf. Estatística 22 / 70 Vício Deve ser esperado de um bom estimador que ele forneça o verda- deiro valor do parâmetro; O vício de um estimador mede, em média, quanto o estimador se distância do parâmetro. Definição Seja θ um parâmetro e θˆ um estimador de θ. O vício (ou viés) de θˆ é definido por B(θˆ) = E(θˆ)− θ = µθˆ − θ, onde µθˆ = E(θˆ) é o valor esperado de θˆ. Dizemos que θˆ é não viciado (ou não viesado) se seu vício B(θˆ) = 0. Bourguignon, M. (DEST-UFRN) Inf. Estatística 22 / 70 Vício Deve ser esperado de um bom estimador que ele forneça o verda- deiro valor do parâmetro; O vício de um estimador mede, em média, quanto o estimador se distância do parâmetro. Definição Seja θ um parâmetro e θˆ um estimador de θ. O vício (ou viés) de θˆ é definido por B(θˆ) = E(θˆ)− θ = µθˆ − θ, onde µθˆ = E(θˆ) é o valor esperado de θˆ. Dizemos que θˆ é não viciado (ou não viesado) se seu vício B(θˆ) = 0. Bourguignon, M. (DEST-UFRN) Inf. Estatística 22 / 70 Vício Deve ser esperado de um bom estimador que ele forneça o verda- deiro valor do parâmetro; O vício de um estimador mede, em média, quanto o estimador se distância do parâmetro. Definição Seja θ um parâmetro e θˆ um estimador de θ. O vício (ou viés) de θˆ é definido por B(θˆ) = E(θˆ)− θ = µθˆ − θ, onde µθˆ = E(θˆ) é o valor esperado de θˆ. Dizemos que θˆ é não viciado (ou não viesado) se seu vício B(θˆ) = 0. Bourguignon, M. (DEST-UFRN) Inf. Estatística 22 / 70 θ θˆV não viciado θˆA viciado Bourguignon, M. (DEST-UFRN) Inf. Estatística 23 / 70 Exemplo 1 Suponha que serão observadas n − 1 ≥ 1 observações X1, . . . , Xn−1 de X, com µ = E(X). Defina a média dessas n−1 observações por X¯n−1 = 1 n−1 ∑n−1 i=1 Xi. Suponha que uma nova observação Xn ficará disponível. Considere os seguintes estimadores de µ: µˆ1 = n− 1 n X¯n−1 + 1 n Xn e µˆ2 = X¯n−1 +Xn 2 . Qual deles é não viciado? Temos que E(µˆ1) = n− 1 n E(X¯n−1) + 1 n E(Xn) = n− 1 n µ+ 1 n µ = µ e E(µˆ2) = E(X¯n−1 +Xn) 2 = E(X¯n−1) + E(Xn) 2 = µ+ µ 2 = µ. Portanto, ambos são não viesados. Bourguignon, M. (DEST-UFRN) Inf. Estatística 24 / 70 Exemplo 2 O estimador σˆ2 = 1n ∑n i=1(Xi − X¯)2 é viciado para estimar σ2! De fato, E(σˆ2) = 1 n n∑ i=1 E[(Xi − X¯)2] = 1 n n∑ i=1 E[(Xi − µ− (X¯ − µ))2] = 1 n n∑ i=1 E[(Xi − µ)2 − 2(Xi − µ)(X¯ − µ) + (X¯ − µ)2] = 1 n n∑ i=1 σ2 − 2E (Xi − µ) 1 n ∑ j (Xj − µ) + E[(X¯ − µ)2] = 1 n n∑ i=1 σ2 − 2n∑ j E[(Xi − µ)(Xj − µ)] + σ 2 n = 1 n n∑ i=1 { σ2 − 2σ 2 n + σ2 n } = σ2−σ 2 n Bourguignon, M. (DEST-UFRN) Inf. Estatística 25 / 70 Exercício Tendo em vista o exemplo anterior, mostre que S2 é um estimador não viesado de σ2. Bourguignon, M. (DEST-UFRN) Inf. Estatística 26 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 26 / 70 Erro-padrão Estimadores são v.a.; Além do vício, é importante saber a sua variabilidade; Podemos comparar dois estimadores não viesados pelo seu Erro- padrão. Definição Seja θˆ estimador de θ. Denominamos erro-padrão de θˆ o desvio-padrão de θˆ. Notação: EP (θˆ) = √ V ar(θˆ). Definição Sejam θˆ1 e θˆ2 estimadores não viesados de θ. Dizemos que θˆ1 é mais eficiente que θˆ2 se EP (θˆ1) < EP (θˆ2). Bourguignon, M. (DEST-UFRN) Inf. Estatística 27 / 70 θˆV mais eficiente que θˆA θ Bourguignon, M. (DEST-UFRN) Inf. Estatística 28 / 70 Exemplo 1 - cont. Verifiquemos o Erro-padrão de µˆ1 e de µˆ2. Temos que V ar(µˆ1) = V ar ( n− 1 n X¯n−1 + 1 n Xn ) = ( n− 1 n )2 σ2 n− 1 + 1 n2 σ2 = n− 1 + 1 n2 σ2 = 1 n σ2 e V ar(µˆ2) = V ar ( X¯n−1 + xn 2 ) = 1 4 (V ar(X¯n−1) + V ar(Xn)) = 1 4 ( σ2 n− 1 + σ 2 ) = n 4(n− 1)σ 2 Vejamos quando µˆ1 é mais eficiente do que µˆ2. De fato, V ar(µˆ1) < V ar(µˆ2)⇒ σ 2 n < nσ2 4(n− 1) ⇒ n 2 − 4n+ 4 > 0 ⇒ (n− 2)2 > 0⇒ n 6= 2⇒ n > 2. Bourguignon, M. (DEST-UFRN) Inf. Estatística 29 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 29 / 70 Erro Quadrático Médio Como comparar estimadores que tenham vícios diferentes? Reposta: Erro quadrático médio! Definição Seja θˆ estimador de θ. Definimos o Erro Quadrático Médio (EQM) de θˆ por EQM(θˆ) = E[(θˆ − θ)2]. Exercício: Mostre que o EQM pode ser escrito como a soma do vício e da variância do estimador, isto é, EQM(θˆ) = [B(θˆ)]2 + V ar(θˆ) Bourguignon, M. (DEST-UFRN) Inf. Estatística 30 / 70 Erro Quadrático Médio Como comparar estimadores que tenham vícios diferentes? Reposta: Erro quadrático médio! Definição Seja θˆ estimador de θ. Definimos o Erro Quadrático Médio (EQM) de θˆ porEQM(θˆ) = E[(θˆ − θ)2]. Exercício: Mostre que o EQM pode ser escrito como a soma do vício e da variância do estimador, isto é, EQM(θˆ) = [B(θˆ)]2 + V ar(θˆ) Bourguignon, M. (DEST-UFRN) Inf. Estatística 30 / 70 Exemplo 2 - cont. No Exemplo 2, mostramos que B(σˆ2) = −σ2n . É possível mostrar que B(S2) = 0 e que (se X ∼ N(µ, σ2)): V ar(S2) = 2σ4 n− 1 e V ar(σˆ 2) = ( n− 1 n )2 2σ4 n− 1 . Logo, os EQM's de S2 e de σˆ2 são, respectivamente, EQM(S2) = 2σ4 n− 1 e EQM(σˆ 2) = ( σ2 n )2 + (n− 1)2σ4 n2 = 2σ4 n − σ 4 n2 Logo, em termos de EQM, vemos que σˆ2 é melhor do que S2. Bourguignon, M. (DEST-UFRN) Inf. Estatística 31 / 70 Definição Seja θˆ um estimador do parâmetro θ. Dizemos que θˆ é consistente se seu EQM tende a zero quando o tamanho da amostra tende a infinito. Isto é, se lim n→∞EQM(θˆ) = 0 A definição acima implica que θˆ é consistente se seu vício e sua variância tendem a 0; Em poucas palavras, quando um estimador é consistente suas esti- mativas tendem a ser próximas do verdadeiro valor do parâmetro Bourguignon, M. (DEST-UFRN) Inf. Estatística 32 / 70 Distribuição amostral de um estimador consistente com n < n < n θ Bourguignon, M. (DEST-UFRN) Inf. Estatística 33 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 33 / 70 Estimação intervalar Mesmo que o estimador tenha boas características, é possível que a estimativa fornecida seja muito diferente do parâmetro; Esse problema pode ser catastrófico caso o estimador tenha grande variabilidade; Idéia: através de intervalos incorporar a variabilidade do estimador no processo de estimação. Definição Seja θ um parâmetro e θˆ um estimador de θ. Um Intervalo de Con- fiança (IC) para θ com coeficiente de confiança γ é qualquer intervalo [Li(θˆ);Ls(θˆ)] tal que P ( [Li(θˆ);Ls(θˆ)] ⊃ {θ} ) = P ( Li(θˆ) ≤ θ ≤ Ls(θˆ) ) = γ. Notação: IC(θ; γ) = [Li(θˆ);Ls(θˆ)]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 34 / 70 Estimação intervalar Mesmo que o estimador tenha boas características, é possível que a estimativa fornecida seja muito diferente do parâmetro; Esse problema pode ser catastrófico caso o estimador tenha grande variabilidade; Idéia: através de intervalos incorporar a variabilidade do estimador no processo de estimação. Definição Seja θ um parâmetro e θˆ um estimador de θ. Um Intervalo de Con- fiança (IC) para θ com coeficiente de confiança γ é qualquer intervalo [Li(θˆ);Ls(θˆ)] tal que P ( [Li(θˆ);Ls(θˆ)] ⊃ {θ} ) = P ( Li(θˆ) ≤ θ ≤ Ls(θˆ) ) = γ. Notação: IC(θ; γ) = [Li(θˆ);Ls(θˆ)]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 34 / 70 Estimação intervalar Mesmo que o estimador tenha boas características, é possível que a estimativa fornecida seja muito diferente do parâmetro; Esse problema pode ser catastrófico caso o estimador tenha grande variabilidade; Idéia: através de intervalos incorporar a variabilidade do estimador no processo de estimação. Definição Seja θ um parâmetro e θˆ um estimador de θ. Um Intervalo de Con- fiança (IC) para θ com coeficiente de confiança γ é qualquer intervalo [Li(θˆ);Ls(θˆ)] tal que P ( [Li(θˆ);Ls(θˆ)] ⊃ {θ} ) = P ( Li(θˆ) ≤ θ ≤ Ls(θˆ) ) = γ. Notação: IC(θ; γ) = [Li(θˆ);Ls(θˆ)]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 34 / 70 Estimação intervalar Mesmo que o estimador tenha boas características, é possível que a estimativa fornecida seja muito diferente do parâmetro; Esse problema pode ser catastrófico caso o estimador tenha grande variabilidade; Idéia: através de intervalos incorporar a variabilidade do estimador no processo de estimação. Definição Seja θ um parâmetro e θˆ um estimador de θ. Um Intervalo de Con- fiança (IC) para θ com coeficiente de confiança γ é qualquer intervalo [Li(θˆ);Ls(θˆ)] tal que P ( [Li(θˆ);Ls(θˆ)] ⊃ {θ} ) = P ( Li(θˆ) ≤ θ ≤ Ls(θˆ) ) = γ. Notação: IC(θ; γ) = [Li(θˆ);Ls(θˆ)]. Bourguignon, M. (DEST-UFRN) Inf. Estatística 34 / 70 Comentários O intervalo de confiança é aleatório! A probabilidade descrita na definição anterior se refere ao intervalo conter (ou cobrir) o parâmetro; A probabilidade anterior não se refere ao parâmetro pertencer ao intervalo; O parâmetro é constante, portanto não faz sentido associar proba- bilidades a ele; Após observada a amostra o intervalo não é mais aleatório, assim a probabilidade de ele conter o parâmetro é 0 ou 1; Bourguignon, M. (DEST-UFRN) Inf. Estatística 35 / 70 Comentários O intervalo de confiança é aleatório! A probabilidade descrita na definição anterior se refere ao intervalo conter (ou cobrir) o parâmetro; A probabilidade anterior não se refere ao parâmetro pertencer ao intervalo; O parâmetro é constante, portanto não faz sentido associar proba- bilidades a ele; Após observada a amostra o intervalo não é mais aleatório, assim a probabilidade de ele conter o parâmetro é 0 ou 1; Bourguignon, M. (DEST-UFRN) Inf. Estatística 35 / 70 Comentários O intervalo de confiança é aleatório! A probabilidade descrita na definição anterior se refere ao intervalo conter (ou cobrir) o parâmetro; A probabilidade anterior não se refere ao parâmetro pertencer ao intervalo; O parâmetro é constante, portanto não faz sentido associar proba- bilidades a ele; Após observada a amostra o intervalo não é mais aleatório, assim a probabilidade de ele conter o parâmetro é 0 ou 1; Bourguignon, M. (DEST-UFRN) Inf. Estatística 35 / 70 Comentários O intervalo de confiança é aleatório! A probabilidade descrita na definição anterior se refere ao intervalo conter (ou cobrir) o parâmetro; A probabilidade anterior não se refere ao parâmetro pertencer ao intervalo; O parâmetro é constante, portanto não faz sentido associar proba- bilidades a ele; Após observada a amostra o intervalo não é mais aleatório, assim a probabilidade de ele conter o parâmetro é 0 ou 1; Bourguignon, M. (DEST-UFRN) Inf. Estatística 35 / 70 Comentários O intervalo de confiança é aleatório! A probabilidade descrita na definição anterior se refere ao intervalo conter (ou cobrir) o parâmetro; A probabilidade anterior não se refere ao parâmetro pertencer ao intervalo; O parâmetro é constante, portanto não faz sentido associar proba- bilidades a ele; Após observada a amostra o intervalo não é mais aleatório, assim a probabilidade de ele conter o parâmetro é 0 ou 1; Bourguignon, M. (DEST-UFRN) Inf. Estatística 35 / 70 Se coletássemos várias amostras e, para cada uma, calculássemos o IC, esperaríamos que, 100γ% dos IC's contivessem o parâmetro; Por esse motivo, dizemos que temos uma confiança γ, isto é, uma interpretação frequentista; Em outras palavras, após coletar uma amostra não saberemos se o intervalo calculado cobrirá o parâmetro. Entretanto, a construção do intervalo garante que isso ocorre em 100γ% das vezes. Bourguignon, M. (DEST-UFRN) Inf. Estatística 36 / 70 Se coletássemos várias amostras e, para cada uma, calculássemos o IC, esperaríamos que, 100γ% dos IC's contivessem o parâmetro; Por esse motivo, dizemos que temos uma confiança γ, isto é, uma interpretação frequentista; Em outras palavras, após coletar uma amostra não saberemos se o intervalo calculado cobrirá o parâmetro. Entretanto, a construção do intervalo garante que isso ocorre em 100γ% das vezes. Bourguignon,M. (DEST-UFRN) Inf. Estatística 36 / 70 Se coletássemos várias amostras e, para cada uma, calculássemos o IC, esperaríamos que, 100γ% dos IC's contivessem o parâmetro; Por esse motivo, dizemos que temos uma confiança γ, isto é, uma interpretação frequentista; Em outras palavras, após coletar uma amostra não saberemos se o intervalo calculado cobrirá o parâmetro. Entretanto, a construção do intervalo garante que isso ocorre em 100γ% das vezes. Bourguignon, M. (DEST-UFRN) Inf. Estatística 36 / 70 0 5 10 15 20 3 4 5 6 7 8 9 Amostra _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ µ = 5 Bourguignon, M. (DEST-UFRN) Inf. Estatística 37 / 70 Estrutura 1. Introdução 2. Conceitos básicos 2.1 Parâmetros 2.2 Amostra Amostra aleatória 2.3 Estimador Distribuição amostral Características assintóticas de X¯ 3. Estimação 3.1 Estimação pontual Vício Erro-padrão EQM 3.2 Estimação intervalar IC para µ 4. Teste de hipóteses 4.1 Teste de hipóteses para µ σ2 conhecida σ2 desconhecida Bourguignon, M. (DEST-UFRN) Inf. Estatística 37 / 70 IC para µ com σ2 conhecida Encontremos um IC para µ em função de X¯. Seja z γ 2 o número tal que P (−z γ 2 < Z < z γ 2 ) = γ, onde Z ∼ N(0, 1). De fato, pelo TCL γ = P ( −z γ 2 < Z < z γ 2 ) ≈ P ( −z γ 2 < Zn < z γ 2 ) = P ( −z γ 2 < X¯ − µ σ/ √ n < z γ 2 ) = P ( −z γ 2 σ√ n < X¯ − µ < z γ 2 σ√ n ) = P ( X¯ − z γ 2 σ√ n < µ < X¯ + z γ 2 σ√ n ) Logo um IC para µ com coeficiente de confiança γ é dado por IC(µ; γ) = [ X¯ − z γ 2 σ√ n ; X¯ + z γ 2 σ√ n ] . Bourguignon, M. (DEST-UFRN) Inf. Estatística 38 / 70 Exemplo Uma máquina estava regulada para encher pacotes de café com peso médio de 500g e variância de 196g2. Uma a.a. de 49 pacotes forneceu média de 485g. O que podemos dizer sobre a verdadeira média com confiança de 95%? Temos que x¯ = 485, n = 49, σ2 = 196 e γ = 0.95. Primeiramente, z γ 2 = z0.475 = 1.96. Logo, IC(µ; 0.95) = [ 485− 1.96× 14 7 ; 485 + 1.96× 14 7 ] = [481.08; 488.92]. Com confiança de 95% podemos afirmar que a máquina está desregulada. Bourguignon, M. (DEST-UFRN) Inf. Estatística 39 / 70 Exemplo Uma máquina estava regulada para encher pacotes de café com peso médio de 500g e variância de 196g2. Uma a.a. de 49 pacotes forneceu média de 485g. O que podemos dizer sobre a verdadeira média com confiança de 95%? Temos que x¯ = 485, n = 49, σ2 = 196 e γ = 0.95. Primeiramente, z γ 2 = z0.475 = 1.96. Logo, IC(µ; 0.95) = [ 485− 1.96× 14 7 ; 485 + 1.96× 14 7 ] = [481.08; 488.92]. Com confiança de 95% podemos afirmar que a máquina está desregulada. Bourguignon, M. (DEST-UFRN) Inf. Estatística 39 / 70 Exemplo Uma máquina estava regulada para encher pacotes de café com peso médio de 500g e variância de 196g2. Uma a.a. de 49 pacotes forneceu média de 485g. O que podemos dizer sobre a verdadeira média com confiança de 95%? Temos que x¯ = 485, n = 49, σ2 = 196 e γ = 0.95. Primeiramente, z γ 2 = z0.475 = 1.96. Logo, IC(µ; 0.95) = [ 485− 1.96× 14 7 ; 485 + 1.96× 14 7 ] = [481.08; 488.92]. Com confiança de 95% podemos afirmar que a máquina está desregulada. Bourguignon, M. (DEST-UFRN) Inf. Estatística 39 / 70 Comentários No exemplo anterior, supomos que a desregulagem afeta apenas a média com que os pacotes são preenchidos; E se afetasse a variância? Em outras palavras, e se σ2 for desconhecida? Bourguignon, M. (DEST-UFRN) Inf. Estatística 40 / 70 Comentários No exemplo anterior, supomos que a desregulagem afeta apenas a média com que os pacotes são preenchidos; E se afetasse a variância? Em outras palavras, e se σ2 for desconhecida? Bourguignon, M. (DEST-UFRN) Inf. Estatística 40 / 70 Comentários No exemplo anterior, supomos que a desregulagem afeta apenas a média com que os pacotes são preenchidos; E se afetasse a variância? Em outras palavras, e se σ2 for desconhecida? Bourguignon, M. (DEST-UFRN) Inf. Estatística 40 / 70 IC para µ com σ2 desconhecida (grandes amostras) Temos primeiramente que S2 é um estimador consistente de σ2. Por- tanto, em grandes amostras (n muito grande), S2 ≈ σ2. Daí podemos utilizar o seguinte IC para µ quando σ2 é desconhecida: IC(µ; γ) = [ X¯ − z γ 2 S√ n ; X¯ + z γ 2 S√ n ] . Se o tamanho amostral é suficientemente grande, o IC acima fornece aproximadamente confiança γ. Bourguignon, M. (DEST-UFRN) Inf. Estatística 41 / 70 IC para µ com σ2 desconhecida (grandes amostras) Temos primeiramente que S2 é um estimador consistente de σ2. Por- tanto, em grandes amostras (n muito grande), S2 ≈ σ2. Daí podemos utilizar o seguinte IC para µ quando σ2 é desconhecida: IC(µ; γ) = [ X¯ − z γ 2 S√ n ; X¯ + z γ 2 S√ n ] . Se o tamanho amostral é suficientemente grande, o IC acima fornece aproximadamente confiança γ. Bourguignon, M. (DEST-UFRN) Inf. Estatística 41 / 70 IC para µ com σ2 desconhecida (grandes amostras) Temos primeiramente que S2 é um estimador consistente de σ2. Por- tanto, em grandes amostras (n muito grande), S2 ≈ σ2. Daí podemos utilizar o seguinte IC para µ quando σ2 é desconhecida: IC(µ; γ) = [ X¯ − z γ 2 S√ n ; X¯ + z γ 2 S√ n ] . Se o tamanho amostral é suficientemente grande, o IC acima fornece aproximadamente confiança γ. Bourguignon, M. (DEST-UFRN) Inf. Estatística 41 / 70 IC para µ com σ2 desconhecida (amostras normais) Caso o valor de n seja pequeno, o valor fornecido por S2 pode estar distante de σ2; Portanto, a distribuição de X¯−µ S/ √ n pode não ser muito próxima da de v.a. Z ∼ N(0, 1); Entretanto, supondo que os dados são observados de uma v.a. nor- mal, pode-se mostrar que a v.a. T = X¯ − µ S/ √ n ∼ tn−1. O símbolo T ∼ tr significa que a v.a. T tem uma distribuição t- student com r graus de liberdade (g.l.). Bourguignon, M. (DEST-UFRN) Inf. Estatística 42 / 70 IC para µ com σ2 desconhecida (amostras normais) Caso o valor de n seja pequeno, o valor fornecido por S2 pode estar distante de σ2; Portanto, a distribuição de X¯−µ S/ √ n pode não ser muito próxima da de v.a. Z ∼ N(0, 1); Entretanto, supondo que os dados são observados de uma v.a. nor- mal, pode-se mostrar que a v.a. T = X¯ − µ S/ √ n ∼ tn−1. O símbolo T ∼ tr significa que a v.a. T tem uma distribuição t- student com r graus de liberdade (g.l.). Bourguignon, M. (DEST-UFRN) Inf. Estatística 42 / 70 IC para µ com σ2 desconhecida (amostras normais) Caso o valor de n seja pequeno, o valor fornecido por S2 pode estar distante de σ2; Portanto, a distribuição de X¯−µ S/ √ n pode não ser muito próxima da de v.a. Z ∼ N(0, 1); Entretanto, supondo que os dados são observados de uma v.a. nor- mal, pode-se mostrar que a v.a. T = X¯ − µ S/ √ n ∼ tn−1. O símbolo T ∼ tr significa que a v.a. T tem uma distribuição t- student com r graus de liberdade (g.l.). Bourguignon, M. (DEST-UFRN) Inf. Estatística 42 / 70 IC para µ com σ2 desconhecida (amostras normais) Caso o valor de n seja pequeno, o valor fornecido por S2 pode estar distante de σ2; Portanto, a distribuição de X¯−µ S/ √ n pode não ser muito próxima da de v.a. Z ∼ N(0, 1); Entretanto, supondo que os dados são observados de uma v.a. nor- mal, pode-se mostrar que a v.a. T = X¯ − µ S/ √ n ∼ tn−1. O símbolo T ∼ tr significa que a v.a. T tem uma distribuição t- student com r graus de liberdade (g.l.). Bourguignon, M. (DEST-UFRN) Inf. Estatística 42
Compartilhar