Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 Parte I 1. Inferência Estatística Trata-se do processo de se obter informações sobre uma população a partir dos resultados observados numa amostra. De um modo geral, tem-se uma população com um grande número de elementos e deseja-se, a partir de uma amostra dessa população, “conhecer o mais próximo possível” algumas características da população. Toda conclusão tirada por uma amostragem, quando generalizada para a população, virá acompanhada de um grau de incerteza ou risco. Ao conjunto de técnicas e procedimentos que permitem dar ao pesquisador um grau de confiabilidade, de confiança nas afirmações que faz sobre a população, baseados nos resultados provenientes de uma amostra, damos o nome de Inferência Estatística. O problema fundamental da estatística é, portanto, medir o grau de incerteza ou risco dessas generalizações. Os instrumentos da Inferência Estatística permitem a viabilidade das conclusões por meio de afirmações estatísticas. 1.1. Definições importantes - População é uma coleção completa de todos os elementos a serem estudados. (valores, pessoas, medidas, etc). A população é o conjunto Universo, podendo ser finita ou infinita. - Finita - apresenta um número limitado de observações, que é passível de contagem. - Infinita - apresenta um número ilimitado de observações que é impossível de contar e geralmente. Exemplos: – Todos as cabeças de gado criados em confinamento; – Todas as plantas de uma determinada cultivar de milho; – Todos os estudantes da UFVJM. - Amostra é uma subcoleção de elementos extraídos de uma população e deverá ser considerada finita. A amostra deve ser selecionada seguindo certas regras e deve ser representativa, de modo que ela represente todas as características da População. Se esses elementos são selecionados de tal maneira que cada um deles tenha a mesma chance de ser selecionado, temos uma Amostra Aleatória. - Parâmetro é uma medida numérica que descreve uma característica de uma população. Geralmente é representada pela letra grega θ. Alguns parâmetros recebem nomes especiais. A 2 média (µ), a variância (σ2) e o coeficiente de correlação (ρ) são exemplos de parâmetros populacionais. - Estimador: também chamado “estatística de um parâmetro populacional” é uma medida numérica que descreve uma característica determinada na amostra, uma função de seus elementos. Genericamente, é representada por θ̂. A média amostral (�̅�) e a variância amostral (s 2 ) são exemplos de estimadores. Os estimadores são funções de variáveis aleatórias e , portanto, eles também são variáveis aleatórias, desta forma, eles também possuem distribuições de probabilidade associadas. - Estimativa: aos valores numéricos assumidos pelos estimadores, denominamos estimativas. 2. Distribuição Amostral Como foi visto, o problema da Inferência Estatística é fazer uma afirmação sobre os parâmetros da população por meio de amostras. 2.1. Distribuição Amostral da Média Suponha uma população identificada pela variável aleatória X, cujos parâmetros média populacional 𝜇 = 𝐸(𝑋) e variância 𝜎2 = 𝑉𝑎𝑟(𝑋) são supostamente conhecidos. Vamos retirar todas as amostras possíveis, com reposição, de tamanho n dessa população e para cada uma delas, calcular a média �̅�. Vamos supor a seguinte população {2,3,4,5} com média 𝜇 = 3,5 e variância 𝜎2 = 1,25. Vamos relacionar todas as amostras possíveis de tamanho 2, com reposição, desta população. POPULAÇÃO PARÂMETROS AMOSTRAS ESTIMADORES 3 (2,2) (2,3) (2,4) (2,5) (3,2) (3,3) (3,4) (3,5) (4,2) (4,3) (4,4) (4,5) (5,2) (5,3) (5,3) (5,5) Agora, vamos calcular a média de cada amostra. Teremos: 2,0 2,5 3,0 3,5 2,5 3,0 3,5 4,0 3,0 3,5 4,0 4,5 3,5 4,0 4,5 5,0 Por fim, vamos calcular a média das médias, ou seja, 𝐸(�̅�) = 2,0 + 2,5 + ⋯ + 5,0 16 = Agora, vamos calcular a variância: 𝑉𝑎𝑟(�̅�) = 1 𝑛 ∑(𝑋𝑖 − �̅�) 2 𝑛 𝑖=1 = 1 𝑛 (𝑋1 − �̅�) 2 + (𝑋1 − �̅�) 2 + ⋯ + (𝑋𝑛 − �̅�) 2 𝑉𝑎𝑟(�̅�) = 1 𝑛 [(2,0 − 3,5)2 + (2,5 − 3,5)2 + ⋯ + (5,0 − 3,5)2] 𝑉𝑎𝑟(�̅�) = Sendo assim, 𝑉𝑎𝑟(�̅�) = 𝑉𝑎𝑟(𝑋) 𝑛 , em que n é o tamanho das amostras retiradas da população. No nosso exemplo, 𝑉𝑎𝑟(�̅�) = 𝑉𝑎𝑟(𝑋) 𝑛 = 1,25 2 = ______________________________________________________________________ Teorema: para amostras casuais simples(𝑋1, 𝑋2, … , 𝑋𝑛) retiradas de uma população com média 𝜇 e variância 𝜎2, a distribuição amostral da média = 𝑋1+𝑋2+⋯+𝑋𝑛 𝑛 , aproxima-se de uma distribuição normal com média 𝜇 e variância 𝜎2 𝑛 . Dessa forma: 𝐸(�̅�) = 𝜇 e 𝑉𝑎𝑟(�̅�) = 𝜎2 𝑛 4 Logo, o desvio padrão amostral é dado por 𝜎 √𝑛 . Assim, se 𝑋~𝑁(𝜇; 𝜎2) → �̅�~𝑁 (𝜇; 𝜎2 𝑛 ) ∀ 𝑛 > 1. Para padronizar a variável aleatória, temos: 𝑍 = �̅� − 𝜇 𝜎 √𝑛 → 𝑍~𝑁(0; 1) ____________________________________________________________________________ 2.2. Distribuição amostral da proporção Outro parâmetro de interesse em estudos estatísticos é a proporção (p). Exemplo: para detectar o apoio popular a um projeto governamental de reforma agrária, foram entrevistadas 400 pessoas espalhadas em varias capitais. A amostra consiste das 400 pessoas que responderam sim (concordam com o projeto) ou não (discordam). Neste caso, a informação desejada é a PROPORÇÃO das pessoas que concordam com o referido projeto. Então, o parâmetro de interesse é p (proporção) e seu estimador é dado por: �̂� = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑒𝑛𝑡𝑟𝑒𝑣𝑖𝑠𝑡𝑎𝑑𝑜𝑠 𝑞𝑢𝑒 𝑎𝑝𝑟𝑜𝑣𝑎𝑚 𝑜 𝑝𝑟𝑜𝑗𝑒𝑡𝑜 400 Genericamente, �̂� = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑖𝑡𝑒𝑛𝑠 𝑐𝑜𝑚 𝑎 𝑐𝑎𝑟𝑎𝑐𝑡𝑒𝑟í𝑠𝑡𝑖𝑐𝑎𝑠 𝑛𝑎 𝑎𝑚𝑜𝑠𝑡𝑟𝑎 𝑛 em que n é o tamanho da amostra. , Quando 𝑛 → ∞, �̂� ≅ 𝑁 (𝑝; 𝑝(1−𝑝) 𝑛 ) em que 𝐸(�̂�) = 𝑝 e 𝑉𝑎𝑟(�̂�) = 𝑝(1−𝑝) 𝑛 . Note que a variância da proporção amostral é a variância da população dividida pelo número de elementos na amostra, e para n grande, 𝑍 = �̂� − 𝑝 √𝑝(1 − 𝑝) 𝑛 ≅ 𝑁(0,1) Exemplo dado em sala de aula. 3. Teoria da Estimação 3.1. Estimação Pontual: Quando a estimativa de um parâmetro é representada apenas por um valor. A principal desvantagem é que a estimativa pontual é pouco informativa. Ela não fornece nenhuma ideia do 5 erro que se comete ao assumir o valor da estimativa como igual ao verdadeiro valor do parâmetro desconhecido. O Método da Máxima Verossimilhança: O método da Máxima Verossimilhança foi introduzido por R.A. Fisher em 1922. Esse método exige que a função de verossimilhança seja conhecida ou pressuposta. A função de verossimilhança é a distribuição de probabilidade da amostra aleatória dada, em geral, pelo produtório das distribuições de probabilidade individualmente. Para apresentar o conceito vamos considerar 𝑋1, 𝑋2, … , 𝑋𝑛 uma amostra de uma população com densidade 𝑓(𝑥), determinada pelos parâmetros 𝜃𝑖, 𝑖 = 1,2,3 … , 𝑘. Inicialmente, vamos considerar a situação específica de apenas um parâmetro 𝜃 (𝑘 = 1). Para uma amostra aleatória particular 𝑋1, 𝑋2, … , 𝑋𝑛, o estimador de máxima verossimilhança, θ̂, do parâmetro 𝜃 é aquele que maximiza a função de verossimilhança conjunta de 𝑋1, 𝑋2, … , 𝑋𝑛. Pelo fato de os valores amostrais 𝑋1, 𝑋2, … , 𝑋𝑛, é possível definir a densidade conjunta da função de verossimilhança (𝐿) pelo produtório das densidades de cada 𝑋𝑖, 𝑖 = 1,2,3 … , 𝑛. Assim, a função de verossimilhança PE dada por: 𝐿 = 𝑓(𝑋1)𝑓(𝑋2) ⋯𝑓(𝑋𝑛) = ∏ 𝑓(𝑋𝑖) 𝑛 𝑖=1 O estimador de máxima verossimilhança (EMV) é aquele que maximiza 𝐿. Para obtermos tal estimador, basta tomarmos a primeira derivada de 𝐿 em relação ao parâmetro 𝜃, igualar a zero e resolver para 𝜃. Quando se tem mais de um parâmetro, tomam-se as derivadas parciais de 𝐿 com respeito a cada um deles, iguala-se cada derivada a zero e resolve-se o sistema formado, obtendo-se o EMV dos parâmetros. Algumas propriedades matemáticas da função 𝐿 garantem a possibilidade de se usar a função suporte 𝑆 = ln(𝐿) em seu lugar, já que apresentam o mesmo máximo para o valor de 𝜃. Isso é feito para facilitar a obtenção do máximo, uma vez que o produtório se transforma em somatório. Exemplo em sala 3.2. Estimação Intervalar A estimação pontual não fornece a ideia da margem de erro que se comete ao estimar um parâmetro de interesse. A estimação por intervalo procura corrigir essa lacuna a partir da criação de um intervalo que garanta uma alta probabilidade de conter o verdadeiro valor do parâmetro desconhecido. 6 Uma da maneira de se expressar a precisão da estimação é estabelecer limites da forma [a,b], que com certa probabilidade, incluam o verdadeiro valor do parâmetro de interesse. Sendo assim, a estimação por intervalo consiste na fixação de dois valores, a e b, tais que (1 − 𝛼) seja a probabilidade de que o intervalo, por eles determinado, contenha o real valor de 𝜃. O intervalo [a,b] pode ser constituído a partir das distribuições amostrais. Ou seja, utilizando as distribuições de amostragem, podemos obter expressões do tipo: 𝑃(𝑎 < 𝜇 < 𝑏) = 1 − 𝛼 𝑃(𝑎 < 𝜎2 < 𝑏) = 1 − 𝛼 Tais expressões podem ser interpretadas da seguinte maneira: Existe 100(1- 𝛼)% de confiança que o verdadeiro valor de 𝜇 ou (𝜎2) esteja contido no intervalo [a,b]. Logo, [a,b] pode ser considerado uma estimativa para 𝜇 ou (𝜎2) em que a probabilidade (1- 𝛼) ou 100(1- 𝛼)% expressa o grau de confiança que se tem na estimação. Se [a,b] é uma estimativa com 100(1- 𝛼)% de confiança para θ, então, i. O intervalo [a,b] é chamado intervalo de confiança para θ. ii. a e b são chamados “limite inferior” e “limite superior” do intervalo de confiança para θ. iii. A probabilidade (1- 𝛼) = 100(1- 𝛼)% é chamada coeficiente de confiança. iv. A probabilidade 𝛼 é chamada nível de significância. 3.2.1. Intervalo de Confiança para a média populacional (𝝁) com variância (𝝈𝟐) conhecida. Seja 𝑋~𝑁(𝜇; 𝜎2) , logo, �̅�~𝑁 (𝜇; 𝜎2 𝑛 ) então, o desvio padrão amostral é dado por 𝜎 √𝑛 . Assim, 𝑍 = �̅� − 𝜇 𝜎 √𝑛 ~𝑁(0; 1) Então temos que, 7 Sendo assim, o intervalo com 1-α ou 100(1- 𝛼)% de confiança para 𝜇 com 𝜎2 conhecida é: 𝐼𝐶(1−𝛼)(𝜇) = (�̅� − 𝑧𝛼 2⁄ × 𝜎 √𝑛 ; �̅� + 𝑧𝛼 2⁄ × 𝜎 √𝑛 ) Obs: os níveis de confiança de confiança mais usados são: 1-α = 90% 𝑧𝛼 2⁄ = ±1,64 1-α = 95% 𝑧𝛼 2⁄ = ±1,96 1-α = 99% 𝑧𝛼 2⁄ = ±2,58 Exemplo dado em sala 3.2.2. Distribuição t de Student Foi visto que �̅�~𝑁 (𝜇; 𝜎2 𝑛 ) e que 𝑍 = �̅�−𝜇 𝜎 √𝑛 ~𝑁(0; 1). No entanto, quando não se conhece a variância populacional, situação mais comum na prática, se as amostras forem pequenas (n < 30) e s 2 (variância da amostra), sujeita a variação amostral for utilizada como estimador de 𝜎2, os valores estandartizados, de uma população normal: 𝑡𝑐 = �̅� − 𝜇 𝑠 √𝑛 ~𝑡𝑛−1 Em palavras, 𝑡𝑐 segue uma distribuição t com (n-1) graus de liberdade. Características da distribuição t - simétrica em relação a media; - forma de sino; - quando 𝑛 → ∞, a distribuição t se torna equivalente a distribuição normal; - possui (n-1) graus de liberdade. 8 3.3.3. Intervalo de Confiança para a média populacional (𝝁) com variância (𝝈𝟐) desconhecida. Um intervalo com 1-α ou 100(1- 𝛼)% de confiança para 𝜇 será: 𝐼𝐶(1−𝛼)(𝜇) = (�̅� − 𝑡(𝑛−1; 𝛼 2⁄ ) × 𝑠 √𝑛 ; �̅� + 𝑡(𝑛−1; 𝛼 2⁄ ) × 𝑠 √𝑛 ) em que: s é o desvio padrão amostral 𝑡(𝑛−1; 𝛼 2⁄ ) é o valor tabelado da distribuição t de Student. Exercícios 1. Por meio de uma amostra aleatória simples referente ao numero de ocorrências criminais num certo bairro na cidade de São Paulo, coletada durante 30 dias, obteve-se os seguintes valores: 7 11 8 9 10 14 6 8 8 7 8 10 14 12 14 12 9 11 13 13 8 6 8 13 10 14 5 14 10 10 Construa um intervalo de confiança com: a) 90% b) 95% c) 99% 3.3.4. Intervalo de confiança para diferença de médias 1 2 com variâncias 2 1 e 2 2 conhecidas. 9 Seja 21 1 1;X N e 22 2 2;X N variáveis aleatórias associadas às populações 1 e 2. Os estimadores por intervalo para 1 2 , obtidos a partir de amostras 1n e 2n retiradas dessas populações serão dados pelos seus intervalos de confiança. Para 2 1 e 2 2 conhecidos, temos: 2 2 2 2 1 2 1 2 1 2 1 2 1 21 1 2 1 22 2 ;IC X X z X X z n n n n Em que 1X é a média da amostra 1n e 2X é a média da amostra 2n . OBS: a intenção nesse caso é concluir se há diferença entre as duas médias. Assim, se o intervalo de confiança contiver o valor “zero”, não temos evidencias significativas para afirmar que uma média difere da outra. Exemplo: duas variáveis aleatórias 1X e 2X seguem distribuições normais com variâncias 2 1 3,64 e 2 2 4,03 . Construa um intervalo de confiança para a diferença de médias sabendo que em amostras recolhidas obteve-se: AMOSTRA 1 1 32n 1 16,20X AMOSTRA 2 2 40n 2 14,85X RESOLUÇÃO: 1 295% 3,64 4,03 3,64 4,03 16,20 14,85 1,96 ; 16,20 14,85 1,96 32 40 32 40 IC 1 295% 0,44;2,26IC COMO O INTERVALO DE CONFIANÇA NÃO CONTEM O ZERO, PODEMOS DIZER QUE HÁ EVIDENCIAS ESTATÍSTICAS PARA AFIRMAR QUE EXISTE DIFERENÇA ENTRE AS MÉDIAS. 3.3.5. Intervalo de confiança para diferença de médias 1 2 com variâncias 2 1 e 2 2 desconhecidas, porém iguais ( 2 2 1 2 ). Neste caso, um intervalo de confiança 100 1 % de confiança para 1 2 será: 10 1 2 1 2 2 2 1 2 1 2 1 21 2; 2; 1 2 1 22 2 1 1 1 1 ;p p n n n n IC X X t s X X t s n n n n em que 2 ps é a variância amostral ponderada 2 21 1 2 22 1 2 1 1 2 p n s n s s n n 3.3.6. Intervalo de confiança para diferença de médias 1 2 com variâncias 2 1 e 2 2 desconhecidas, porém diferentes ( 2 2 1 2 ). Neste caso, um intervalo de confiança 100 1 % de confiança para 1 2 será: 2 2 2 2 1 2 1 2 1 2 1 2 1 21 ; ; 1 2 1 22 2 ; v v s s s s IC X X t X X t n n n n Em que, os graus de liberdade são dados pela fórmula de Satterthwaite, 1946. 2 2 2 1 2 1 2 2 2 2 2 1 2 1 2 1 21 1 s s n n v s s n n n n 3.2.3. Intervalos de Confiança para a Proporção Um intervalo com 100 1 % de confiança para p é dado por: 𝐼𝐶(1−𝛼)(𝑝) = [�̂� − 𝑧𝛼 2 × √ �̂�(1 − �̂�) 𝑛 ; �̂� + 𝑧𝛼 2 × √ �̂�(1 − �̂�) 𝑛 ] Exemplo: Pretende-se estimar a proporção p de cura, através do uso de certo medicamento em doentes contaminados com cercaria, que é uma das formas da esquistossomose. Um experimento consistiu de aplicar o medicamento em 200 pacientes, escolhidos ao acaso, e observou-se que 160 deles foram curados. O que podemos dizer da proporção pna população em geral? 11 Uma estimativa pontual para p é �̂� = 160 200 = 0,8.⁄ entretanto, podemos dizer mais que isso. Apesar da proporção amostral �̂� não ter distribuição Normal, o Teorema Central do Limite nos garante que, para um tamanho de amostra grande, podemos aproximá-la para a Normal. Desse modo, segue que: �̂� ~𝑁 (𝑝; 𝑝(1 − 𝑝) 𝑛 ) Assim, um intervalo de confiança para a proporção com 95% de confiança é dado por: 0,95 0,8(1 0,2) 0,8(1 0,2) 0,8 1,96 ;0,8 1,96 200 200 IC p Assim, 0,95 0,745;0,855IC p Exercícios 1. Retiramos de uma população uma amostra de 100 elementos e encontramos 20 sucessos. Sendo 𝛼 = 1%, determine um intervalo de confiança para a proporção real de sucessos na população. Resposta: 0,99% 9,72%;30,28%IC p 2. Para se estimar a porcentagem de alunos de um curso favoráveis a modificação do currículo escolar, tomou-se uma amostra de 100 alunos, dos quais, 80 foram favoráveis. Construa um intervalo de confiança a 96% para a proporção de todos os alunos favoráveis a modificação. Resposta: 0,96% 71,8%;88,2%IC p Parte II Testes de Hipóteses Trata-se de uma técnica estatística para se fazer inferência. A partir de um teste de hipóteses, realizado com os dados amostrais, pode-se fazer inferência sobre a população e tomar decisões. 12 No caso dos intervalos de confiança, buscava-se “cercar” o parâmetro de interesse. Agora serão formuladas hipóteses quanto ao valor dos parâmetros populacionais, e pelos elementos amostrais, é realizado um teste, que indicará a aceitação ou rejeição das hipóteses formuladas. 1. Principais conceitos a) Hipótese estatística: trata-se de uma suposição quanto ao valor de um parâmetro populacional, ou quanto à natureza da distribuição de probabilidade de uma variável aleatória populacional. Exemplos: (i) A altura média da população brasileira é 1,65m, ou seja, 𝐻: 𝜇 = 1,65. (ii) A variância populacional dos salários num determinado país é de $5.000,002, ou seja, 𝜎2 = 50002. b) Teste de hipótese: é uma regra de decisão para aceitar ou rejeitar uma hipótese estatística com base nos elementos de uma amostra. c) Tipos de hipóteses: designa-se por 𝐻0, chamada “hipótese nula”, a hipótese a ser testada, e por 𝐻1 ou 𝐻𝑎, a hipótese alternativa. A hipótese nula expressa uma igualdade, enquanto a hipótese alternativa é dada por uma desigualdade. Exemplos: (i) 𝐻0: 𝜇 = 1,65 versus 𝐻1: 𝜇 ≠ 1,65 Esse tipo de formulação dará origem a um teste bicaudal ou bilateral. (ii) 𝐻0: 𝜇 = 1,65 versus 𝐻1: 𝜇 > 1,65 Esse tipo de formulação dará origem a um teste unicaudal ou unilateral à direita. (iii) 𝐻0: 𝜇 = 1,65 versus 𝐻1: 𝜇 < 1,65 Esse tipo de formulação dará origem a um teste unicaudal ou unilateral à esquerda. OBS1: Estabelecer 𝐻0e 𝐻1 depende exclusivamente da natureza do problema. OBS2: A rejeição de 𝐻0 implicará na aceitação de 𝐻1. 13 d) Tipos de Erros: como a tomada de decisões sobre a aceitação ou rejeição de uma hipótese estatística é baseada apenas nas informações contidas numa amostra, dois tipos de erros podem ser cometidos: (i) Erro Tipo I: rejeitar 𝐻0 quando ela é verdadeira. (ii) Erro Tipo II: aceitar 𝐻0 quando ela é falsa. A probabilidade de se cometer Erro do Tipo I é denotada por 𝛼 e é chamada nível de significância do teste. A probabilidade se cometer Erro do Tipo II é denotada por 𝛽. Sendo assim, P(Erro Tipo I) = P(rejeitar H0 |H0 verdadeira) = 𝛼 P(Erro Tipo II) = P(aceitar H0 |H0 falsa) = 𝛽 O quadro a seguir resume a natureza dos erros envolvidos no processo de tomada de decisões por meio de testes de hipóteses: H0 verdadeira H0 falsa Rejeição de H0 Erro Tipo I (𝛼) Decisão correta (1- 𝛽) Aceitação de H0 Decisão correta (1- 𝛼) Erro Tipo I (𝛽) O tomador de decisões deseja, obviamente, reduzir ao mínimo a probabilidade de se cometer os dois tipos de erro. Tarefa difícil, pois, para um determinado tamanho de amostra, a probabilidade de se cometer Erro Tipo II aumenta à medida que diminui a probabilidade de se cometer Erro Tipo I e vice versa. A redução simultânea dos dois tipos de erros só poderá ser alcançada pelo aumento do tamanho da amostra. 2. Testes de Significância Os passos para a execução de um teste de hipótese são: (i) Formular as hipóteses 𝐻0e 𝐻1 seguindo a natureza do problema em estudo. (ii) Especificar o nível de significância 𝛼 (iii) Estabelecer a estatística adequada (z, t, 𝜒2, F), segundo as informações disponíveis e determinar as regiões de rejeição e aceitação de 𝐻0. 14 (iv) Calcular o valor da estatística que definirá a decisão. (v) Se o valor da estatística pertencer à região de aceitação de 𝐻0, aceita-se a hipótese nula, caso contrário, rejeita-se 𝐻0 com nível de significância 𝛼. 2.1. Teste de hipótese para a média (𝝁) de uma população Normal com variância (𝝈𝟐) conhecida: (i) Formular as hipóteses 𝐻0: 𝜇 = 𝜇0 𝐻1 : uma das alternativas 𝐻1: 𝜇 ≠ 𝜇0 (teste bilateral) 𝐻1: 𝜇 > 𝜇0 (teste unilateral à direita) 𝐻1: 𝜇 < 𝜇0 (teste unilateral à esquerda) (ii) Nível de significância 𝛼. (iii) Estatística do teste: 𝑍 = �̅� − 𝜇 𝜎 √𝑛 ~𝑁(0; 1) Se 𝐻1: 𝜇 ≠ 𝜇0, então: Se 𝐻1: 𝜇 > 𝜇0, então, 15 Se 𝐻1: 𝜇 < 𝜇0, então, em que 𝑅𝑅𝐻0 é a região de rejeição de 𝐻0 e 𝑅𝐴𝐻0 é a região de aceitação de 𝐻0. (iv) Sob 𝐻0 calcular 𝑍𝑐 = �̅� − 𝜇0 𝜎 √𝑛 (v) Rejeita-se 𝐻0 com nível de significância 𝛼 se 𝑍𝑐 ∈ 𝑅𝑅𝐻0 Exemplo: técnicas do INMETRO desejam avaliar um processo para conservar alimentos enlatados, cuja principal variável de interesse é o tempo de duração dos alimentos. O tempo segue uma distribuição normal com variância 100. A indústria que utiliza o processo afirma que o tempo médio de duração é de 70 dias. Foi retirada uma amostra de 25 latas e a média encontrada foi 60 dias. O que se pode concluir sobre o tempo médio de duração dos enlatados? Utilize 𝛼 = 0.01. 𝐻0: 𝜇 = 70 𝐻1: 𝜇 < 70 𝛼 = 0.01 𝑍𝑐 = �̅� − 𝜇0 𝜎 √𝑛 16 Então, 𝑍𝑐 = 60 − 70 10 √25 = −5 Conclusão: existe evidencia estatística para rejeitar 𝐻0: 𝜇 = 70 ao nível 𝛼 = 0.01. Portanto, pode-se concluir que o tempo médio de duração dos enlatados é menor que 70 dias. 2.2. Teste de hipótese para a média (𝝁) de uma população Normal com variância (𝝈𝟐) desconhecida: (i) 𝐻0: 𝜇 = 𝜇0 𝐻1 : uma das alternativas 𝐻1: 𝜇 ≠ 𝜇0 (teste bilateral) 𝐻1: 𝜇 > 𝜇0 (teste unilateral à direita) 𝐻1: 𝜇 < 𝜇0 (teste unilateral à esquerda) (ii) Nível de significância 𝛼. (iii) Estatística do teste: 𝑡 = �̅� − 𝜇 𝜎√𝑛 ~𝑡(𝑛−1) Se 𝐻1: 𝜇 ≠ 𝜇0, então: 17 Se 𝐻1: 𝜇 > 𝜇0, então, Se 𝐻1: 𝜇 < 𝜇0, então, em que 𝑅𝑅𝐻0 é a região de rejeição de 𝐻0 e 𝑅𝐴𝐻0 é a região de aceitação de 𝐻0. (vi) Sob 𝐻0 calcular 𝑡𝑐 = �̅� − 𝜇0 𝑠 √𝑛 (vii) Rejeita-se 𝐻0 com nível de significância 𝛼 se 𝑍𝑐 ∈ 𝑅𝑅𝐻0 18 Exemplo: Deseja-se investigar certa moléstia que ataca o rim, alterando o consumo de oxigênio desse órgão. Para indivíduos sadios, admite-se que esse consumo tem distribuição Normal com média 12 cm 3 /min. Os valores medidos em cinco pacientes com a moléstia foram: 14,4; 12,9; 15,0; 13,7; 13,5. Qual seria a conclusão ao nível de 1% de significância? E a 5%? 𝐻0: a moléstia não altera a média do consumo renal de oxigenio 𝐻1: indivíduos portadores da moléstia tem média alterada. Ou seja: 𝐻0: 𝜇 = 12 𝐻1: 𝜇 ≠ 12 𝛼 = 0.01 𝑡𝑐 = �̅̅� − 𝜇0 𝑠 √𝑛 Então, 𝑍𝑐 = �̅̅� − 12 𝑠 √5 = 13,90 − 12 0,82 √5 = 5,18 Conclusão: existe evidência estatística para rejeitar 𝐻0 ao nível 𝛼 = 0.01. Portanto, pode-se concluir que a moléstia tem influencia sobre o consumo renal médio de oxigênio.
Compartilhar