Baixe o app para aproveitar ainda mais
Prévia do material em texto
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 78 3 Testes de Hipótese Testes Paramétricos Conteúdo Parte I 3.1 Fenômenos, 79 3.2 Probabilidade, 80 3.3 Modelos probabilísticos, 83 3.4 O Método Estatístico, 88 3.5 Inferência Estatística, 91 3.6 Testes de Hipóteses, 94 O que são Testes de Hipóteses, 94 Igualdades e diferenças estatísticas, 95 Teoria da Decisão Estatística, 96 O p-value, 97 Parte II 3.7 Teste T de igualdade das médias de duas amostras independentes, 99 3.8 Amostras pareadas, 108 3.9 Análise da Variância, 114 Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 79 Módulo 3 Testes de Hipótese: Testes Paramétricos Parte I Estatística Inferencial: Fundamentos 3.1. Fenômenos Existem dois tipos de fenômenos: os determinísticos e os não-determinísticos. Os fenômenos determinísticos são aqueles estudados, por exemplo, na Física e na Química do ensino médio. Quando fazemos uma experiência no laboratório, todas as condições do experimento são controladas: a temperatura, a umidade, a luz ambiente. Quando passamos uma corrente elétrica por uma resistência, já sabemos exatamente o que irá ocorrer - os fenômenos de transformação de energia, de geração de calor, de mudança de coloração, etc. Se, no laboratório de Química, reagirmos um ácido com uma base, serão produzidos sal e água. A reação NaOH + HCl sempre produziu NaCl + H2O, e irá produzir o mesmo resultado sempre que repetirmos a reação. Se um corpo parte do repouso, em movimento retilíneo com velocidade uniforme v, o espaço x percorrido ao fim de um tempo t será dado por x = xo + vt. Um corpo em queda livre, no vácuo, segue as condições conforme a figura 1.1, abaixo: Neste tipo de experimento, de causa e efeito, procuramos ontrolar e variar as causas, medindo seu efeito (ou seus efeitos). Quando um corpo cai em queda livre, e o faz sob a ação da gravidade, podemos considerar ou não a resistência do ar, podemos imprimir uma aceleração inicial, podemos retardar sua queda ou modificar sua trajetória alterando sua forma, enfim, podemos controlar a experiência a fim de medir os resultados provocados pela variação das condições. Resumindo, fenômenos determinísticos ocorrem sempre da mesma maneira e as mesmas causas produzirão os mesmos efeitos. No caso do fenômeno, ou do experimento não-determinístico, acontece o oposto. Veja as características de um fenômeno não- determinístico, ou aleatório Características de um Experimento Aleatório Par de dados V = gt E = gt2/2 1.Antes de realizarmos o experimento, sabemos todos os possíveis resultados que podem acontecer; 2.No entanto, não sabemos qual resultado, em particular, irá efetivamente ocorrer; 3.Todo e qualquer resultado que efetivamente ocorra, será unicamente devido ao acaso; 4.O Experimento Aleatório pode ser repetido infinitas vezes, sob as mesmas condições. Corpo em queda livre Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 80 Nota: Rigorosamente falando, estas características são de um fenômeno aleatório puro. Isto é apenas um ponto de partida, útil para o estudo das probabilidades, embora saibamos que estas características aplicam-se, para fins de exemplos, apenas a jogos de azar – não-enviesados (honestos). Na vida prática, iremos lidar com fenômenos “não tão aleatórios”, ou seja, fenômenos em que há fatores associados1 às ocorrências. Então, interessa descobrir quais são estes fatores, e que influência tem no resultado do experimento – ou na ocorrência de um evento. 3.2. Probabilidade EVENTOS: Um resultado possível do Experimento Aleatório, ou um conjunto de resultados possíveis, é chamado evento. Por exemplo, as faces do dado são cada uma delas um evento, chamado evento unitário (aquele que não pode ser decomposto). Os eventos de um experimento podem ser tratados como conjuntos. ESPAÇO AMOSTRAL Os espaços amostrais são, tecnicamente, os resultados (valores) que uma variável pode apresentar. Então, podemos ter espaços amostrais com eventos qualitativos ou quantitativos. Os eventos qualitativos podem ser dicotômicos ou politômicos, e os eventos quantitativos podem ser discretos ou contínuos.. Definição Clássica e Definição Frequentista de Probabilidade Uma definição inicial (e intuitiva de probabilidades) é a definição clássica: Se um experimento aleatório gera um espaço amostral composto de n eventos unitários2 Ei, de forma a que seja },....,,,{ 321 nEEEE a probabilidade de ocorrência de um evento qualquer P(E) é dada pela relação nE EP )( 1 Note que não podemos falar em causalidade, e sim, em associação – que pode ser forte ou fraca, com suas gradações. A associação de fatores ligados à ocorrência de um fenômeno será estudada na parte de modelos multivariados. Lembre-se: causalidade é uma característica de eventos determinísticos. Nas Ciências Humanas, da Saúde e Sociais, podemos utilizar a palavra causation *causação), que é aquilo que modifica a probabilidade de ocorrência de um fenômeno. 2 Evento unitário é aquele que não pode ser decomposto. P. ex., “Face 4” é um evento unitário, “Face 4 ou 5” é um evento composto. Espaço Amostral é o conjunto de todos os eventos de um experimento aleatório. Todos os resultados possíveis do experimento são agrupados neste conjunto, que identificamos pela letra e tem a seguinte representação: E1 E2 E3 E4 E5 Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 81 na qual P(E) é a probabilidade de ocorrência de um evento, nE é o número de maneiras com que E pode ocorrer e é o tamanho do conjunto espaço amostral. Por exemplo, uma urna com 10 bolas, sendo 3 vermelhas. Ao extraímos aleatoriamente uma bola desta urna, a probabilidade de que seja vermelha é dada pela relação 30,0 10 3 )( nV VP Esta é a definição clássica, ou de Laplace3, de probabilidades. Porém, existem casos em que os eventos unitários constantes do espaço amostral possuem probabilidades de ocorrência indeterminadas. Neste caso, temos que repetir o experimento inúmeras vezes para determinar de que modo os eventos ocorrem ou, em outras palavras, a frequência com que os eventos ocorrem. Por exemplo, seja a frequência de nascimentos de crianças em uma maternidade, segundo o atributo sexo, em alguns meses do ano: Frequência de nascimentos na Maternidade XYZ, ao mês. Mês Masculino Feminino Total % Masculino % Feminino 1 34 30 64 53% 47% 2 29 32 61 48% 52% 3 37 35 72 51% 49% 4 24 20 44 55% 45% 5 24 29 53 45% 55% 6 30 28 58 52% 48% 7 34 36 70 49% 51% 8 27 35 62 44% 56% Total 239 245 484 49% 51% Note que os percentuais de nascimentos de crianças do sexo feminino e do masculino variam bastante no decorrer dos meses. No entanto, quando se analisam os totais, ao fim dos 8 meses, descobrimos um “percentual médio” de 49% de crianças do sexo masculino e de 51% de crianças do sexo feminino. Veja a tabela seguinte: Frequência Acumulada de Nascimentos, Maternidade XYZ Mês Masc. Acum. Fem. Acum. Total Acum. % Masculino % Feminino 1 34 30 64 53% 47% 2 63 62 125 50% 50% 3 100 97 197 51% 49% 4 124 117 241 51% 49% 5 148 146 294 50% 50% 6 178 174 352 51% 49% 7 212 210 422 50% 50% 8 239 245 484 49% 51% Veja que os percentuais sobre as frequências acumuladas parece que vão se concentrando em torno da relação 50% / 50%, no atributo sexo. Embora o nossonúmero de observações ainda seja pequeno (484 nascimento de crianças, em 8 meses), podemos “prever” que, no próximo mês a ser pesquisado, os nascimentos se distribuirão, em termos do atributo sexo, com 49% para os nascimentos de crianças do sexo masculino, e 51% de crianças do sexo feminino. Repare que esta “previsão” é feita com uma certa “margem de erro”: se, ao invés de 484 nascimentos, a nossa amostra fosse de 4.000 nascimentos, nossa segurança seria muito maior (nossa “margem de erro” seria bem menor). O gráfico a seguir ilustra bem este comportamento: 3 Pierre Simon de Laplace (1741-1827), matemático, físico e filósofo francês. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 82 Percentual Acumulado de Nascimentos por Sexo 44% 45% 46% 47% 48% 49% 50% 51% 52% 53% 54% 1 2 3 4 5 6 7 8 Mês % Masculino % Feminino Observe o gráfico a seguir, relativo a 5.000 nascimentos, em 72 meses: Distribuição percentual acumulada 25% 30% 35% 40% 45% 50% 55% 60% 65% 70% 75% Note que, a medida em que o tempo passa, e vão nascendo cada vez mais crianças, a frequência acumulada de nascimentos também vai aumentando. A proporção de crianças do sexo masculino “tende” a ser igual à proporção de crianças do sexo feminino - ambos os números convergem para 50%. O percentual médio, para esta amostra, foi de 49,4% para nascimentos de crianças do sexo masculino e de 50,6% de crianças do sexo feminino. Isto nos permite dizer que a próxima criança a nascer terá uma probabilidade em torno de 49% de ser do sexo masculino e de 51% de ser do sexo feminino4. 4 Este é um valor que se aproxima muito da probabilidade do sexo da criança, se esta fosse calculada de maneira clássica: existem dois sexos “possíveis” no nascimento de uma criança, ou seja, o tamanho do espaço amostral é 2, e seus eventos são supostos distintos e equiprováveis. Daí que a P(masculino) = Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 83 A probabilidade, então, é calculada a partir de um histórico dos casos, observados ao longo de muito tempo, e com amostras bastante grandes. Admite-se que, se os eventos são gerados a partir de um experimento aleatório, a probabilidade de ocorrência do evento, na próxima repetição do experimento aleatório, será a frequência relativa de ocorrência do evento nas últimas n repetições do experimento. Definindo de outra maneira, a probabilidade frequencista de um evento E é dada por )(lim)( EfrEP n ou seja, a probabilidade de um evento E ocorrer, na próxima repetição do experimento, é calculada como o limite da frequência relativa do evento, quando o número n de repetições anteriores do experimento é muito grande ( n ). 3.3 Modelos probabilísticos Um fenômeno pode ser descrito em termos de seus resultados e da probabilidade com que ocorrem. A cada evento, ou resultado possível x associamos uma probabilidade )(xp . Na ilustração acima, os eventos ix (resultados possíveis de um fenômeno aleatório) estão agrupados no conjunto , que é o espaço amostral do experimento. Cada evento ix tem calculada a sua probabilidade de ocorrência )( ixp que, como vimos na seção anterior, pode ser calculada, entre outras maneiras, pela definição clássica, ou pela definição frequentista. Se 1/2, ou 50%, que é um número bastante aproximado de 49% (percentual observado). Este confronto entre as duas formas de calcular uma probabilidade, clássica ou frequentista, será muito utilizado nesta parte de Testes Estatísticos. xi, p(x) Assista ao Audiovisual AV 08, em http://www.ufjf.br/antonio_beraldo/ensino/audiovisuais/ Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 84 considerarmos todos os resultados possíveis do fenômeno, e as probabilidades associadas a estes eventos, temos um modelo de probabilidades. Se pensarmos ix como uma variável aleatória, teremos modelos de variável aleatória discreta (VAD), caso esta seja discreta ( ix ), e, caso seja contínua ( ix ), modelos de variável aleatória contínua (VAC). Alguns exemplos: 1. A VAD ix é o número de ocorrências de “Face 3” em 12 lançamentos de um dado xx x i qpxXP 12 12 )( 2. A VAD ix é o número de requisições de serviços de manutenção de computadores da universidade no próximo mês (nos meses anteriores, a média foi de 4,73 requisições) ! 73,4 )( 73,4 i x i x e xxP i 3. A VAD ix é a duração da carga de baterias de celular, em horas, para uma média de 120 horas informada pelo fabricante. )(0083,0 0 01)( t etxP Nos exemplos acima, 1 e 2 são de modelos de VAD, e 3 é o modelo exponencial de VAC. O estudo dos modelos de probabilidade não faz parte da programação do curso5. No entanto, para prosseguirmos, é necessário conhecermos, com mais detalhes, um modelo chamado Distribuição Normal de Probabilidades. Vamos a ele: A figura a seguir é um Histograma de Frequências das notas de 5.000 candidatos de um concurso vestibular. As notas (número de pontos) foram agrupadas em 19 classes, entre 0 e 100. 5 Caso seja de seu interesse, acesse o site do professor e faça o download da Apostila II – Introdução ao Cálculo de Probabilidades. O aspecto do gráfico é de uma distribuição de maior densidade de notas na porção central, e áreas de menor concentração à esquerda e à direita do gráfico. O histograma indica haver, também, uma disposição simétrica em relação à nota central da escala, em torno de 50 pontos As estatísticas calculadas foram: Média = 52,0 pontos; Desvio-padrão = 18 pontos; Assimetria = -0,009 Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 85 A próxima figura mostra o mesmo conjunto, reagrupado em 9 classes: A percepção da simetria, indicada por um coeficiente próximo de 0, fica mais clara. O software traça uma linha suave (polígono de frequência) sobre as colunas do histograma, compensando as áreas sob a curva, de forma a “cobrir” todas as notas dos candidatos: Tanto o aspecto do histograma quanto a curva de frequências indicam que as notas dos candidatos se dispõem, muito aproximadamente, em uma distribuição chamada normal. A distribuição, ou modelo normal, foi descoberta pelo matemático francês Abraham de Moivre6, no século XVIII e adotada por Gauss7, no começo do século XIX para “explicar” as frequências relativas dos erros verificados na comparação entre tabelas astronômicas antigas e modernas (do século XIX), onde constavam as posições de estrelas e planetas. Prosseguindo em seus estudos, Gauss e outros estatísticos descobriram que a distribuição normal podia ser aplicada a uma imensa variedade de fenômenos, desde a distribuição das estaturas e dos pesos dos indivíduos de uma região até alturas das marés – quase todos os fenômenos da natureza “seguem” a distribuição normal, que tem este formato de sino8. A distribuição normal 6 Abraham de Moivre (1667-1754), matemático francês. 7 Joham Carl Friedrich Gauss(1777-1855), matemático, físico e astrônomo alemão. 8 Os americanos chama a distribuição normal de “the bell curve”. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 86 foi de importância crucial no desenvolvimento do modelo atômico, na formulação do princípio da incerteza e no conhecimento das partículas alfa e outras radiações. A expressão matemática do modelo normal é dado por: 22 2/)( 2 1 )( xexf na qual é a média da distribuição da variável aleatória x, 2 é a variância da distribuição, e e é a base dos logaritmos naturais, ou neperianos (e = 2,7182). A imagem da curva normal é a seguinte: O tratamento matemático dessa função é muito trabalhoso, mas os valores desta integral são tabelados. Como a distribuição normal é aplicada apenas para variáveis contínuas, os valores da integral calculam a probabilidade de ocorrência de faixas (ou intervalos) desta variável. Por exemplo, no caso dos candidatos do vestibular, dado que os resultados são normalmente distribuídos: 1. Cerca de 1.700 candidatos tiveram pontuações entre 52,0 e 70 pontos: Curva Normal 52 70 Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 87 2. Cerca de 4.100 candidatos tiveram pontuações entre 52 e 88 pontos: 3. Cerca de 4700 candidatos tiveram pontuações abaixo de 80 pontos. 4. 90% dos candidatos tiveram pontuações entre 22,39 e 81,61 pontos; 95% dos candidatos tiveram pontuações entre 16,72 e 87,28 pontos; 99% dos candidatos tiveram pontuações entre 5,65 e 98,35 pontos. 22,39 81,61 16,72 87,28 5,65 98,35 Atenção para o exemplo (4): para uma variável com valores normalmente distribuídos, com média X e desvio-padrão s , há uma probabilidade de 95% de seus valores pertençam ao intervalo de confiança de sX 96,1 . Na seção seguinte, a importância da distribuição normal para a Estatística. 80 52 80 Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 88 3.4 O Método Estatístico O Método Estatístico foi desenvolvido, a partir do Cálculo de Probabilidades, para que possamos calcular o valor dos parâmetros – as medidas que descrevem o Universo -, a partir das medidas estatísticas obtidas de um subconjunto do Universo chamado Amostra. Este método é consiste nos seguintes passos: 1. O conjunto Universo é tratado de forma que cada um, e todos os seus elementos, têm a mesma probabilidade de ser sorteado. Este processo é chamado de homogeneização do Universo. Homogeneizar o Universo consiste em fazer com que cada um de seus elementos tenha uma probabilidade de ser sorteado igual à de qualquer outro. Em outras palavras, é tornar equiprovável este Universo. 2. Em seguida, alguns elementos do Universo são sorteados para compor um subconjunto chamado amostra (). Este sorteio é feito de acordo com o tipo e a técnica de amostragem adotada9. A amostra, assim constituída, é processada estatisticamente, ou seja, são calculadas as suas medidas descritivas, ou estatísticas: média X , variância 2s , desvio padrão s , proporção (ou freqüência relativa), p : 3. Calculando as estatísticas, temos todas as informações sobre a Amostra. Já é uma boa parte do caminho até chegarmos aos parâmetros, que, como vimos, são as medidas do Universo – objetivo final deste método. Para calcularmos os parâmetros, utilizamos um conjunto de processos chamados Inferência Estatística. Partimos da seguinte relação: 9 O estudo das técnicas de amostragem não faz parte deste Curso. Ω Estatísticas Média X Variância 2s Desvio Padrão s Proporção p Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 89 Parâmetro = Estatística ± margem de erro Esta relação decorre de duas postulações fundamentais do Cálculo de Probabilidades: a Lei dos Grandes Números, e o Teorema do Limite Central Em linhas gerais, esta relação pode ser dita como: Um parâmetro (medida do Universo) pertence ao intervalo dado pela estatística (medida da Amostra), mais ou menos a margem de erro desta estatística. Desta foram, por exemplo, temos: X X ou XX XX , Margem de Erro da média amostral Média da Amostra (média amostral) Média do Universo (média populacional) O intervalo XX XX , é chamado intervalo de confiança do parâmetro (neste exemplo, intervalo de confiança da média populacional). A margem de erro é um valor que calculamos, utilizando a medida de dispersão e o tamanho da amostra, e informações oriundas da distribuição de probabilidades da estatística. Neste exemplo, a margem de erro X da média amostral pode ser dada por uma expressão como n s 96,1 . Assim, com o cálculo do intervalo de confiança do parâmetro, termina o processo do Método Estatística, cujas etapas podem ser vistas no diagrama seguinte: Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 90 Estatísticas (na Amostra) ω Parâmetros (no Universo) Ω Média X Variância 2s 2 Desvio Padrão s Proporção p Portanto, há uma correspondência entre as medidas amostrais (estatísticas) e as medidas populacionais (parâmetros). A margem de erro pode ser interpretada como a diferença existente entre as medidas de uma Amostra e as do Universo de onde foi extraída. Cada estatística possui a sua margem de erro. A margem de erro é função: do Nível de Confiança com que se está trabalhando; do tamanho da amostra, n; das condições do Universo (infinito ou finito); do tipo de amostragem que foi realizado (com reposição ou sem reposição). Cálculo das estatísticas Cálculo dos PARÂMETROS Amostragem Inferência Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 91 3.5 Inferência Estatística Seja um Universo , constituído de N elementos, com os parâmetros média desvio-padrão e proporção A (de um atributo A).. Retiramos aleatoriamente, com ou sem reposição, uma amostra de tamanho n , e calcularmos as suas estatísticas média X , desvio-padrão s e proporção Ap . Os intervalos de confiança IC para os parâmetros são dados a seguir: Média - Distribuição normal n zX n zX critcrit onde critz é tabelado segundo o nível de confiança com que estamos trabalhando.: Média -- Distribuição t de Student n s tX n s tX critcrit onde critt é tabelado em função do nível de confiança e do número de graus de liberdade , dado por 1 n A distribuição t de Student é derivada da Curva Normal. Foi calculada pelo estatístico inglês Gosset10, e se aplica a qualquer tamanho de amostra e a qualquer número de observações, ao contrário da distribuição normal, utilizada apenas para grandes amostras. A figura abaixo mostra uma curva da distribuição t. Note a aparência, também em forma de sino: 10 W. S. Gosset(1876-1937), químico, matemático e estatístico inglês, trabalhou muitos anos na cervejaria Guiness. Por norma de sigilo da cervejaria, publicava seus trabalhos com o pseudônimo de Studfent (estudante, em inglês). A distribuição da estatística t de Student depende do tamanho da amostra (ou do conjunto). Então, teremos infinitas curvas e infinitos valores para t. A expressão “graus de liberdade” (letra grega phi), dado por 1 n , será muito utilizada na parte de testes paramétricos. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 92 Proporção A n pp zp n pp zp critcrit )1()1( Variância 2 2 inf 2 2 2 sup 2 )1()1( snsn Onde os valores dos 2 (superior e inferior) são oriundos da distribuição do qui-quadrado. A distribuição de probabilidades é obra de Pearson11, e também é parametrizada pelo número de graus de liberdade . Observe a figura a seguir: Exemplo Um amostra de 100 alunos de uma universidade, extraídos aleatoriamente de uma população infinita, revelou as seguintes estatísticas: Média amostral dos pesos dos alunos X = 61 kg Desvio-padrão amostral dos pesos dos alunos s = 12 kg Variância amostral dos pesos dos alunos: 2s = 144 kg 2. Percentual de alunos canhotos na amostra p = 14% Calcule os intervalos de confiança dos parâmetros populacionais correspondentes. 11 Karl (Carl) Pearson (1857-1936), inglês, um dos mais influentes estatísticos do século XX. Na figura ao lado, um “feixe” de curvas da distribuição do qui- quadrado, para diversos graus de liberdade. Quanto maior o grau de liberdade, mas achatada (e “esticada”) é a curva Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 93 Média Populacional kg n s tXIC crit 381,261 100 12 984,161)( Variância Populacional 2 inf 2 2 2 sup 2 )1()1( snsn ; 361,73 144)1100( 42,128 144)1100( 2 33,19401,111 2 Proporção Populacional 068,014,0 100 )14,01(14,0 96,114,0 )1( )( n pp zppIC crit Pelos resultados, há uma probabilidade de 95% de que: A média populacional esteja entre 58,619 kg e 63,381 kg; a variância populacional 2 seja um valor entre 111,01 kg2 e 194,33 kg2. A proporção de canhotos esteja entre 7,2% e 20,8%. IC da Média 58,62 63,38 kg IC da Proporção 7,2 20,8 % Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 94 3.6 Testes de Hipóteses O que são Testes de Hipóteses Uma Hipótese estatística é uma afirmativa que se faz sobre um parâmetro, a partir de estatísticas de amostras coletadas. Por exemplo, pode-se fazer a hipótese de que a renda familiar média de um bairro da cidade é igual a R$ 560,00. Escreve-se 00,560$: RH o . oH (a letra “H”, maiúscula, com a letra “o” subscrita12) é o símbolo da hipótese nula, que é a hipótese básica sobre a rernda familiar média do bairro (hipótese nula não quer dizer que a hipótese “não tem valor”). Além da hipótese nula oH , podemos formular hipóteses alternativas, como, por exemplo: 00,560$:1 RH , que é a hipótese oposta à oH . 00,560$:2 RH 00,560$:3 RH Hipóteses são rejeitadas ou aceitas (melhor dizendo, não rejeitadas). Para testar esta hipótese, coletamos uma amostra de tamanho n, de famílias deste bairro, e determinamos o intervalo de confiança da média da variável “renda familiar”: No exemplo acima, quando formulamos a hipótese nula 00,560$: RH o , estamos afirmando que o valor de R$ 560,00 pertence ao intervalo de confiança IC da média populacional , estimada a partir da média amostral X , para determinado nível de significância (ou nível de confiança 1NC ). Por exemplo, suponha que extraimos uma amostra de 400 domicílos deste bairro, e calculamos sua média X = R$ 550,00 e desvio padrão s = 180,00; o IC da média populaciona l13 , para um nível de significância = 0,05 (ou 5%), é dado por: n s tX n s tX critcrit Aplicando os valores, o IC da média será 400 0,180 965,100,550 400 0,180 965,100,550 A margem de erro é dada por 7,17 400 0,180 965,1 (reais). Veja a figura a seguir: 12 Por analogia com a palavra “nulo”, muitos chamam de “h-zero”, o que é incorreto. A letra “o” vem do inglês “original”, como adotado por Fisher (1935). 13 Alguns autores chamam de “Média verdadeira”, o que não é correto. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 95 [ 532,3 567,7 ] Intervalo de confiança da média populacional Na figura acima, pode-se notar que o valor de R$ 560,00 “cai” dentro da faixa R$ 532,3 a R$ 567,7, que é o intervalo de confiança para a média populacional. Como foi visto no capítulo 3, há uma probabilidade de 95% de que a média populacional esteja contida neste intervalo – e uma probabilidade de 5% de que esteja fora deste intervalo. Assim, não rejeitamos a oH , ao nível de confiança de 95%. O que acabamos de fazer foi um teste de hipótese, ou teste estatístico. Testes Estatísticos são procedimentos que tem por objetivos: a) verificar se uma amostra foi realmente extraída de determinada população, isto é, se as estatísticas amostrais são iguais, estatisticamente, aos parâmetros populacionais; b) verificar se existe diferença significativa entre dois ou mais estados de uma variável, ou entre estados de duas ou mais variáveis. Por exemplo, se uma variável aleatória pode evoluir ao longo do tempo; podemos estar interessados se houve diferença significativa entre os estados inicial e final da variável (ou seja, medidas desta variável tomadas no instante inicial e no instante final do período de medição). Em outros casos, podemos estar interessados nas medidas desta variável, tomadas no mesmo instante porém em locais diferentes. Ou, em outro caso, pesquisamos se existe diferença entre valores de uma variável, relacionados a categorias, p. ex. poder aquisitivo e estado civil dos elementos amostrais. Em situações mais complexas, podemos estar interessados nas medidas da variável, tomadas em locais e tempos diferentes. Em qualquer dos casos, existe uma série de rotinas estatísticas adequadas para estabelecer: 1º Se há diferença estatística significativa entre os estados 2º Em caso de haver esta diferença, estabelecer a comparação entre os estados (em termos de maior ou menor). Igualdades e diferenças estatísticas Antes de continuarmos com este capítulo, é necessário elucidar este conceito: diferença estatística significativa. Em Matemática, as igualdades são exatas, isto é, podemos sempre R$ 560,00 95% Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 96 dizer que 5 = 5, e nunca que 5 = 6. Em Estatística, como já foi visto na parte de inferência estatística, a média de uma população pode ser qualquer número pertencente ao intervalo de confiança. Daí que, por exemplo, se o intervalo de confiança da média de um conjunto de medidas for de 20,5 2,3, os valores 20, 21 e 22 pertencem ao intervalo de confiança- qualquer um deles poderia ser a média real do conjunto. Pertencendo ao mesmo intervalo de confiança, eles são estatisticamente iguais, ou, melhor, dizendo, não existe diferença estatística significativa entre eles. Por outro lado, neste mesmo conjunto, o valor 25 é estatisticamente diferente, ou, melhor dizendo, existe uma diferença estatística significativa entre o valor 25 e o intervalo de confiança da média - o valor 25 não pertence ao intervalo de confiança. Podemos, então, fixar este conceito: não existe diferença estatística significativa entre dois valores de uma variável se estes pertencem ao mesmo intervalo de confiança. Teoria da Decisão Estatística A Decisão Estatística decorre do que foi visto na seção anterior. Quando foi dito que duas estatísticas de uma variável não são diferentes estatisticamente quando pertencerem ao mesmo intervalo de confiança, temos que dizer que há uma probabilidade dos dois valores não serem diferentes. Esta probabilidade é o nível de confiança.(lembre-se que o nível de confiança é que determina o intervalo de confiança). Vamos dar um exemplo de como é isso, na prática: Exemplo Foi feita uma pesquisa de intenção de voto para o candidato A, no mês de maio. Naquele mês, a amostra foi de 400 eleitores e, para um nível de confiança de 95%, inferiu-se que a intenção de voto no candidato A era de 38%. A margem de erro da pesquisa foi, portanto z p p n c . ( ) , . ( , , ( , , , 1 1 96 0 38)(0 62) 400 1 96)(0 024) 0 048 ou 4,8% Daí que a intenção de voto do candidato A deve estar, com uma probabilidade de 95%, entre 33,2 % e 42,8 %. Continuando este exemplo, imagine agora que, na mesma pesquisa, um outro candidato, B, obteve 34% das intenções de voto. Existe diferença entre estes dois candidatos? A resposta é que não existe diferença, estatisticamente falando, uma vez que a votação do candidato B está dentro do intervalo de confiança da intenção de voto do candidato A. A diferença matemática entre as intenções de A, 38%, e do candidato B, 34%, não é estatisticamente significativa, sendo esta variação devida ao acaso14. Veja a ilustração a seguir: 14 Esta é um outro conceito frequentemente adotado para o intervalo de confiança: uma região (um intervalo) em que as diferenças das medidas em relação à média populacional (ou qualquer outro parâmetro) são aleatórias, isto é, devidas unicamente ao acaso. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 97 = 38% 34% 33,2% 42,8 % Intervalo de confiança de Você deve estar pensando em termos de certeza: não existe diferença entre os candidatos, e pronto. Não é bem assim. Lembre-se que adotamos o nível de confiança de 95%, e isto quer dizer que estamos 95% confiantes da inexistência de diferença entre os candidatos. E que existe uma probabilidade de 5% de que nossas conclusões sejam falsas. A situação descrita acima (dois candidatos sem diferença estatística na intenção de voto) é dita de empate técnico. Não se pode afirmar, neste momento, qual candidato está na frente da corrida eleitora O p- value Nos últimos anos, disseminou-se na literatura científica, principalmente nas áreas da Psicologia e das Ciências da Saúde, e nos pacotes estatísticos como o SPSS, a utilização de uma estatística chamada p, ou p-value. O p-value é uma probabilidade, ou uma área sob a curva da distribuição de probabilidades que está sendo usada no teste de hipóteses. Por exemplo, seja a hipótese 108: oH , que estamos testando, com uma amostra de n = 144 elementos, com média X =113 e desvio padrão s = 22. Adotamos o nível de confiança de 95% (nível de significância de 0,05), e a distribuição t de Student para o teste. Calculamos o intervalo de confiança pela expressão n s tX n s tX critcrit , e 144 22 98,1113 144 22 98,1113 Portanto, o IC é [109,4 – 116,6], e a 108: oH é rejeitada. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 98 Outra maneira de testar essa hipótese seria a de calcular uma estatística n s X tcalc , e verificar qual é o p-value referente a este tcalc (o computador calcula este p-value) O novo critério de decisão será: Neste exemplo, o tcalc é igual a 2,727, e o p-value para este tcalc é = 0,007, que é menor do que o de 0,05. Portanto, rejeita-se a hipótese nula de que o valor 108 pertença a esta amostra. Como se verá, o SPSS (e outros programas) calculam o tcalc e deixam que comparemos o p-value com o adotado. Então, o critério passa a ser: Caso o p-value > ,não se rejeita a hipótese de igualdade; Caso o p-value < rejeita-se a hipótese de igualdade. Não rejeitar a Hipótese Nula se o p-value > . /2 /2 Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 99 Parte II Testes Paramétricos 3.7 Teste T de igualdade das médias de duas amostras independentes. Abrindo a base de dados BD01, iremos testar a seguir a hipótese de igualdade das estaturas segundo o sexo dos pacientes. Em primeiro lugar, utilizamos, a rotina Explore, para calcular as estatísticas desta variável segundo o sexo: O SPSS irá abrir o seguinte output: Colocamos na Dependent list , a variável Estatura e na Factor List, a variável Sexo Utilizamos o Explore para verificar as diferenças entre as estatísticas da variável estatura, segundo o sexo dos partiicipantes. Siga pelo Captivate 03 Parte 1 Base de Dados em Uso BD01 Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 100 Descriptives Sexo Statistic Std. Error Estatura Masculino Mean 1,6597 ,01358 95% Confidence Interval for Mean Lower Bound 1,6327 Upper Bound 1,6868 5% Trimmed Mean 1,6549 Median 1,6250 Variance ,014 Std. Deviation ,11838 Minimum 1,48 Maximum 1,98 Range ,50 Interquartile Range ,19 Skewness ,460 ,276 Kurtosis -,651 ,545 Feminino Mean 1,4667 ,02204 95% Confidence Interval for Mean Lower Bound 1,4211 Upper Bound 1,5123 5% Trimmed Mean 1,4616 Median 1,4400 Variance ,012 Std. Deviation ,10797 Minimum 1,32 Maximum 1,70 Range ,38 Interquartile Range ,08 Skewness 1,299 ,472 Kurtosis ,753 ,918 Note que as médias são: Masculino: ()118,06597,1 : Feminino: ()108,04667,1 A diferença da média de estatura entre os grupos é de 1,6597-1,4667= 0,19307m. A diferença entre os grupos fica mais evidente quando analisamos o Box-Plot. Ou seja, são numericamente diferentes. O teste t irá verificar se são, também estatisticamente diferentes. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 101 Sexo FemininoMasculino E st at u ra 2,00 1,80 1,60 1,40 51 24 10 89 Pela imagem do box- plot podemos observar que as medianas estão bem distantes e que há um bom número de outliers nas estaturas dos individuos do sexo feminino. Estas discrepâncias podem atrapalhar o teste. Iremos agora, proceder ao teste. Antes, temos que verificarse a distribuição da variável Estatura é normal, para que possamos testar suas médias utilizando o teste T de Student. A verificação da normalidade é feita através do teste não paramétrico de Kolmogorov Smirnov. O caminho é: Analyze > Nonparametric Tests> 1-Sample K-S Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 102 Descoloque a variável Estatura para a janela da direita e clique em . O SPSS, irá abrir o seguinte output: One-Sample Kolmogorov-Smirnov Test Estatura N 100 Normal Parameters(a,b) Mean 1,6134 Std. Deviation ,14210 Most Extreme Differences Absolute ,070 Positive ,070 Negative -,060 Kolmogorov-Smirnov Z ,700 Asymp. Sig. (2-tailed) ,712 a Test distribution is Normal. b Calculated from data. Escolhemos Indepent- Samples T-Test O SPSS irá abrir a seguinte caixa de diálago: A significância assintótica bicaudal (p) é igual a 0, 712, maior do que 0,05, o que indica que a variável tem uma distribuição aproximadamente normal. Utilizaremos, portanto o teste t. O caminho é o seguinte: Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 103 Abre-se esta caixa de diálogo: Colocamos a variável Estatura na janela Test Variable(s). Colocamos a variável Sexo na janela Grouping Variable(s) Note que o SPSS coloca um fundo azul e duas interrogações (??) ao lado da variable. O software está solicitando que vocêdefina quais grupos serão utilizados. Clique em Define, e irá aparecer a seguinte caixa: Coloque os valores 1 e 2 respectivamente nas janelas de grupo 1 grupo 2. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 104 Completada a operação, clique em O SPSS irá abrir este output. O primeiro quadro mostra as estatísticas da estatura, para os sexos masculinos e femininos: N (tamanhos dos grupos) Mean (média), Std. Deviation (Desvio- padrão) e Std. Error Mean (Erro padrão da média) Group Statistics Sexo N Mean Std. Deviation Std. Error Mean Estatura Masculino 76 1,6597 ,11838 ,01358 Feminino 24 1,4667 ,10797 ,02204 No quadro acima, as estatísticas da variável Estatura , agrupadas segundo o atributo sexo. Observe os valores. Eles poderão ser comparados (comparação numérica) caso a hipótese nula de igualdade seja rejeitada. O SPSS irá entender que você deseja grupar a variável Estatura segundo os sexos que são codificados por estes valores. Mantemos o Nivel de Confiança de 95%. Clicando em O SPSS retorna a esta tela: Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 105 O quadro seguinte é o resultado do teste: Independent Samples Test Levene's Test for Equality of Variances t-test for Equality of Means F Sig. t df Sig. (2-tailed) Mean Difference Std. Error Difference 95% Confidence Interval of the Difference Lower Upper Estatura Equal variances assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698 Equal variances not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531 As estatísticas – e as informações - são: Independent Samples Test Levene's Test for Equality of Variances t-test for Equality of Means F Sig. t df Sig. (2-tailed) Mean Difference Std. Error Difference 95% Confidence Interval of the Difference Lower Upper Estatura Equal variances assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698 Equal variances not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531 As primeiras células da tabela mostram a variável (estatura). O quadro se divide em duas linhas conforme a presunção de homocedasticidade ou heterocedasticidade (igualdade ou não das variâncias). A linha de cima exibe os resultados para as variâncias iguais, a de baixo para variâncias supostas não iguais. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 106 Independent Samples Test Levene's Test for Equality of Variances t-test for Equality of Means F Sig. t df Sig. (2-tailed) Mean Difference Std. Error Difference 95% Confidence Interval of the Difference Lower Upper Estatura Equal variances assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698 Equal variances not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531 Independent Samples Test Levene's Test for Equality of Variances t-test for Equality of Meanias F Sig. t df Sig. (2-tailed) Mean Difference Std. Error Difference 95% Confidence Interval of the Difference Lower Upper Estatura Equal variances assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698 Equal variances not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531 Estes são os resultados do teste de Levene. Este teste verifica se as variâncias das amostras são iguais utilizando a distribuição F de Snedecor. Neste exemplo, o valor de F mostra uma significância (Sig.) igual a 0,103 > 0,05. Portanto as variâncias são estatisticamente iguais e vamos ler os resultados na linha de cima do quadro. Estas são as células principais do quadro do output. A primeira célula mostra a estatística T calculada para a diferença entre médias, igual a 7,107, para 98 graus de liberdade. A significância bicaudal é igual a 0,000 << 0,05. Este resultado indica que há uma diferença estatisticamente significativa entre as estaturas masculina e feminina. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 107 Independent Samples Test Levene's Test for Equality of Variances t-test for Equality of Means F Sig. t df Sig. (2-tailed) Mean Difference Std. Error Difference 95% Confidence Interval of the Difference Lower Upper Estatura Equal variances assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698 Equal variances not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531 Esta significância nos diz que existe uma diferença estatística significativa entre as médias das estaturas das duas amostras. Os indivíduos do sexo masculino tem estatura numérica e estatisticamente maiores do que indivíduos do sexo feminino. Dados adicionais, estes resultados são: Mean Difference, (diferença entre médias); Std. Error Difference, (Erro padrão da diferença). 95% Confidence Interval of the Difference, (Intervalo de confiança da diferença entre médias para o nível de confiança de 95%). Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 108 3.8 Amostras pareadas Amostras pareadas ou emparelhadas são conjuntos de observações que se fazem sobre o mesmo grupo em momentos diferentes. O exemplo a seguir compara os pesos dos participantes do programa em dois momentos distintos: o primeiro momento é o peso quando da apresentação do participante, e o segundo momento é o peso 3 meses após. Antes de realizar o teste, calculamos as estatísticas básicas das duas variáveis, utilizando a rotina Analyze > Descriptive Statistics > Descriptive15: Abre-se a caixa de diálogo: Deslocamos os campos Peso [apresentação] e Peso após 3 meses [Peso 3m] da janela da esquerda para a janela da direita: 15 Esta rotina foi apresentada no tutorialdo Módulo 2, Medidas Estatísticas no SPSS. Siga pelo Captivate 03 Parte 2 Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 109 Voltamos à tela anterior e clicamos em Selecionamos as estatísticas Média (Mean), Desvio-padrão (Std. variation) , Mínimo (Minimum) e Máximo (Maximum): Clique em Options Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 110 O output é o seguinte: Descriptive Statistics N Minimum Maximum Mean Std. Deviation Peso (apresentação) 100 48 102 69,90 12,520 Peso após 3 meses 100 50 112 76,23 12,526 Valid N (listwise) 100 Assim, verificamos que, numericamente, houve um aumento na média dos pesos, de 69,9 kg para 76,23 kg. O teste estatístico irá “dizer” se esta diferença é estatisticamente significativa, ou seja, se este aumento foi “real”, não foi devido ao acaso. Abre-se a seguinte caixa de diálogo: O caminho é: Analyze > Compare Means> Paired- Samples T Test Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 111 Clicando em o SPSS apresenta o seguinte output: Passaremos as variáveis cujos valores serão comparados da janela da esquerda para a janela da direita, utilizando o botão No entanto, esta passagem não é feita de uma vez. Veja que, quando a primeira variável é selecionada, o nome da variável “desce” para o canto esquerdo inferior da caixa, sob o título Variable 1. Clicamos na segunda variável, e ela também "desce", para a posição inferior, Variable 2. Somente quando os campos Variable 1 e Variable 2 estão preenchidos é que utilizamos o botão Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 112 Paired Samples Statistics Mean N Std. Deviation Std. Error Mean Pair 1 Peso (apresentação) 69,90 100 12,520 1,252 Peso após 3 meses 76,23 100 12,526 1,253 Paired Samples Test Paired Differences Mean Std. Error Mean 95% Confidence Interval of the Difference Std. Deviation Upper Lower t df Sig. (2-tailed) Pair 1 Peso (apresentação) - Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000 Paired Samples Test Paired Differences Mean Std. Error Mean 95% Confidence Interval of the Difference Std. Deviation Lower Upper t df Sig. (2-tailed) Pair 1 Peso (apresentação) - Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000 Estatísticas das diferenças: Mean ( média), Std. Deviation (desvio- padrão), Std. Error Mean ( Erro padrão da média), e os limites inferior e (Lewer) e superior (Upper) do Intervalo de Confiança da média das diferenças. Paired Samples Correlations N Correlation Sig. Pair 1 Peso (apresentação) & Peso após 3 meses 100 ,962 ,000 Não se preocupe com este output agora. Variáveis emparelhadas a serem comparadas: Peso na apresentação, e Peso 3m depois. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 113 Paired Samples Test Paired Differences Mean Std. Error Mean 95% Confidence Interval of the Difference Std. Deviation Lower Upper t df Sig. (2-tailed) Pair 1 Peso (apresentação) - Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000 O valor do p-value, 0,000, indica que a hipótese nula de igualdade entre as médias deve ser rejeitada, e que existe diferença significativa entre elas. Podemos, então, observar e comparar os valores numéricos, concluindo que o peso após 3 meses é maior que o peso na apresentação (em termos de média). Resultados finais do teste: A estatística calct (t) os graus de liberdade (df) e o p-value ( Sig(2-tailed)) Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 114 3.9 Análise da Variância A Análise da Variância é um teste paramétrico que verifica se há diferença estatística significativa entre os valores de uma variável, agrupados em mais de dois atributos, ou valores, de outra variável. Como exemplo, iremos analisar a variável Peso, agrupada segundo os valores da variável Faixa Etária. Começamos pelas estatísticas, utilizando a rotina Explore. Preencha as janelas Dependent List e Factor List com os campos Peso e Faixa Etária: Siga pelo Captivate 03 Parte 3 O caminho é Análise> Descriptive Statistics >Explore. A caixa de diálogo abre-se e é preenchida desta forma: Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 115 Eis o output: Descriptives Faixa Etária Statistic Std. Error Peso (apresentação) Faixa Etária I 20-39 anos Mean 65,86 1,797 95% Confidence Interval for Mean Lower Bound 62,17 Upper Bound 69,54 5% Trimmed Mean 65,75 Median 66,00 Variance 90,423 Std. Deviation 9,509 Minimum 48 Maximum 87 Range 39 Interquartile Range 15 Skewness -,027 ,441 Kurtosis -,100 ,858 Faixa Etária II 40-54 anos Mean 69,43 1,682 95% Confidence Interval for Mean Lower Bound 66,06 Upper Bound 72,80 5% Trimmed Mean 69,46 Median 70,50 Variance 158,468 Std. Deviation 12,588 Minimum 48 Maximum 92 Range 44 Interquartile Range 21 Skewness -,112 ,319 Kurtosis -1,127 ,628 Faixa Etária 3 55 em diante Mean 78,63 3,338 95% Confidence Interval for Mean Lower Bound 71,51 Upper Bound 85,74 5% Trimmed Mean 78,58 Median 77,50 Variance 178,250 Std. Deviation 13,351 Minimum 56 Maximum 102 Range 46 Interquartile Range 24 Skewness ,167 ,564 Kurtosis -1,079 1,091 Pelos dados acima verificamos que há diferença numérica entre os valores das médias: quanto maior a faixa etária, maior a média dos pesos. A ANOVA irá verificar se há diferença estatística entre estes valores. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 116 Agora, começamos efetivamente a Análise da Variância, ANOVA One-Way. Abre-se a tela da ANOVA. Na janela Depent List, colocamos a variável peso. Na janela Factor, colocamos a variável Faixa Etária. O caminho é: Analyze> Compare Means> One- Way Anova A ANOVA, por si, não informa mais do que se há diferença estatística significativa ou não entre as médias da variável, agrupada pelos fatores. Para saber qual média é diferente das outras, recorremos às chamadas comparações Post-Hoc. Clique em e veja a tela ao lado: Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 117 ANOVA Peso (apresentação) Sum of Squares df Mean Square F Sig. Between Groups 1688,107 2 844,054 5,920 ,004 Within Groups 13830,893 97 142,587 Total 15519,000 99 O quadro acima é o resultado da ANOVA. ANOVA Peso (apresentação) Sum of Squares df Mean Square F Sig. Between Groups 1688,107 2 844,054 5,920 ,004 Within Groups 13830,893 97 142,587 Total 15519,000 99 Na 2ª coluna, temos a soma dos quadrados (Sum of Squares) entre os grupos ( Between groups),dentro dos grupos (wilhin groups) e total (Total) . Clicamos em . O SPSS abre o seguinteoutput. Escolhemos as rotinas de comparação de Bonferroni, Scheffe e Tukey. Clicamos em e o SPSS retorna à tela anterior. Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 118 ANOVA Peso (apresentação) Sum of Squares df Mean Square F Sig. Between Groups 1688,107 2 844,054 5,920 ,004 Within Groups 13830,893 97 142,587 Total 15519,000 99 Na coluna seguinte os graus de liberdade (df). Na 4ª coluna os quadrados médios. ANOVA Peso (apresentação) Sum of Squares df Mean Square F Sig. Between Groups 1688,107 2 844,054 5,920 ,004 Within Groups 13830,893 97 142,587 Total 15519,000 99 Na 5ª e 6ª coluna, a estatística F de Snedecor e o resultado da ANOVA, a significância, ou p- value. No exemplo, p= 0,004<<0,05, ou seja, rejeita-se a hipótese nula de igualdade e concluímos que há diferença estatística significativa entre os pesos dos grupos segundo a faixa etária. Então, precisamos dos resultados das comparações Post Hoc para verificar, em detalhe, estas diferenças. No output a seguir, estes resultados: Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 119 Multiple Comparisons Dependent Variable: Peso (apresentação) Mean Difference (I-J) Std. Error Sig 95% Confidence Interval (I) Faixa Etária (J) Faixa Etária Lower Bound Upper Bound Tukey HSD Faixa Etária I 20-39 anos Faixa Etária II 40-54 anos -3,571 2,764 ,403 -10,15 3,01 Faixa Etária 3 55 em diante -12,768(*) 3,742 ,003 -21,68 -3,86 Faixa Etária II 40-54 anos Faixa Etária I 20-39 anos 3,571 2,764 ,403 -3,01 10,15 Faixa Etária 3 55 em diante -9,196(*) 3,385 ,021 -17,25 -1,14 Faixa Etária 3 55 em diante Faixa Etária I 20-39 anos 12,768(*) 3,742 ,003 3,86 21,68 Faixa Etária II 40-54 anos 9,196(*) 3,385 ,021 1,14 17,25 Scheffe Faixa Etária I 20-39 anos Faixa Etária II 40-54 anos -3,571 2,764 ,437 -10,44 3,30 Faixa Etária 3 55 em diante -12,768(*) 3,742 ,004 -22,07 -3,46 Faixa Etária II 40-54 anos Faixa Etária I 20-39 anos 3,571 2,764 ,437 -3,30 10,44 Faixa Etária 3 55 em diante -9,196(*) 3,385 ,029 -17,61 -,78 Faixa Etária 3 55 em diante Faixa Etária I 20-39 anos 12,768(*) 3,742 ,004 3,46 22,07 Faixa Etária II 40-54 anos 9,196(*) 3,385 ,029 ,78 17,61 Bonferroni Faixa Etária I 20-39 anos Faixa Etária II 40-54 anos -3,571 2,764 ,598 -10,30 3,16 Faixa Etária 3 55 em diante -12,768(*) 3,742 ,003 -21,88 -3,65 Faixa Etária II 40-54 anos Faixa Etária I 20-39 anos 3,571 2,764 ,598 -3,16 10,30 Faixa Etária 3 55 em diante -9,196(*) 3,385 ,023 -17,44 -,95 Faixa Etária 3 55 em diante Faixa Etária I 20-39 anos 12,768(*) 3,742 ,003 3,65 21,88 Faixa Etária II 40-54 anos 9,196(*) 3,385 ,023 ,95 17,44 * The mean difference is significant at the .05 level. Neste quadro as comparações Post- Hoc. O SPSS coloca um asterisco ao lado de cada grupo onde há diferença Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 120 Finalmente, o quadro de subsets (subconjuntos) Peso (apresentação) Faixa Etária N Subset for alpha = .05 1 2 Tukey HSD(a,b) Faixa Etária I 20-39 anos 28 65,86 Faixa Etária II 40-54 anos 56 69,43 Faixa Etária 3 55 em diante 16 78,63 Sig. ,532 1,000 Scheffe(a,b) Faixa Etária I 20-39 anos 28 65,86 Faixa Etária II 40-54 anos 56 69,43 Faixa Etária 3 55 em diante 16 78,63 Sig. ,563 1,000 Means for groups in homogeneous subsets are displayed. a Uses Harmonic Mean Sample Size = 25,846. b The group sizes are unequal. The harmonic mean of the group sizes is used. Type I error levels are not guaranteed. Esté é o quadro dos subgrupos com estatísticas iguais. O SPSS localiza as faixas etárias I e II no mesmo subconjunto (subset 1), indicando não existir diferença estatística entre elas. Já a faixa etária III é localizada em outro subconjunto (subset 2), indicando que existe diferença significativa entre as medidas do Peso entre esta faixa etária e as duas primeiras. Fim do Tutorial do Módulo III Próximo Módulo: Testes Não Paramétricos
Compartilhar