Buscar

Testes Parametricos

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 43 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 43 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 43 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 78 
3 
Testes de Hipótese 
Testes Paramétricos 
 
 
 
 
 
 
 
 
 
 
Conteúdo 
 
Parte I 
 
3.1 Fenômenos, 79 
3.2 Probabilidade, 80 
3.3 Modelos probabilísticos, 83 
3.4 O Método Estatístico, 88 
3.5 Inferência Estatística, 91 
3.6 Testes de Hipóteses, 94 
 O que são Testes de Hipóteses, 94 
 Igualdades e diferenças estatísticas, 95 
 Teoria da Decisão Estatística, 96 
 O p-value, 97 
 
 
 
Parte II 
 
3.7 Teste T de igualdade das médias de duas amostras 
independentes, 99 
3.8 Amostras pareadas, 108 
3.9 Análise da Variância, 114 
 
 
 
 
 
 
 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 79 
Módulo 3 Testes de Hipótese: Testes Paramétricos 
 
Parte I Estatística Inferencial: Fundamentos 
 
3.1. Fenômenos 
 
Existem dois tipos de fenômenos: os determinísticos e os não-determinísticos. Os 
fenômenos determinísticos são aqueles estudados, por exemplo, na Física e na Química do 
ensino médio. Quando fazemos uma experiência no laboratório, todas as condições do 
experimento são controladas: a temperatura, a umidade, a luz ambiente. Quando passamos 
uma corrente elétrica por uma resistência, já sabemos exatamente o que irá ocorrer - os 
fenômenos de transformação de energia, de geração de calor, de mudança de coloração, etc. 
Se, no laboratório de Química, reagirmos um ácido com uma base, serão produzidos sal e 
água. A reação NaOH + HCl sempre produziu NaCl + H2O, e irá produzir o mesmo resultado 
sempre que repetirmos a reação. Se um corpo parte do repouso, em movimento retilíneo com 
velocidade uniforme v, o espaço x percorrido ao fim de um tempo t será dado por x = xo + vt. 
Um corpo em queda livre, no vácuo, segue as condições conforme a figura 1.1, abaixo: 
 
 
Neste tipo de experimento, de causa e efeito, procuramos ontrolar 
e variar as causas, medindo seu efeito (ou seus efeitos). Quando 
um corpo cai em queda livre, e o faz sob a ação da gravidade, 
podemos considerar ou não a resistência do ar, podemos imprimir 
uma aceleração inicial, podemos retardar sua queda ou modificar 
sua trajetória alterando sua forma, enfim, podemos controlar a 
experiência a fim de medir os resultados provocados pela variação 
das condições. 
 
Resumindo, fenômenos determinísticos ocorrem sempre da 
mesma maneira e as mesmas causas produzirão os mesmos 
efeitos. 
 
No caso do fenômeno, ou do experimento não-determinístico, 
acontece o oposto. Veja as características de um fenômeno não-
determinístico, ou aleatório 
 
Características de um Experimento Aleatório 
 
 
 
 
Par de dados 
 
 
V = gt 
 
E = gt2/2 
1.Antes de realizarmos o experimento, sabemos todos os 
possíveis resultados que podem acontecer; 
 
2.No entanto, não sabemos qual resultado, em particular, irá 
efetivamente ocorrer; 
 
3.Todo e qualquer resultado que efetivamente ocorra, será 
unicamente devido ao acaso; 
 
4.O Experimento Aleatório pode ser repetido infinitas vezes, 
sob as mesmas condições. 
Corpo em queda livre 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 80 
Nota: Rigorosamente falando, estas características são de um fenômeno aleatório puro. Isto é 
apenas um ponto de partida, útil para o estudo das probabilidades, embora saibamos que estas 
características aplicam-se, para fins de exemplos, apenas a jogos de azar – não-enviesados 
(honestos). 
 
Na vida prática, iremos lidar com fenômenos “não tão aleatórios”, ou seja, fenômenos em que 
há fatores associados1 às ocorrências. Então, interessa descobrir quais são estes fatores, e 
que influência tem no resultado do experimento – ou na ocorrência de um evento. 
 
3.2. Probabilidade 
 
EVENTOS: Um resultado possível do Experimento Aleatório, ou um conjunto de resultados 
possíveis, é chamado evento. Por exemplo, as faces do dado são cada uma delas um evento, 
chamado evento unitário (aquele que não pode ser decomposto). Os eventos de um 
experimento podem ser tratados como conjuntos. 
 
ESPAÇO AMOSTRAL 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Os espaços amostrais são, tecnicamente, os resultados (valores) que uma variável pode 
apresentar. Então, podemos ter espaços amostrais com eventos qualitativos ou 
quantitativos. Os eventos qualitativos podem ser dicotômicos ou politômicos, e os eventos 
quantitativos podem ser discretos ou contínuos.. 
 
Definição Clássica e Definição Frequentista de Probabilidade 
 
Uma definição inicial (e intuitiva de probabilidades) é a definição clássica: Se um experimento 
aleatório gera um espaço amostral  composto de n eventos unitários2 Ei, de forma a que seja 
 
},....,,,{ 321 nEEEE
 
 
a probabilidade de ocorrência de um evento qualquer P(E) é dada pela relação 
 


nE
EP )(
 
 
1
 Note que não podemos falar em causalidade, e sim, em associação – que pode ser forte ou fraca, com 
suas gradações. A associação de fatores ligados à ocorrência de um fenômeno será estudada na parte 
de modelos multivariados. Lembre-se: causalidade é uma característica de eventos determinísticos. 
Nas Ciências Humanas, da Saúde e Sociais, podemos utilizar a palavra causation *causação), que é 
aquilo que modifica a probabilidade de ocorrência de um fenômeno. 
2
 Evento unitário é aquele que não pode ser decomposto. P. ex., “Face 4” é um evento unitário, “Face 4 
ou 5” é um evento composto. 
Espaço Amostral é o conjunto de todos 
os eventos de um experimento aleatório. 
Todos os resultados possíveis do 
experimento são agrupados neste 
conjunto, que identificamos pela letra  
e tem a seguinte representação: 
 
 
E1 E2 
E3 
E4 
E5 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 81 
na qual P(E) é a probabilidade de ocorrência de um evento, nE é o número de maneiras 
com que E pode ocorrer e  é o tamanho do conjunto espaço amostral. 
 
Por exemplo, uma urna com 10 bolas, sendo 3 vermelhas. Ao extraímos aleatoriamente uma 
bola desta urna, a probabilidade de que seja vermelha é dada pela relação 
30,0
10
3
)( 


nV
VP
 
 
Esta é a definição clássica, ou de Laplace3, de probabilidades. Porém, existem casos em que 
os eventos unitários constantes do espaço amostral possuem probabilidades de ocorrência 
indeterminadas. Neste caso, temos que repetir o experimento inúmeras vezes para 
determinar de que modo os eventos ocorrem ou, em outras palavras, a frequência com que os 
eventos ocorrem. Por exemplo, seja a frequência de nascimentos de crianças em uma 
maternidade, segundo o atributo sexo, em alguns meses do ano: 
 
 
Frequência de nascimentos na Maternidade XYZ, ao mês. 
Mês Masculino Feminino Total % Masculino % Feminino 
1 34 30 64 53% 47% 
2 29 32 61 48% 52% 
3 37 35 72 51% 49% 
4 24 20 44 55% 45% 
5 24 29 53 45% 55% 
6 30 28 58 52% 48% 
7 34 36 70 49% 51% 
8 27 35 62 44% 56% 
Total 239 245 484 49% 51% 
 
 
Note que os percentuais de nascimentos de crianças do sexo feminino e do masculino variam 
bastante no decorrer dos meses. No entanto, quando se analisam os totais, ao fim dos 8 
meses, descobrimos um “percentual médio” de 49% de crianças do sexo masculino e de 51% 
de crianças do sexo feminino. Veja a tabela seguinte: 
 
Frequência Acumulada de Nascimentos, Maternidade XYZ 
Mês Masc. Acum. Fem. Acum. Total Acum. % Masculino % Feminino 
1 34 30 64 53% 47% 
2 63 62 125 50% 50% 
3 100 97 197 51% 49% 
4 124 117 241 51% 49% 
5 148 146 294 50% 50% 
6 178 174 352 51% 49% 
7 212 210 422 50% 50% 
8 239 245 484 49% 51% 
 
 
Veja que os percentuais sobre as frequências acumuladas parece que vão se concentrando em 
torno da relação 50% / 50%, no atributo sexo. Embora o nossonúmero de observações ainda 
seja pequeno (484 nascimento de crianças, em 8 meses), podemos “prever” que, no próximo 
mês a ser pesquisado, os nascimentos se distribuirão, em termos do atributo sexo, com 49% 
para os nascimentos de crianças do sexo masculino, e 51% de crianças do sexo feminino. 
Repare que esta “previsão” é feita com uma certa “margem de erro”: se, ao invés de 484 
nascimentos, a nossa amostra fosse de 4.000 nascimentos, nossa segurança seria muito maior 
(nossa “margem de erro” seria bem menor). O gráfico a seguir ilustra bem este comportamento: 
 
3
 Pierre Simon de Laplace (1741-1827), matemático, físico e filósofo francês. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 82 
 
Percentual Acumulado de Nascimentos por Sexo
44%
45%
46%
47%
48%
49%
50%
51%
52%
53%
54%
1 2 3 4 5 6 7 8
Mês
% Masculino
% Feminino
 
 
Observe o gráfico a seguir, relativo a 5.000 nascimentos, em 72 meses: 
 
Distribuição percentual acumulada
25%
30%
35%
40%
45%
50%
55%
60%
65%
70%
75%
 
 
Note que, a medida em que o tempo passa, e vão nascendo cada vez mais crianças, a 
frequência acumulada de nascimentos também vai aumentando. A proporção de crianças do 
sexo masculino “tende” a ser igual à proporção de crianças do sexo feminino - ambos os 
números convergem para 50%. 
 
O percentual médio, para esta amostra, foi de 49,4% para nascimentos de crianças do sexo 
masculino e de 50,6% de crianças do sexo feminino. Isto nos permite dizer que a próxima 
criança a nascer terá uma probabilidade em torno de 49% de ser do sexo masculino e de 
51% de ser do sexo feminino4. 
 
4 Este é um valor que se aproxima muito da probabilidade do sexo da criança, se esta fosse calculada de 
maneira clássica: existem dois sexos “possíveis” no nascimento de uma criança, ou seja, o tamanho do 
espaço amostral é 2, e seus eventos são supostos distintos e equiprováveis. Daí que a P(masculino) = 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 83 
A probabilidade, então, é calculada a partir de um histórico dos casos, observados ao longo de 
muito tempo, e com amostras bastante grandes. Admite-se que, se os eventos são gerados a 
partir de um experimento aleatório, a probabilidade de ocorrência do evento, na próxima 
repetição do experimento aleatório, será a frequência relativa de ocorrência do evento nas 
últimas n repetições do experimento. 
 
Definindo de outra maneira, a probabilidade frequencista de um evento 
E
é dada por 
 
)(lim)( EfrEP 
 
 
n
 
 
ou seja, a probabilidade de um evento E ocorrer, na próxima repetição do experimento, é 
calculada como o limite da frequência relativa do evento, quando o número 
n
 de repetições 
anteriores do experimento é muito grande (
n
 ). 
 
 
 
 
 
 
 
 
 
3.3 Modelos probabilísticos 
 
Um fenômeno pode ser descrito em termos de seus resultados e da probabilidade com que 
ocorrem. A cada evento, ou resultado possível 
x
 associamos uma probabilidade 
)(xp
. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Na ilustração acima, os eventos 
ix
 (resultados possíveis de um fenômeno aleatório) estão 
agrupados no conjunto  , que é o espaço amostral do experimento. Cada evento
ix
 tem 
calculada a sua probabilidade de ocorrência 
)( ixp
que, como vimos na seção anterior, pode 
ser calculada, entre outras maneiras, pela definição clássica, ou pela definição frequentista. Se 
 
1/2, ou 50%, que é um número bastante aproximado de 49% (percentual observado). Este confronto 
entre as duas formas de calcular uma probabilidade, clássica ou frequentista, será muito utilizado nesta 
parte de Testes Estatísticos. 
xi, p(x)  
Assista ao Audiovisual AV 08, em 
http://www.ufjf.br/antonio_beraldo/ensino/audiovisuais/ 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 84 
considerarmos todos os resultados possíveis do fenômeno, e as probabilidades associadas a 
estes eventos, temos um modelo de probabilidades. Se pensarmos 
ix
 como uma variável 
aleatória, teremos modelos de variável aleatória discreta (VAD), caso esta seja discreta 
(
ix
), e, caso seja contínua (
ix
), modelos de variável aleatória contínua (VAC). 
 
Alguns exemplos: 
 
1. A VAD 
ix
é o número de ocorrências de 
“Face 3” em 12 lançamentos de um dado 
 
xx
x
i qpxXP







 12
12
)( 
 
2. A VAD 
ix
é o número de requisições de 
serviços de manutenção de computadores da 
universidade no próximo mês (nos meses 
anteriores, a média foi de 4,73 requisições) 
 
!
73,4
)(
73,4
i
x
i
x
e
xxP
i 
 
3. A VAD 
ix
é a duração da carga de baterias 
de celular, em horas, para uma média de 120 
horas informada pelo fabricante. 
 
 
)(0083,0
0
01)(
t
etxP

 
 
Nos exemplos acima, 1 e 2 são de modelos de VAD, e 3 é o modelo exponencial de VAC. 
 
O estudo dos modelos de probabilidade não faz parte da programação do curso5. No entanto, 
para prosseguirmos, é necessário conhecermos, com mais detalhes, um modelo chamado 
Distribuição Normal de Probabilidades. Vamos a ele: 
 
A figura a seguir é um Histograma de Frequências das notas de 5.000 candidatos de um 
concurso vestibular. As notas (número de pontos) foram agrupadas em 19 classes, entre 0 e 
100. 
 
 
 
5
 Caso seja de seu interesse, acesse o site do professor e faça o download da Apostila II – Introdução 
ao Cálculo de Probabilidades. 
O aspecto do gráfico é de uma 
distribuição de maior densidade de 
notas na porção central, e áreas de 
menor concentração à esquerda e à 
direita do gráfico. 
 
O histograma indica haver, também, 
uma disposição simétrica em relação à 
nota central da escala, em torno de 50 
pontos 
 
As estatísticas calculadas foram: 
Média = 52,0 pontos; Desvio-padrão = 
18 pontos; Assimetria = -0,009 
 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 85 
A próxima figura mostra o mesmo conjunto, reagrupado em 9 classes: A percepção da simetria, 
indicada por um coeficiente próximo de 0, fica mais clara. 
 
 
O software traça uma linha suave (polígono de frequência) sobre as colunas do histograma, 
compensando as áreas sob a curva, de forma a “cobrir” todas as notas dos candidatos: 
 
 
 
Tanto o aspecto do histograma quanto a curva de frequências indicam que as notas dos 
candidatos se dispõem, muito aproximadamente, em uma distribuição chamada normal. 
 
A distribuição, ou modelo normal, foi descoberta pelo matemático francês Abraham de 
Moivre6, no século XVIII e adotada por Gauss7, no começo do século XIX para “explicar” as 
frequências relativas dos erros verificados na comparação entre tabelas astronômicas antigas e 
modernas (do século XIX), onde constavam as posições de estrelas e planetas. Prosseguindo 
em seus estudos, Gauss e outros estatísticos descobriram que a distribuição normal podia ser 
aplicada a uma imensa variedade de fenômenos, desde a distribuição das estaturas e dos 
pesos dos indivíduos de uma região até alturas das marés – quase todos os fenômenos da 
natureza “seguem” a distribuição normal, que tem este formato de sino8. A distribuição normal 
 
6
 Abraham de Moivre (1667-1754), matemático francês. 
7
 Joham Carl Friedrich Gauss(1777-1855), matemático, físico e astrônomo alemão. 
8
 Os americanos chama a distribuição normal de “the bell curve”. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 86 
foi de importância crucial no desenvolvimento do modelo atômico, na formulação do princípio 
da incerteza e no conhecimento das partículas alfa e outras radiações. A expressão 
matemática do modelo normal é dado por: 
 
22 2/)(
2
1
)( 

 xexf 
 
na qual  é a média da distribuição da variável aleatória x, 2 é a variância da distribuição, e 
e é a base dos logaritmos naturais, ou neperianos (e = 2,7182). A imagem da curva normal é 
a seguinte: 
 
 
 
O tratamento matemático dessa função é muito trabalhoso, mas os valores desta integral são 
tabelados. Como a distribuição normal é aplicada apenas para variáveis contínuas, os valores 
da integral calculam a probabilidade de ocorrência de faixas (ou intervalos) desta variável. Por 
exemplo, no caso dos candidatos do vestibular, dado que os resultados são normalmente 
distribuídos: 
 
1. Cerca de 1.700 candidatos tiveram 
pontuações entre 52,0 e 70 pontos: 
 
 
 
 
 
 
Curva Normal 
 52 70 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 87 
2. Cerca de 4.100 candidatos tiveram 
pontuações entre 52 e 88 pontos: 
 
 
 
3. Cerca de 4700 candidatos tiveram pontuações 
abaixo de 80 pontos. 
 
 
 
 
4. 90% dos candidatos tiveram pontuações entre 
22,39 e 81,61 pontos; 95% dos candidatos 
tiveram pontuações entre 16,72 e 87,28 pontos; 
99% dos candidatos tiveram pontuações entre 
5,65 e 98,35 pontos. 
 
 
 22,39 81,61 
 
 
 16,72 87,28 
 
 
 
 5,65 98,35 
 
 
 
Atenção para o exemplo (4): para uma variável com valores normalmente distribuídos, com 
média 
X
e desvio-padrão 
s
, há uma probabilidade de 95% de seus valores pertençam ao 
intervalo de confiança de 
sX 96,1
. Na seção seguinte, a importância da distribuição 
normal para a Estatística. 
 80 
 52 80 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 88 
3.4 O Método Estatístico 
 
O Método Estatístico foi desenvolvido, a partir do Cálculo de Probabilidades, para que 
possamos calcular o valor dos parâmetros – as medidas que descrevem o Universo -, a partir 
das medidas estatísticas obtidas de um subconjunto do Universo chamado Amostra. Este 
método é consiste nos seguintes passos: 
 
1. O conjunto Universo é tratado de forma que cada um, e todos os seus elementos, têm a 
mesma probabilidade de ser sorteado. Este processo é chamado de homogeneização do 
Universo. Homogeneizar o Universo consiste em fazer com que cada um de seus elementos 
tenha uma probabilidade de ser sorteado igual à de qualquer outro. Em outras palavras, é 
tornar equiprovável este Universo. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2. Em seguida, alguns elementos do Universo são sorteados para compor um subconjunto 
chamado amostra (). Este sorteio é feito de acordo com o tipo e a técnica de amostragem 
adotada9. A amostra, assim constituída, é processada estatisticamente, ou seja, são calculadas 
as suas medidas descritivas, ou estatísticas: média X , variância 2s , desvio padrão s , 
proporção (ou freqüência relativa), 
p
: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3. Calculando as estatísticas, temos todas as informações sobre a Amostra. Já é uma boa 
parte do caminho até chegarmos aos parâmetros, que, como vimos, são as medidas do 
Universo – objetivo final deste método. Para calcularmos os parâmetros, utilizamos um 
conjunto de processos chamados Inferência Estatística. Partimos da seguinte relação: 
 
9
 O estudo das técnicas de amostragem não faz parte deste Curso. 
Ω 
 
Estatísticas 
Média 
X 
Variância 
2s 
Desvio Padrão 
s 
Proporção 
p
 
 
 
 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 89 
 
Parâmetro = Estatística ± margem de erro 
 
Esta relação decorre de duas postulações fundamentais do Cálculo de Probabilidades: a Lei 
dos Grandes Números, e o Teorema do Limite Central Em linhas gerais, esta relação pode ser 
dita como: 
 
Um parâmetro (medida do Universo) pertence ao intervalo dado pela estatística 
(medida da Amostra), mais ou menos a margem de erro desta estatística. 
 
Desta foram, por exemplo, temos: 
 
X
X   ou  
XX
XX   , 
 
 
 
Margem de Erro da média amostral 
 
Média da Amostra (média amostral) 
 
Média do Universo (média populacional) 
 
O intervalo 
 
XX
XX   ,
 é chamado intervalo de confiança do parâmetro (neste 
exemplo, intervalo de confiança da média populacional). A margem de erro 

é um valor que 
calculamos, utilizando a medida de dispersão e o tamanho da amostra, e informações oriundas 
da distribuição de probabilidades da estatística. Neste exemplo, a margem de erro
X

 da 
média amostral pode ser dada por uma expressão como 
n
s
96,1
. 
 
Assim, com o cálculo do intervalo de confiança do parâmetro, termina o processo do Método 
Estatística, cujas etapas podem ser vistas no diagrama seguinte: 
 
 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 90 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Estatísticas 
(na Amostra) 
ω 
 Parâmetros 
(no Universo) 
Ω 
Média 
X 
 

 
Variância 
2s 
 
2 
Desvio Padrão 
s 
 
 
Proporção 
p
 

 
 
Portanto, há uma correspondência entre as medidas amostrais (estatísticas) e as medidas 
populacionais (parâmetros). 
 
A margem de erro pode ser interpretada como a diferença existente entre as medidas de uma 
Amostra e as do Universo de onde foi extraída. Cada estatística possui a sua margem de 
erro. A margem de erro é função: 
 
 do Nível de Confiança com que se está trabalhando; 
 
 do tamanho da amostra, n; 
 
 das condições do Universo (infinito ou finito); 
 
 do tipo de amostragem que foi realizado (com reposição ou sem reposição). 
 
Cálculo das 
estatísticas 
Cálculo dos 
PARÂMETROS 
 
Amostragem 
Inferência 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 91 
3.5 Inferência Estatística Seja um Universo , constituído de 
N
 elementos, com os 
parâmetros média 

 desvio-padrão 

 e proporção 
A
(de um atributo A).. Retiramos 
aleatoriamente, com ou sem reposição, uma amostra de tamanho 
n
, e calcularmos as suas 
estatísticas média 
X
, desvio-padrão 
s
e proporção 
Ap
. Os intervalos de confiança 
IC
para os parâmetros são dados a seguir: 
 
Média 

- Distribuição normal 
 
n
zX
n
zX critcrit
  
onde 
critz
é tabelado segundo o nível de confiança com que estamos trabalhando.: 
 
Média 

-- Distribuição t de Student 
 
n
s
tX
n
s
tX critcrit   
 
onde 
critt
 é tabelado em função do nível de confiança e do número de graus de liberdade

, 
dado por 
1 n
 
 
A distribuição t de Student é derivada da Curva Normal. Foi calculada pelo estatístico inglês 
Gosset10, e se aplica a qualquer tamanho de amostra e a qualquer número de observações, ao 
contrário da distribuição normal, utilizada apenas para grandes amostras. A figura abaixo 
mostra uma curva da distribuição t. Note a aparência, também em forma de sino: 
 
 
 
10
 W. S. Gosset(1876-1937), químico, matemático e estatístico inglês, trabalhou muitos anos na 
cervejaria Guiness. Por norma de sigilo da cervejaria, publicava seus trabalhos com o pseudônimo de 
Studfent (estudante, em inglês). 
A distribuição da estatística t de 
Student depende do tamanho da 
amostra (ou do conjunto). Então, 
teremos infinitas curvas e 
infinitos valores para t. A 
expressão “graus de liberdade” 

(letra grega phi), dado por 
1 n
, será muito utilizada 
na parte de testes paramétricos. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 92 
Proporção 
A
 
 
n
pp
zp
n
pp
zp critcrit
)1()1( 


  
 
Variância 2 
 


2
inf
2
2
2
sup
2 )1()1( snsn 

 
 
Onde os valores dos 2 (superior e inferior) são oriundos da distribuição do qui-quadrado. A 
distribuição de probabilidades é obra de Pearson11, e também é parametrizada pelo número de 
graus de liberdade . Observe a figura a seguir: 
 
 
 
Exemplo 
 
Um amostra de 100 alunos de uma universidade, extraídos aleatoriamente de uma população 
infinita, revelou as seguintes estatísticas: 
 
Média amostral dos pesos dos alunos X = 61 kg 
 
Desvio-padrão amostral dos pesos dos alunos 
s
 = 12 kg 
 
Variância amostral dos pesos dos alunos: 2s = 144 kg
2. 
 
Percentual de alunos canhotos na amostra 
p
 = 14% 
 
Calcule os intervalos de confiança dos parâmetros populacionais correspondentes. 
 
 
11
 Karl (Carl) Pearson (1857-1936), inglês, um dos mais influentes estatísticos do século XX. 
 
 
Na figura ao lado, um “feixe” de 
curvas da distribuição do qui-
quadrado, para diversos graus de 
liberdade. Quanto maior o grau de 
liberdade, mas achatada (e 
“esticada”) é a curva 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 93 
Média Populacional 
 
kg
n
s
tXIC crit 381,261
100
12
984,161)(  
 
Variância Populacional 
 


2
inf
2
2
2
sup
2 )1()1( snsn 

 ; 
361,73
144)1100(
42,128
144)1100( 2 
 
 
 
33,19401,111 2  
 
Proporção Populacional 
 
068,014,0
100
)14,01(14,0
96,114,0
)1(
)( 




n
pp
zppIC crit 
 
Pelos resultados, há uma probabilidade de 95% de que: 
 
A média populacional 

 esteja entre 58,619 kg e 63,381 kg; a variância populacional 
2
seja um valor entre 111,01 kg2 e 194,33 kg2. A proporção de canhotos 

esteja entre 
7,2% e 20,8%. 
 
IC da Média 

 
 
 
 
 58,62 63,38 kg 
 
 
 
 
IC da Proporção 

 
 
 
 
 7,2 20,8 % 
 
 
 
 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 94 
3.6 Testes de Hipóteses 
 
O que são Testes de Hipóteses 
 
Uma Hipótese estatística é uma afirmativa que se faz sobre um parâmetro, a partir de 
estatísticas de amostras coletadas. Por exemplo, pode-se fazer a hipótese de que a renda 
familiar média de um bairro da cidade é igual a R$ 560,00. Escreve-se 
00,560$: RH o 
. 
oH
(a letra “H”, maiúscula, com a letra “o” subscrita12) é o símbolo da hipótese nula, que é a 
hipótese básica sobre a rernda familiar média do bairro (hipótese nula não quer dizer que a 
hipótese “não tem valor”). Além da hipótese nula 
oH
, podemos formular hipóteses 
alternativas, como, por exemplo: 
 
00,560$:1 RH 
, que é a hipótese oposta à 
oH
. 
00,560$:2 RH 
 
00,560$:3 RH 
 
 
Hipóteses são rejeitadas ou aceitas (melhor dizendo, não rejeitadas). Para testar esta 
hipótese, coletamos uma amostra de tamanho n, de famílias deste bairro, e determinamos o 
intervalo de confiança da média da variável “renda familiar”: No exemplo acima, quando 
formulamos a hipótese nula 
00,560$: RH o 
, estamos afirmando que o valor de 
R$ 560,00 pertence ao intervalo de confiança IC da média populacional 

, estimada a partir 
da média amostral X , para determinado nível de significância 

 (ou nível de confiança 
1NC
). Por exemplo, suponha que extraimos uma amostra de 400 domicílos deste bairro, 
e calculamos sua média X = R$ 550,00 e desvio padrão 
s
= 180,00; o IC da média populaciona 

l13 , para um nível de significância 

= 0,05 (ou 
5%), é dado por: 
 
n
s
tX
n
s
tX critcrit  
 
 
Aplicando os valores, o IC da média 

será 
 
400
0,180
965,100,550
400
0,180
965,100,550   
 
A margem de erro é dada por 
7,17
400
0,180
965,1 
(reais). Veja a figura a seguir: 
 
12
 Por analogia com a palavra “nulo”, muitos chamam de “h-zero”, o que é incorreto. A letra “o” vem do 
inglês “original”, como adotado por Fisher (1935). 
13
 Alguns autores chamam de “Média verdadeira”, o que não é correto. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 95 
 
 
[ 532,3 567,7 ] 
 
Intervalo de confiança da média populacional 
 
Na figura acima, pode-se notar que o valor de R$ 560,00 “cai” dentro da faixa 
R$ 532,3 a R$ 567,7, que é o intervalo de confiança para a média populacional. Como foi visto 
no capítulo 3, há uma probabilidade de 95% de que a média populacional esteja contida 
neste intervalo – e uma probabilidade de 5% de que esteja fora deste intervalo. 
 
Assim, não rejeitamos a 
oH
, ao nível de confiança de 95%. 
 
O que acabamos de fazer foi um teste de hipótese, ou teste estatístico. Testes Estatísticos 
são procedimentos que tem por objetivos: 
 
a) verificar se uma amostra foi realmente extraída de determinada população, isto é, se as 
estatísticas amostrais são iguais, estatisticamente, aos parâmetros populacionais; 
 
b) verificar se existe diferença significativa entre dois ou mais estados de uma variável, ou 
entre estados de duas ou mais variáveis. 
 
Por exemplo, se uma variável aleatória pode evoluir ao longo do tempo; podemos estar 
interessados se houve diferença significativa entre os estados inicial e final da variável (ou 
seja, medidas desta variável tomadas no instante inicial e no instante final do período de 
medição). Em outros casos, podemos estar interessados nas medidas desta variável, tomadas 
no mesmo instante porém em locais diferentes. Ou, em outro caso, pesquisamos se existe 
diferença entre valores de uma variável, relacionados a categorias, p. ex. poder aquisitivo e 
estado civil dos elementos amostrais. Em situações mais complexas, podemos estar 
interessados nas medidas da variável, tomadas em locais e tempos diferentes. Em qualquer 
dos casos, existe uma série de rotinas estatísticas adequadas para estabelecer: 
 
1º Se há diferença estatística significativa entre os estados 
 
2º Em caso de haver esta diferença, estabelecer a comparação entre os estados (em termos 
de maior ou menor). 
 
Igualdades e diferenças estatísticas 
 
Antes de continuarmos com este capítulo, é necessário elucidar este conceito: diferença 
estatística significativa. Em Matemática, as igualdades são exatas, isto é, podemos sempre 
R$ 560,00 
95% 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 96 
dizer que 5 = 5, e nunca que 5 = 6. Em Estatística, como já foi visto na parte de inferência 
estatística, a média de uma população pode ser qualquer número pertencente ao intervalo de 
confiança. Daí que, por exemplo, se o intervalo de confiança da média de um conjunto de 
medidas for de 20,5  2,3, os valores 20, 21 e 22 pertencem ao intervalo de confiança- 
qualquer um deles poderia ser a média real do conjunto. Pertencendo ao mesmo intervalo de 
confiança, eles são estatisticamente iguais, ou, melhor, dizendo, não existe diferença 
estatística significativa entre eles. Por outro lado, neste mesmo conjunto, o valor 25 é 
estatisticamente diferente, ou, melhor dizendo, existe uma diferença estatística significativa 
entre o valor 25 e o intervalo de confiança da média - o valor 25 não pertence ao intervalo de 
confiança. Podemos, então, fixar este conceito: não existe diferença estatística significativa 
entre dois valores de uma variável se estes pertencem ao mesmo intervalo de confiança. 
 
Teoria da Decisão Estatística 
 
A Decisão Estatística decorre do que foi visto na seção anterior. Quando foi dito que duas 
estatísticas de uma variável não são diferentes estatisticamente quando pertencerem ao 
mesmo intervalo de confiança, temos que dizer que há uma probabilidade dos dois valores 
não serem diferentes. Esta probabilidade é o nível de confiança.(lembre-se que o nível de 
confiança é que determina o intervalo de confiança). Vamos dar um exemplo de como é isso, 
na prática: 
 
Exemplo Foi feita uma pesquisa de intenção de voto para o candidato A, no mês de maio. 
Naquele mês, a amostra foi de 400 eleitores e, para um nível de confiança de 95%, inferiu-se 
que a intenção de voto no candidato A era de 38%. A margem de erro da pesquisa foi, portanto 
 
z
p p
n
c .
( )
, .
( , ,
( , , ,
1
1 96
0 38)(0 62)
400
1 96)(0 024) 0 048

  
 ou 4,8% 
 
Daí que a intenção de voto do candidato A deve estar, com uma probabilidade de 95%, entre 
33,2 % e 42,8 %. Continuando este exemplo, imagine agora que, na mesma pesquisa, um 
outro candidato, B, obteve 34% das intenções de voto. Existe diferença entre estes dois 
candidatos? A resposta é que não existe diferença, estatisticamente falando, uma vez que a 
votação do candidato B está dentro do intervalo de confiança da intenção de voto do candidato 
A. A diferença matemática entre as intenções de A, 38%, e do candidato B, 34%, não é 
estatisticamente significativa, sendo esta variação devida ao acaso14. Veja a ilustração a 
seguir: 
 
 
14
 Esta é um outro conceito frequentemente adotado para o intervalo de confiança: uma região (um 
intervalo) em que as diferenças das medidas em relação à média populacional (ou qualquer outro 
parâmetro) são aleatórias, isto é, devidas unicamente ao acaso. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 97 
 
 
  = 38% 
 34% 
 33,2% 42,8 % 
 
 Intervalo de confiança de  
 
Você deve estar pensando em termos de certeza: não existe diferença entre os candidatos, e 
pronto. Não é bem assim. Lembre-se que adotamos o nível de confiança de 95%, e isto quer 
dizer que estamos 95% confiantes da inexistência de diferença entre os candidatos. E que 
existe uma probabilidade de 5% de que nossas conclusões sejam falsas. 
 
A situação descrita acima (dois candidatos sem diferença estatística na intenção de voto) é dita 
de empate técnico. Não se pode afirmar, neste momento, qual candidato está na frente da 
corrida eleitora 
 
O p- value 
 
Nos últimos anos, disseminou-se na literatura científica, principalmente nas áreas da Psicologia 
e das Ciências da Saúde, e nos pacotes estatísticos como o SPSS, a utilização de uma 
estatística chamada p, ou p-value. O p-value é uma probabilidade, ou uma área sob a curva da 
distribuição de probabilidades que está sendo usada no teste de hipóteses. Por exemplo, seja 
a hipótese 
108: oH
, que estamos testando, com uma amostra de 
n = 144 elementos, com média 
X
=113 e desvio padrão 
s
= 22. Adotamos o nível de 
confiança de 95% (nível de significância de 0,05), e a distribuição t de Student para o teste. 
Calculamos o intervalo de confiança pela expressão 
 
n
s
tX
n
s
tX critcrit  
, e 
144
22
98,1113
144
22
98,1113  
 
 
Portanto, o IC é [109,4 – 116,6], e a 
108: oH
 é rejeitada. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 98 
Outra maneira de testar essa hipótese seria a de calcular uma estatística 
 
n
s
X
tcalc

 , 
 
 e verificar qual é o p-value referente a este tcalc (o computador calcula este p-value) O novo 
critério de decisão será: 
 
 
 
 
 
 
 
 
Neste exemplo, o tcalc é igual a 2,727, e o p-value para este tcalc é = 0,007, que é menor do que 
o  de 0,05. Portanto, rejeita-se a hipótese nula de que o valor 108 pertença a esta amostra. 
 
Como se verá, o SPSS (e outros programas) calculam o tcalc e deixam que comparemos o 
p-value com o  adotado. Então, o critério passa a ser: 
 
Caso o p-value >  ,não se rejeita a hipótese de igualdade; 
 
Caso o p-value <  rejeita-se a hipótese de igualdade. 
 
Não rejeitar a Hipótese Nula se o 
p-value >  . 
/2 /2 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 99 
Parte II Testes Paramétricos 
 
3.7 Teste T de igualdade das médias de duas amostras 
independentes. 
 
Abrindo a base de dados BD01, iremos testar a seguir a hipótese de igualdade das estaturas 
segundo o sexo dos pacientes. Em primeiro lugar, utilizamos, a rotina Explore, para calcular as 
estatísticas desta variável segundo o sexo: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
O SPSS irá abrir o seguinte output: 
Colocamos na Dependent list , 
a variável Estatura e na Factor 
List, a variável Sexo 
Utilizamos o Explore para verificar 
as diferenças entre as estatísticas 
da variável estatura, segundo o 
sexo dos partiicipantes. 
 Siga pelo Captivate 03 Parte 1 
 
 Base de Dados em Uso 
BD01 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 100 
 
Descriptives 
 
 Sexo Statistic Std. Error 
Estatura Masculino Mean 1,6597 ,01358 
95% Confidence 
Interval for Mean 
Lower Bound 1,6327 
Upper Bound 
1,6868 
5% Trimmed Mean 1,6549 
Median 1,6250 
Variance ,014 
Std. Deviation ,11838 
Minimum 1,48 
Maximum 1,98 
Range ,50 
Interquartile Range ,19 
Skewness ,460 ,276 
Kurtosis -,651 ,545 
Feminino Mean 1,4667 ,02204 
95% Confidence 
Interval for Mean 
Lower Bound 1,4211 
Upper Bound 
1,5123 
5% Trimmed Mean 1,4616 
Median 1,4400 
Variance ,012 
Std. Deviation ,10797 
Minimum 1,32 
Maximum 1,70 
Range ,38 
Interquartile Range ,08 
Skewness 1,299 ,472 
Kurtosis ,753 ,918 
 
 
Note que as médias são: Masculino:
()118,06597,1 
 
 : Feminino: 
()108,04667,1 
 
 
A diferença da média de estatura entre os grupos é de 1,6597-1,4667= 0,19307m. A diferença 
entre os grupos fica mais evidente quando analisamos o Box-Plot. 
 
Ou seja, são numericamente diferentes. O teste t irá verificar se são, também estatisticamente 
diferentes. 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 101 
Sexo
FemininoMasculino
E
st
at
u
ra
2,00
1,80
1,60
1,40
51
24 10
89
 
 
Pela imagem do box- plot podemos observar que as medianas estão bem distantes e que há 
um bom número de outliers nas estaturas dos individuos do sexo feminino. Estas discrepâncias 
podem atrapalhar o teste. 
 
Iremos agora, proceder ao teste. Antes, temos que verificarse a distribuição da variável 
Estatura é normal, para que possamos testar suas médias utilizando o teste T de Student. A 
verificação da normalidade é feita através do teste não paramétrico de Kolmogorov 
Smirnov. 
 
O caminho é: 
 
 
 
Analyze > Nonparametric Tests> 
1-Sample K-S 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 102 
Descoloque a variável Estatura para a janela da direita e clique em . 
 
 
 
O SPSS, irá abrir o seguinte output: 
 
 One-Sample Kolmogorov-Smirnov Test 
 
 Estatura 
N 100 
Normal Parameters(a,b) 
Mean 1,6134 
Std. Deviation ,14210 
Most Extreme 
Differences 
Absolute ,070 
Positive ,070 
Negative -,060 
Kolmogorov-Smirnov Z ,700 
Asymp. Sig. (2-tailed) ,712 
a Test distribution is Normal. 
b Calculated from data. 
 
Escolhemos Indepent- Samples T-Test 
 
 
 
 
O SPSS irá abrir a seguinte caixa de diálago: 
 
A significância assintótica bicaudal 
(p) é igual a 0, 712, maior do que 
0,05, o que indica que a variável 
tem uma distribuição 
aproximadamente normal. 
Utilizaremos, portanto o teste t. O 
caminho é o seguinte: 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 103 
 
 
 
 
 
 
 
 
 
Abre-se esta caixa de diálogo: 
 
 
 
 
 
 
 
 
 
 
 
 
Colocamos a variável Estatura na 
janela Test Variable(s). 
 
 
 
 
 
 
 
 
 
 
Colocamos a variável Sexo na 
janela Grouping Variable(s) 
 
 
 
 
 
 
Note que o SPSS coloca um fundo 
azul e duas interrogações (??) ao 
lado da variable. O software está 
solicitando que vocêdefina quais 
grupos serão utilizados. Clique em 
Define, e irá aparecer a seguinte 
caixa: 
 
Coloque os valores 1 e 2 
respectivamente nas janelas de 
grupo 1 grupo 2. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 104 
 
 
 
 
 
 
 
 
Completada a operação, clique em O SPSS irá abrir este output. 
 
 
O primeiro quadro mostra as estatísticas da estatura, para os sexos masculinos e femininos: N 
(tamanhos dos grupos) Mean (média), Std. Deviation (Desvio- padrão) e Std. Error Mean (Erro 
padrão da média) 
 
Group Statistics 
 
 Sexo N Mean Std. Deviation 
Std. Error 
Mean 
Estatura Masculino 76 1,6597 ,11838 ,01358 
Feminino 24 1,4667 ,10797 ,02204 
 
No quadro acima, as estatísticas da variável Estatura , agrupadas segundo o atributo sexo. 
Observe os valores. Eles poderão ser comparados (comparação numérica) caso a hipótese 
nula de igualdade seja rejeitada. 
 
 O SPSS irá entender que você 
deseja grupar a variável Estatura 
segundo os sexos que são 
codificados por estes valores. 
 
 
 
 
 
 
Mantemos o Nivel de Confiança 
de 95%. 
 
Clicando em 
 
 
 
O SPSS retorna a esta tela: 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 105 
O quadro seguinte é o resultado do teste: 
 
Independent Samples Test 
 
 
Levene's Test for 
Equality of Variances t-test for Equality of Means 
 F Sig. t df Sig. (2-tailed) 
Mean 
Difference 
Std. Error 
Difference 
95% Confidence Interval 
of the Difference 
Lower Upper 
Estatura Equal variances 
assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698 
 Equal variances 
not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531 
 
 
As estatísticas – e as informações - são: 
 
Independent Samples Test 
 
 
Levene's Test for 
Equality of Variances t-test for Equality of Means 
 F Sig. t df Sig. (2-tailed) 
Mean 
Difference 
Std. Error 
Difference 
95% Confidence Interval 
of the Difference 
Lower Upper 
Estatura Equal variances 
assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698 
 Equal variances 
not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531 
 
 
 
 
 
 
 
 
As primeiras células da tabela mostram a variável (estatura). O quadro se divide em 
duas linhas conforme a presunção de homocedasticidade ou heterocedasticidade 
(igualdade ou não das variâncias). A linha de cima exibe os resultados para as 
variâncias iguais, a de baixo para variâncias supostas não iguais. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 106 
Independent Samples Test 
 
 
Levene's Test for 
Equality of Variances t-test for Equality of Means 
 F Sig. t df Sig. (2-tailed) 
Mean 
Difference 
Std. Error 
Difference 
95% Confidence Interval 
of the Difference 
Lower Upper 
Estatura Equal variances 
assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698 
 Equal variances 
not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531 
 
 
 
 
 
 
 
 Independent Samples Test 
 
 
Levene's Test for 
Equality of Variances t-test for Equality of Meanias 
 F Sig. t df Sig. (2-tailed) 
Mean 
Difference 
Std. Error 
Difference 
95% Confidence Interval 
of the Difference 
Lower Upper 
Estatura Equal variances 
assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698 
 Equal variances 
not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531 
 
 
 
 
 
 
 
Estes são os resultados do teste de Levene. Este teste verifica se as variâncias das 
amostras são iguais utilizando a distribuição F de Snedecor. Neste exemplo, o valor 
de F mostra uma significância (Sig.) igual a 0,103 > 0,05. Portanto as variâncias são 
estatisticamente iguais e vamos ler os resultados na linha de cima do quadro. 
Estas são as células principais do quadro do output. A primeira célula mostra a estatística T 
calculada para a diferença entre médias, igual a 7,107, para 98 graus de liberdade. A significância 
bicaudal é igual a 0,000 << 0,05. Este resultado indica que há uma diferença estatisticamente 
significativa entre as estaturas masculina e feminina. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 107 
 
 Independent Samples Test 
 
 
Levene's Test for 
Equality of Variances t-test for Equality of Means 
 F Sig. t df Sig. (2-tailed) 
Mean 
Difference 
Std. Error 
Difference 
95% Confidence Interval 
of the Difference 
Lower Upper 
Estatura Equal variances 
assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698 
 Equal variances 
not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531 
 
 
 
 
 
 
 
 
 
 
 
Esta significância nos diz que existe uma diferença estatística significativa entre as médias das estaturas das duas amostras. Os indivíduos do sexo 
masculino tem estatura numérica e estatisticamente maiores do que indivíduos do sexo feminino. 
 
 
 
 
Dados adicionais, estes resultados são: Mean Difference, (diferença entre médias); 
Std. Error Difference, (Erro padrão da diferença). 95% Confidence Interval of the 
Difference, (Intervalo de confiança da diferença entre médias para o nível de 
confiança de 95%). 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 108 
3.8 Amostras pareadas 
 
Amostras pareadas ou emparelhadas são conjuntos de observações que se fazem sobre o 
mesmo grupo em momentos diferentes. O exemplo a seguir compara os pesos dos 
participantes do programa em dois momentos distintos: o primeiro momento é o peso quando 
da apresentação do participante, e o segundo momento é o peso 3 meses após. 
 
 
 
 
 
 
 
 
Antes de realizar o teste, calculamos as estatísticas básicas das duas variáveis, utilizando a 
rotina Analyze > Descriptive Statistics > Descriptive15: 
 
 
 
Abre-se a caixa de diálogo: 
 
 
 
Deslocamos os campos Peso [apresentação] e Peso após 3 meses [Peso 3m] da janela da 
esquerda para a janela da direita: 
 
 
15
 Esta rotina foi apresentada no tutorialdo Módulo 2, Medidas Estatísticas no SPSS. 
 Siga pelo Captivate 03 Parte 2 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 109 
 
 
 
 
 
Voltamos à tela anterior e clicamos em 
 
 
Selecionamos as estatísticas Média 
(Mean), Desvio-padrão (Std. 
variation) , Mínimo (Minimum) e 
Máximo (Maximum): 
 
Clique em 
Options 
 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 110 
O output é o seguinte: 
 
 Descriptive Statistics 
 
 N Minimum Maximum Mean Std. Deviation 
Peso (apresentação) 100 48 102 69,90 12,520 
Peso após 3 meses 100 50 112 76,23 12,526 
Valid N (listwise) 100 
 
Assim, verificamos que, numericamente, houve um aumento na média dos pesos, de 69,9 kg 
para 76,23 kg. O teste estatístico irá “dizer” se esta diferença é estatisticamente significativa, 
ou seja, se este aumento foi “real”, não foi devido ao acaso. 
 
 
 
Abre-se a seguinte caixa de diálogo: 
 
 
 
O caminho é: 
Analyze > Compare Means> 
Paired- Samples T Test 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 111 
 
 
 
 
 
 
 
Clicando em o SPSS apresenta o seguinte output: 
 
 
Passaremos as 
variáveis cujos valores 
serão comparados da 
janela da esquerda para 
a janela da direita, 
utilizando o botão 
 
 
 
No entanto, esta 
passagem não é feita 
de uma vez. Veja que, 
quando a primeira 
variável é selecionada, 
o nome da variável 
“desce” para o canto 
esquerdo inferior da 
caixa, sob o título 
Variable 1. Clicamos na 
segunda variável, e ela 
também "desce", para a 
posição inferior, 
Variable 2. 
 
 
 
 
 
 
Somente quando os 
campos Variable 1 e 
Variable 2 estão 
preenchidos é que 
utilizamos o botão 
 
 
 
 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 112 
 
 Paired Samples Statistics 
 
 Mean N Std. Deviation 
Std. Error 
Mean 
Pair 1 Peso (apresentação) 69,90 100 12,520 1,252 
Peso após 3 meses 76,23 100 12,526 1,253 
 
 Paired Samples Test 
 
 Paired Differences 
 
Mean 
 
Std. Error 
Mean 
95% Confidence 
Interval of the 
Difference 
 Std. Deviation Upper Lower t df Sig. (2-tailed) 
Pair 1 Peso (apresentação) - 
Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000 
 
 
 
 
Paired Samples Test 
 
 Paired Differences 
 
Mean 
 
Std. Error 
Mean 
95% Confidence 
Interval of the 
Difference 
 Std. Deviation Lower Upper t df Sig. (2-tailed) 
Pair 1 Peso (apresentação) - 
Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000 
 
 
 
 
Estatísticas das diferenças: Mean ( média), Std. Deviation (desvio- padrão), Std. Error Mean ( Erro 
padrão da média), e os limites inferior e (Lewer) e superior (Upper) do Intervalo de Confiança da 
média das diferenças. 
 Paired Samples Correlations 
 
 N Correlation Sig. 
Pair 1 Peso (apresentação) & 
Peso após 3 meses 100 ,962 ,000 
 
Não se preocupe com este output agora. 
 
Variáveis emparelhadas a serem comparadas: Peso na apresentação, e Peso 3m depois. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 113 
 
 
 
 Paired Samples Test 
 
 Paired Differences 
 
Mean 
 
Std. Error 
Mean 
95% Confidence 
Interval of the 
Difference 
 Std. Deviation Lower Upper t df Sig. (2-tailed) 
Pair 1 Peso (apresentação) - 
Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000 
 
 
 
 
 
 
 
 
O valor do p-value, 0,000, indica que a hipótese nula de igualdade entre as médias deve ser rejeitada, e que existe diferença significativa entre elas. 
Podemos, então, observar e comparar os valores numéricos, concluindo que o peso após 3 meses é maior que o peso na apresentação (em termos de 
média). 
 
 
 
Resultados finais do teste: A estatística 
calct
(t) os graus de liberdade (df) e o p-value ( Sig(2-tailed)) 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 114 
3.9 Análise da Variância 
 
A Análise da Variância é um teste paramétrico que verifica se há diferença estatística 
significativa entre os valores de uma variável, agrupados em mais de dois atributos, ou valores, 
de outra variável. Como exemplo, iremos analisar a variável Peso, agrupada segundo os 
valores da variável Faixa Etária. 
 
Começamos pelas estatísticas, utilizando a rotina Explore. 
 
 
 
Preencha as janelas Dependent List e Factor List com os campos Peso e Faixa Etária: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 Siga pelo Captivate 03 Parte 3 
 
O caminho é Análise> Descriptive 
Statistics >Explore. A caixa de diálogo 
abre-se e é preenchida desta forma: 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 115 
Eis o output: 
 Descriptives 
 
 Faixa Etária Statistic Std. Error 
Peso (apresentação) Faixa Etária I 20-39 anos Mean 65,86 1,797 
95% Confidence 
Interval for Mean 
Lower Bound 62,17 
Upper Bound 
69,54 
5% Trimmed Mean 65,75 
Median 66,00 
Variance 90,423 
Std. Deviation 9,509 
Minimum 48 
Maximum 87 
Range 39 
Interquartile Range 15 
Skewness -,027 ,441 
Kurtosis -,100 ,858 
Faixa Etária II 40-54 anos Mean 69,43 1,682 
95% Confidence 
Interval for Mean 
Lower Bound 66,06 
Upper Bound 
72,80 
5% Trimmed Mean 69,46 
Median 70,50 
Variance 158,468 
Std. Deviation 12,588 
Minimum 48 
Maximum 92 
Range 44 
Interquartile Range 21 
Skewness -,112 ,319 
Kurtosis -1,127 ,628 
Faixa Etária 3 55 em 
diante 
Mean 78,63 3,338 
95% Confidence 
Interval for Mean 
Lower Bound 71,51 
Upper Bound 
85,74 
5% Trimmed Mean 78,58 
Median 77,50 
Variance 178,250 
Std. Deviation 13,351 
Minimum 56 
Maximum 102 
Range 46 
Interquartile Range 24 
Skewness ,167 ,564 
Kurtosis -1,079 1,091 
 
Pelos dados acima verificamos que há diferença numérica entre os valores das médias: quanto 
maior a faixa etária, maior a média dos pesos. A ANOVA irá verificar se há diferença estatística 
entre estes valores. 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 116 
Agora, começamos efetivamente a Análise da Variância, ANOVA One-Way. 
 
 
 
 
 
 
 
 
 
Abre-se a tela da ANOVA. Na 
janela Depent List, colocamos a 
variável peso. 
 
 
 
 
 
 
 
 
 
Na janela Factor, colocamos a 
variável Faixa Etária. 
O caminho é: 
Analyze> Compare Means> 
One- Way Anova 
A ANOVA, por si, não informa mais 
do que se há diferença estatística 
significativa ou não entre as médias 
da variável, agrupada pelos fatores. 
 
Para saber qual média é diferente 
das outras, recorremos às 
chamadas comparações Post-Hoc. 
 
Clique em 
 
 e veja a 
tela ao lado: 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 117 
 
 
 
 
 
 
 ANOVA 
 
Peso (apresentação) 
 
Sum of 
Squares df Mean Square F Sig. 
Between Groups 1688,107 2 844,054 5,920 ,004 
Within Groups 13830,893 97 142,587 
Total 15519,000 99 
 
O quadro acima é o resultado da ANOVA. 
 
 ANOVA 
 
Peso (apresentação) 
 
Sum of 
Squares df Mean Square F Sig. 
Between Groups 1688,107 2 844,054 5,920 ,004 
Within Groups 13830,893 97 142,587 
Total 15519,000 99 
 
Na 2ª coluna, temos a soma dos quadrados (Sum of Squares) entre os grupos ( Between 
groups),dentro dos grupos (wilhin groups) e total (Total) . 
 
Clicamos em . O SPSS 
abre o seguinteoutput. 
Escolhemos as rotinas de 
comparação de Bonferroni, Scheffe 
e Tukey. 
 
Clicamos em 
 
 
e o SPSS retorna à tela anterior. 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 118 
 
 ANOVA 
 
Peso (apresentação) 
 
Sum of 
Squares df Mean Square F Sig. 
Between Groups 1688,107 2 844,054 5,920 ,004 
Within Groups 13830,893 97 142,587 
Total 15519,000 99 
 
Na coluna seguinte os graus de liberdade (df). Na 4ª coluna os quadrados médios. 
 
 ANOVA 
 
Peso (apresentação) 
 
Sum of 
Squares df Mean Square F Sig. 
Between Groups 1688,107 2 844,054 5,920 ,004 
Within Groups 13830,893 97 142,587 
Total 15519,000 99 
 
Na 5ª e 6ª coluna, a estatística F de Snedecor e o resultado da ANOVA, a significância, ou p- 
value. No exemplo, p= 0,004<<0,05, ou seja, rejeita-se a hipótese nula de igualdade e 
concluímos que há diferença estatística significativa entre os pesos dos grupos segundo a faixa 
etária. 
 
Então, precisamos dos resultados das comparações Post Hoc para verificar, em detalhe, estas 
diferenças. No output a seguir, estes resultados: 
 
 
 
 
 
 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 119 
 Multiple Comparisons 
Dependent Variable: Peso (apresentação) 
 
Mean 
Difference 
(I-J) Std. Error 
Sig 95% Confidence Interval 
 (I) Faixa Etária (J) Faixa Etária Lower Bound Upper Bound 
Tukey HSD Faixa Etária I 20-39 anos Faixa Etária II 40-54 anos -3,571 2,764 ,403 -10,15 3,01 
 Faixa Etária 3 55 em 
diante 
-12,768(*) 3,742 ,003 -21,68 -3,86 
 Faixa Etária II 40-54 anos Faixa Etária I 20-39 anos 
3,571 2,764 ,403 -3,01 10,15 
 Faixa Etária 3 55 em 
diante 
-9,196(*) 3,385 ,021 -17,25 -1,14 
 Faixa Etária 3 55 em 
diante 
Faixa Etária I 20-39 anos 
12,768(*) 3,742 ,003 3,86 21,68 
 Faixa Etária II 40-54 anos 
9,196(*) 3,385 ,021 1,14 17,25 
Scheffe Faixa Etária I 20-39 anos Faixa Etária II 40-54 anos -3,571 2,764 ,437 -10,44 3,30 
 Faixa Etária 3 55 em 
diante 
-12,768(*) 3,742 ,004 -22,07 -3,46 
 Faixa Etária II 40-54 anos Faixa Etária I 20-39 anos 3,571 2,764 ,437 -3,30 10,44 
 Faixa Etária 3 55 em 
diante 
-9,196(*) 3,385 ,029 -17,61 -,78 
 Faixa Etária 3 55 em 
diante 
Faixa Etária I 20-39 anos 
12,768(*) 3,742 ,004 3,46 22,07 
 Faixa Etária II 40-54 anos 
9,196(*) 3,385 ,029 ,78 17,61 
Bonferroni Faixa Etária I 20-39 anos Faixa Etária II 40-54 anos -3,571 2,764 ,598 -10,30 3,16 
 Faixa Etária 3 55 em 
diante 
-12,768(*) 3,742 ,003 -21,88 -3,65 
 Faixa Etária II 40-54 anos Faixa Etária I 20-39 anos 
3,571 2,764 ,598 -3,16 10,30 
 Faixa Etária 3 55 em 
diante 
-9,196(*) 3,385 ,023 -17,44 -,95 
 Faixa Etária 3 55 em 
diante 
Faixa Etária I 20-39 anos 
12,768(*) 3,742 ,003 3,65 21,88 
 Faixa Etária II 40-54 anos 9,196(*) 3,385 ,023 ,95 17,44 
* The mean difference is significant at the .05 level. 
 
Neste quadro as comparações Post- Hoc. O SPSS coloca um asterisco ao lado de cada grupo onde há diferença 
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 120 
 
Finalmente, o quadro de subsets (subconjuntos) 
 
 Peso (apresentação) 
 
 Faixa Etária 
N Subset for alpha = .05 
 1 2 
Tukey 
HSD(a,b) 
Faixa Etária I 20-39 anos 28 65,86 
Faixa Etária II 40-54 anos 56 69,43 
Faixa Etária 3 55 em 
diante 16 78,63 
Sig. ,532 1,000 
Scheffe(a,b) 
Faixa Etária I 20-39 anos 28 65,86 
Faixa Etária II 40-54 anos 56 69,43 
Faixa Etária 3 55 em 
diante 16 78,63 
Sig. ,563 1,000 
Means for groups in homogeneous subsets are displayed. 
a Uses Harmonic Mean Sample Size = 25,846. 
b The group sizes are unequal. The harmonic mean of the group sizes is used. Type I error levels are not 
guaranteed. 
 
Esté é o quadro dos subgrupos com estatísticas iguais. O SPSS localiza as faixas etárias I e II 
no mesmo subconjunto (subset 1), indicando não existir diferença estatística entre elas. Já a 
faixa etária III é localizada em outro subconjunto (subset 2), indicando que existe diferença 
significativa entre as medidas do Peso entre esta faixa etária e as duas primeiras. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Fim do Tutorial do Módulo III 
Próximo Módulo: 
Testes Não 
Paramétricos

Outros materiais