Buscar

Análise Multivariada no SPSS - Curso de Estatística Aplicada para Iniciantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 57 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 57 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 57 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/315735440
Módulo 5 - Análise Multivariada no SPSS
Technical Report · November 2016
DOI: 10.13140/RG.2.2.10857.90727
CITATIONS
0
READS
4,363
1 author:
Some of the authors of this publication are also working on these related projects:
Autonomic heart rate modulation and functional aerobic capacity in hemiparetic patients View project
Eduardo Federighi Baisi Chagas
Universidade de Marília
37 PUBLICATIONS   8 CITATIONS   
SEE PROFILE
All content following this page was uploaded by Eduardo Federighi Baisi Chagas on 01 April 2017.
The user has requested enhancement of the downloaded file.
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
MATERIAL DIDÁTICO 
CURSO DE ESTATÍSTICA APLICADA PARA INICIANTES 
MÓDULO 5 
ESTATÍSTICA ANALÍTICA IV 
Análise Multivariada no SPSS 
AUTOR: EDUARDO FEDERIGHI BAISI CHAGAS 
MARÍLIA 
2016 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
SUMÁRIO 
1. Anova
2. Anova-one-way
3. Ancova - Análise de Covariância
4. Anova-two-way
5. Anova de Medidas Repetidas
6. Manova
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
1. ANOVA
A ANOVA (análise da variância) é o método recomendado para comparar 
médias de três os mais grupos. Uma ANOVA produz uma estatística “F” ou razão “F” 
que é semelhante a estatística “t”, pois, ela compara a variância sistemática dos dados 
com a variância não-sistemática. 
Contudo a ANOVA é um teste abrangente (omnibus), que analisa o efeito 
global, ou seja, ela informa se existem diferenças entre os grupos experimentais, porém 
não informa entre quais grupos a diferença se localiza. Para isto são utilizados os 
Contrastes ou Testes Post-Hoc. 
A ANOVA é baseada nos mesmo conceitos da Regressão, que comparar a 
razão entre as variâncias. Deste modo, a ANOVA pode ser representada por uma 
regressão múltipla na qual o número de previsores é um a menos do que o número de 
categorias da variável independente. 
Dependendo do desenho da pesquisa diferentes formas de ANOVA podem ser 
aplicadas. A Anova-one-way é utilizada quando o pesquisador pretende comparar a 
média de uma variável quantitativa entre mais de dois grupos independentes. 
Quando se pretende analisar o efeito de outras variáveis que influenciam os 
resultados da variável dependente de interesse é possível incluir covariáveis na Anova-
one-way. Quando isso ocorre estamos realizando a ANCOVA. 
Outra aplicação da ANOVA é quando o pesquisador que analisar a interação de 
duas ou mais variáveis independentes sobre a variável quantitativa (dependente) de 
interesse. Está análise de chamada de Anova Fatorial, e quando é incluído duas 
variáveis independentes é chamada de Anova-two-way. 
Há situações que a comparação das médias não se dá somente em grupos 
independentes, pois, o pesquisador realiza medidas repetidas de um mesmo grupo. 
Nesta condição é utilizada a Anova de Medidas Repetidas. Quando se pretende analisar 
o efeito da combinação de variáveis dependentes entre grupos a análise utilizada é a
MANOVA. 
Embora os conceitos da ANOVA sejam importante o foco de material é 
descrever de forma prática o uso destes recursos estatístico. 
2. ANOVA-ONE-WAY
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
As suposições sob as quais a ANOVA é confiável são as mesmas dos testes 
PARAMÉTRICOS baseados na DISTRIBUIÇÃO NORMAL. Além disto, as variâncias 
em cada um dos grupos devem ser homogêneas, que representa o pressuposto de 
HOMOGENEIDADE DAS VARIÂNCIAS. 
Em termos de violação de das hipóteses de homogeneidade da variância, a 
ANOVA é bastante robusta quando o tamanho dos grupos é igual. Quando grupos com 
grande tamanhos amostrais apresentam variâncias maiores do que grupos com tamanhos 
amostrais menores, a razão F tende e ser “não-significativa” mesmo quando existe uma 
diferença (erro do tipo II). 
Já quando os grupos com grande tamanhos amostrais apresentam variâncias 
menores do que os grupos com tamanhos amostrais menores, a razão F tende a ser 
“significativa” mesmo quando não existe diferença entre os grupos (erro do tipo I). 
O SPSS fornece opções de teste que corrigem a violação das hipóteses de 
homogeneidade das variâncias, porém a violação da hipótese da independência é mais 
série a aumenta de forma considerável a chance de erro do tipo I. A hipótese da 
Independência é violada quando as observações entre os grupos se correlacionam. 
 
CONTRASTES 
Como a razão F da estatística da ANOVA nos informa somente se existe 
diferença entre os grupos independentes é necessário realizar procedimentos adicionais 
para identificar entre quais grupos existe a diferença significativa. 
Uma das opções para isto são os CONTRASTES planejados, que realizam 
comparações par a par entre os grupos. O SPSS fornece várias opções de 
CONTRASTES, porém a escolha deste dependente da forma que pretende comparar os 
grupos. Caso o pesquisador não tenha definido a forma como pretende comparar os 
grupos, recomendo que faça a opção pelo teste Post-Hoc que realiza a compara de todos 
os pares possíveis controlando o aumento do erro do tipo I. 
Entretanto a situações que se pretende realizar a análise de tendência e isto é 
possível através do CONTRASTE POLINOMIAL. 
 
POST-HOC 
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
O teste Post-Hoc representa comparações aos pares corrigindo o problema do 
crescimento do erro de conjunto. O SPSS fornece 18 opções de teste Post-Hoc, e a 
principal diferença entre eles é a forma que controlam o erro do tipo I e tipo II. Porém 
quando o erro do tipo I é controlado de forma mais conservadora se observa um redução 
do poder, ou seja, um aumento do erro do tipo II e redução da capacidade do teste 
encontrar diferenças significativas quando elas realmente existem. Também há opções 
de teste Post-Hoc que devem ser utilizadas quando as hipóteses de Homogeneidade das 
variâncias são violadas. 
Vou comentar das principais opções de teste Pos-Hoc e as vantagens e 
desvantagens destes considerando os tipos de erro. 
O teste LSD não tenta controlar o erro do tipo I e exige apenas que a ANOVA 
seja significativa. Deste modo para seu uso recomendo que todos os pressupostos 
estejam atendidos e que o nível de significância, normalmente estabelecido em p≤0,05, 
seja dividido pelo número de pares de comparações. 
O teste de Bonferroni e de Turkey controlam muito bem o erro do tipo I, mas 
reduzem bastante o poder. O teste de Bonferroni apresenta maior poder quando o 
número de comparações é pequeno. O teste de Turkey é recomendado quando o número 
de comparações é grande. 
O teste REGWQ apresenta um bom poder e controle satisfatório do erro do 
tipo I, porém não devem ser utilizado para comparação de grupos de tamanhos 
diferentes. 
Quando a homogeneidade das variâncias não for violada o SPSS fornece 
opções de teste Post-Hoc que podem ser aplicados quando a igualdade das variâncias 
não é assumida. A opção mais recomendada é o teste de Games-Howell. 
 
ANOVA-ONE-WAY 
 
Para exemplificar o uso da Anova-one-way vamos imaginar que temos três 
grupos independentes que correspondem a três faixas etárias, e o objetivo é comparar a 
média de índice de massa corporal (IMC) entre os grupos. Clicar em 
Analyze<Compare Means<One-Way-ANOVA. Na caixa de dialogo que abrir inserir 
Katrice
Realce
Katrice
Realce
Katrice
Realce
 Estatística Aplicada para Iniciantes– Módulo 5 – Estatística Analítica IV 
em Dependent List a variável quantitativa e em Factor a variável qualitativa que divide 
os grupos. 
 
 
Na opção Contrasts selecionar a opção Polynomial e em Degree selecionar a 
opção Quadratic. Ao selecionar a opção Quadratic será realizada a análise de contraste 
selecionada e a anterior (Linear). A opção Polynomial produz o valor de “p” conhecido 
como “p-trend” ou valor de “p” para tendência. Na opção Post-Hoc considere as 
recomendações anteriores para seleção dos testes, porém como temos apenas 3 grupos 
de comparação sugiro selecionar a opção de Bonferroni e como ainda não temos certeza 
sobre a homogeneidade das variâncias selecione também a opção Games-Howell. 
Retornando na caixa de dialogo principal clicar em Options e selecionar os 
itens Descriptive, Homogeneity of variance test, Brown-Forsythe, Welch e Means Plot. 
 
 
O teste de LEVENE testa a hipótese de Homogeneidade das Variâncias, e 
quando está é violada o SPSS fornece duas opções alternativas ao teste de ANOVA para 
calcular a razão F. O teste de Welch é o mais recomendado quando a hipótese de 
Homogeneidade das Variâncias, porém se um dos grupos apresentar valores de média 
extremos utilize o Brown-Forsythe. Retorne a caixa principal e clique em OK. 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
No Output do SPSS no quadro Descriptive é apresentada a Média (mean), 
desvio-padrão (Std. Deviation), erro padrão (Std.Error), o intervalo de confiança de 
95% para média (lower bound e upper bound) e amplitude (minimum e maximum). 
 
 
No quadro Testo f Homogeneity of Variances o valor de sig (p)≤0,05 indica 
que a hipótese da Homogeneidade das Variâncias foi violada. Caso isso tenha ocorrida 
considerar a razão F e valor de “p” (sig) do quadro Robust Testo of Equality of Means. 
 
No quadro ANOVA a estatística F e valor de “p” (sig) para o Teste de Anova-
one-way está em Between Groups, que indica que existe diferenças significativas entre 
os grupos de faixa etária. Em Linear Term é apresentado o valor de “p-trend” para 
relação linear na opção Unweighted (não ponderada) e Weighted (ponderada), que 
indica que existe relação linear entre aumenta da faixa etária e aumento do IMC. Em 
Quadratic Term é apresentado o valor de “p-trend” para relação quadrática na opção 
Unweighted (não ponderada) e Weighted (ponderada). 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Como a Anova-one-way tem valor de “p” (sig)≤0,05 assumimos que existe 
diferença signficativa entre os grupos, mas para localizar as diferenças é necessário 
realizar o teste Post-Hoc. Como o teste de Levene tem valor de significância maior que 
0,05 a igualdade das variâncias pode ser assumida e o teste de Bonferroni pode ser 
utilizado para identificar as diferenças. A Faixa etária <20 anos apresenta diferenças 
significativas das faixas etárias 20 a 23 anos e >23 anos, porém entre as faixas etárias 20 
a 23 anos e >23 não existe diferença estatisticamente significante. 
 
 
TAMANHO DO EFEITO 
A forma mais recomenda para calcular o tamanho do efeito para Anova-one-
way é pelo calculo do ômega quadrado (ω2). 
ω2 = SSm – (glm)* MSr / SSt + MSr 
ω2 = 336,169 – (2)*15,935/ 8128,418 + 1,97 
ω2 = 304,299/ 8130,388 
ω2 = 0,03 – efeito pequeno 
 
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Porém é mais interessante calcular o efeito baseado no valor do teste “t” de 
cada comparação. Comparações planejadas são testadas pela estatística “t”, portanto o 
tamanho do efeito pode ser calculado por: 
Rcontraste = √t2 /t2 +gl 
Para isto é necessário realizar os contrastes planejados, porém para isto é 
necessário atribuir os coeficientes que representam cada categoria de forma correta. 
Considerando que as faixas etárias estão organizadas da seguinte forma: 1=<20 anos; 2= 
20 a 23 anos; e 3 = >23 anos. Ir em Contrasts e atribuir os seguintes coeficientes. 
Para comparar categoria 1 e 2 será necessário atribuir coeficiente -1 para 
categoria 1 e coeficiente 1 para categoria 2. Como a categoria 3 não será considerada 
nesta comparação entre 1 e 2, deverá receber o coeficiente 0. Da mesma forma quando 
for comparar os grupos 1 e 3, atribuir os coeficientes -1 para grupo 1, 1 para grupo 3 e 0 
para grupo 2. Quando comparar grupos 2 e 3, atribuir coeficientes 0 para grupo 1, -1 
para grupo 2 e 1 para grupo 3. 
 
 
No Output do SPSS no quadro Contrast Coefficients são apresentados os 
coeficientes atribuídos em cada contraste. 
 
 
 
Katrice
Realce
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
No quadro Contrast Tests são apresentados os valores de “t” e do grau de 
liberdade (df = gl), como também para o valor de “p”. 
 
Assim o valor de r (tamanho do efeito) para: 
Rcontraste 1 = √t2 /t2 +gl = √8,36/8,36+489 = 0,12 = efeito pequeno 
Rcontraste 2 = √t2 /t2 +gl = √19,17 /19,17+489 = 0,19 = efeito pequeno 
 
Como o contraste 3 entre os grupos 2 e 3 não foi significativo não se deve 
calcular o tamanho do efeito, porque não há efeito. 
 
3. ANCOVA - ANÁLISE DE COVARIÂNCIA 
 
Quando estamos comparando o efeito de grupo (variável independente) sobre 
uma variável dependente é esperado que toda variação existente não possa ser explicada 
por um único fator. Desta forma, existem variáveis independentes que não foram 
consideradas e podem influenciar significativamente as variâncias dentro dos grupos. 
Estas variáveis que podem controlar a variância do erro dentro do grupo e 
controlar fatores de confusão são chamadas de COVARIÁVEIS. 
Assim quando COVARIÁVEIS são incluídas na comparação de grupos 
independentes estamos realizando uma Análise de Covariância ou ANCOVA. 
Considerando que o sexo represente um possível fator de influência sobre o IMC, e seja 
necessário controlar seu efeito para comparação do IMC entre grupos de faixa etária 
podemos fazer isto utilizando a ANCOVA. 
Para realizar a ANCOVA no SPSS clicar em Analyze<General Linear 
Model<Univariate. Na caixa de dialogo que abrir inserir em Dependent Variable a 
variável quantitativa que representa o desfecho, em Fixed Factor(s) a variável 
qualitativa que representa os grupos de exposição, e em Covariate(s) a variável que será 
controlada. 
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
Em Contrasts agora não é possível construir contrastes planejados sendo 
necessário selecionar uma das opções disponíveis. Sempre que selecionar uma opção de 
contraste é necessário clicar em Change para salvar a alteração. Além disto, para o 
maioria das opções de contraste do SPSS é necessário indicar qual categoria da variável 
independente será a categoria de referências, mas lembre que o SPSS somente permite 
selecionar a primeira ou a última categoria. Dentre as opções de contraste recomendo a 
de Helmert. 
 
No quadro abaixo contem a descrição de como são realizadas as comparações 
de contraste disponíveis no SPSS. 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Quando uma covariável é incluída a opção Post-Hoc na caixa de dialogo 
principal fica bloqueada, porém é possível solicitar o teste Post-Hoc no item Options. 
Em Estimated Marginal Means no item Factor(s) and Factor Interactions selecionar a 
variável independente e inserir em Display Means for. Em seguida marcar a opção 
Compare main effects e selecionar o teste Post-Hoc em Confidence interval adjustment. 
Dentre as opções disponíveis recomenda a opção de Bonferroni, porém a opção de 
Sidaké menos conservadora e controla a perda de poder. 
Ainda em Options selecione em Display os itens Descriptive, Parameter 
estimates e Homogenety tests. Em Parameter estimates é calculado os coeficientes de 
regressão e suas significância para as variáveis do modelo de regressão. Em 
Homogenety tests o valor de significância para o teste de Homogeneidade das 
Variâncias de Levene. 
 
 
 
 
 
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
No Output no quadro Descriptive Statistics é apresentado os valores de média e 
desvio-padrão dos grupos. No quadro Levene`s Test of Equality of Error Variances o 
valor de sig (p)>0,05 indica que o pressuposto de Homogeneidade da Variâncias foi 
atendido. 
 
 
 
No quadro Tests of Between-Subjects Effects o valor de sig (p) para Corrected 
Model indica se o modelo construído com a variável independente é significativo para 
prever a variável dependente. Em Sexo o valor de sig (p)≤0,05 indica a influência 
significativa sobre as variações de IMC entre os grupos de faixa etária (FE). Em relação 
às faixas etárias foram observadas diferenças significativas, porém é necessária a 
realização de Contrastes ou teste Post-Hoc para identificar entre quais categorias de FE 
existe diferença. Observe que em baixo da tabela é apresentado o R2 que indica que 
percentual de variação da variável dependente é explicado pelo modelo construído pela 
variável independente, tendo a covariável Sexo controlada. 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
No quadro Parameter Estimates são apresentados os coeficientes de regressão 
para o intercepto, Sexo e categorias de faixa etária, com seus respectivos valores de “p” 
(sig) e intervalo de confiança de 95% (Lower bound – Upper bound). 
O SPSS codifica as categorias de forma que a última categoria seja a categorias 
de referência (faixa etária 3) e codificada como “0”. Assim a categoria 2 representa a 
diferença entre faixa etária 2 e 3, e a categoria 1 a diferença entre categoria 1 e 3. 
Deste modo, os valores de B representam as diferenças entre médias desses 
grupos, e assim a significância dos testes “t” nos diz se as médias dos grupos diferem 
significativamente ou não. 
Deste modo podemos concluir que existe diferença entre a categoria 1 e 3 para 
faixa etária (sig=0,002), mas não entre as categorias 2 e 3 (sig=0,225). Para a 
covariável Sexo (1=masculino; 2=feminino) foi observado efeito significativo na 
previsão do IMC e o valor de B= - 2,323 (negativo) indica que o sexo feminino 
contribui para a redução dos valores de IMC. 
 
 
 
Em relação ao contraste sugiro a opção de Helmert e o Polinomial. No 
contraste de Helmert primeiro é comparado o grupo 1 com grupo 2 e 3 somados, e 
depois é excluído o grupo 1 e comparado grupos 2 e 3. O grupo 1 apresentou diferença 
significativa em relação os grupos 2 e 3 (sig=0,002), porém entre os grupos 2 e 3 não foi 
observado diferença significativa (sig=0,225). Note que este são os mesmos valores 
observado na regressão 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
No contraste Polynomial é apresentado o valor de significância (sig) para 
tendência linear (p=0,002), e para tendência quadrática (p=0,768). Este resultado indica 
que o aumento da categoria de faixa etária se relaciona linearmente com o aumento do 
IMC. 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
No quadro Estimates é apresentado a média dos grupos com os repectivos erro 
padrão da média e intervalos de confiança de 95%. Porém estes valores de média e 
IC95% estão sendo influenciados pelo controle da covariável Sexo e produzem valores 
diferentes daqueles calculos diretamente como apresentado no quadro Descriptive 
Explore. Lembre que é possível analisar a diferença entre os grupos pelo IC95%, onde 
podemos verificar que os grupos de faixa etária 1 e 2 não diferem significativamente, e 
nem o grupo 2 e 3, porém os grupos 1 e 3 apresentam diferenças singificativas. 
 
 
 
No quadro Pairwise Comparisons é apresentado os valores de “p” (sig) para as 
comparações par-a-par pelo teste de ajustamento de Bonferroni. É possível verificar que 
controlada a covariável Sexo não foi observado diferença significativa entre os grupos 
de Faixa etária 1 e 2. Porém entre o grupo 1 e 3 as diferenças permaneceram 
significativas. 
Statistic Std. Error
22,6155 ,24947
Lower 
Bound
22,1239
Upper 
Bound
23,1071
23,8419 ,35867
Lower 
Bound
23,1330
Upper 
Bound
24,5509
24,5918 ,36639
Lower 
Bound
23,8662
Upper 
Bound
25,3173
> 23 ANOS Mean
95% 
Confidence 
Interval for 
Mean
95% 
Confidence 
Interval for 
Mean
IMC 
(Kg/m2) 
Pré
< 20 ANOS Mean
95% 
Confidence 
Interval for 
Mean
20 A 23 
ANOS
Mean
Descriptives Explore
FAIXA ETÁRIA
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
TAMANHO DO EFEITO 
Da mesma forma que na Anova-one-way é mais adequado calcular o tamanho 
do efeito para as comparações utilizando o r como descrito na equação abaixo. 
Rcontraste = √t2 /t2 +gl 
O quadro Parameter Estimate fornece as informações necessárias para calcular 
o tamanho do efeito. Esta estatística tem N-2 graus de liberdade (N=tamanho total da 
amostra=492). 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
Rcontraste 1 vs. 3 = √-3,1092 /-3,1092 +(492-2) = 0,13 = efeito pequeno 
Rcontraste 2 vs. 3 = √-1,2142 /-1,2142 +(492-2) = 0,05 = efeito pequeno 
 
4. ANOVA FATORIAL – ANOVA-TWO-WAY 
 
A ANOVA fatorial é utilizada quando se pretende avaliar o efeito de duas ou 
mais variáveis independentes sobre uma variável dependente. Existem vários desenhos 
de estudo que permitem a ANOVA fatorial: 
- Delineamento Fatorial Independente: quando existe variáveis 
independentes e cada uma delas foi mensurada usando participantes diferentes. 
- Delineamento Fatorial Relacionado: quando existe variáveis independentes 
e cada uma delas foi mensurada usando participantes os mesmos participantes. 
- Delineamento Fatorial Misto: quando existe variáveis independentes e 
algumas foram mensuradas em participantes diferente e outras nos mesmos 
participantes. 
Vamos discutir a ANOVA fatorial independente de dois fatores, que é 
comumente chamada de ANOVA-TWO-WAY. Ainda utilizando o exemplo do capitulo 
anterior vamos analisar o efeito das variáveis independentes Sexo e Faixa Etária sobre 
os valores da variável dependente IMC. 
Aqui os grupos de comparação são independentes porque quando comparamos 
a combinação de dois fatores não há a possibilidade dos participantes estarem dentro de 
mais de um grupo de combinação de fatores. 
Para produzir a Anova-two-way no SPSS clicar em Analyze<General Linear 
Model<Univariate. 
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Na caixa de dialogo que abrir inserir a variável dependente (IMC) em 
Dependent Variable e as variáveis independentes (Sexo e Faixa Etária) em Fixed Factor 
(s). 
 
 
Em Model é possível customizar a análise, porém o SPSS já realiza 
automaticamente as análises dos componentes principais e da interação. Ainda em 
Model no item Sum of squares o SPSS realiza a análise automaticamente a análise do 
tipo III (type III) que pode ser usada tanto em delineamento balanceados como não 
balanceados. Em Contrasts é possível selecionar a opção de contraste como descrito em 
na capítulo anterior da ANCOVA. Em Plots é possível construir o gráfico de linhas 
introduzindo as variáveis independentes nas opções Horizontal Axis e Separete Lines,e 
depois em Add. A construção do gráfico é importante para uma melhor interpretação da 
interação. 
 
 
 
Em Options selecionar as variáveis em Factor (s) and Factor Interactions e 
inserir em Display para realizar as análises dos componentes principais e interação. Para 
realizar a análise Post-Hoc dos efeitos principais selecionar o item Compare main 
effects, e na opção Confidence interval adjustment a opção Bonferroni. 
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Em Display selecionar as opções Descriptive statistics e Homogeneity. 
 
 
No Output do SPSS no quadro Between-Subjects Factors é descrita as 
categorias das variáveis independentes e o número de sujeitos em cada categoria. No 
quadro Levene´s Testo of Equality of Error Variances é apresentado o valor de “p” (sig) 
para o teste de Levene, em que valores ≤0,05 indicam a violação a hipótese de 
Homogeneidade das Variâncias. 
 
 
No quadro Descriptive Statistics é apresentada e média (mean) e desvio-padrão 
(Std.Deviation) para os valores de IMC dentro das combinações entre as variáveis 
independentes. 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
No quadro Tests of Between-Subjects Effects é apresentado o valor de “p” 
(sig) para o efeito principal do Sexo (sig=0,0001) e da faixa etária (sig=0,011). Também 
é apresentado o efeito de interação entre sexo*faixa etária (sig=0,789). 
 
 
 
 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
No quadro Contrast Results (K Matrix) é apresentado os contrastes de Helmert. 
Em Leve 1 vs. Later é comparado a faixa etária 1 versus outras (2 e 3), onde o valor de 
sig. de 0,006 (p≤0,05) indica que existe diferença significativa entre a faixa etária 1 e a 
combinação das faixas etárias 2 e 3. Em Level 2 vs. Level 3 o valor de sig. de 0,194 
(p>0,05) indica que não existe diferença significativa entre as faixas etárias 2 e 3. A 
limitação do uso do Contraste de Helmert é que não é comparada a faixa etária 1 e 2 
separadamente. 
 
 
Porém no quadro Estimate para a variável Sexo é apresentada a média, erro 
padrão da média e intervalo de confiança do IMC entre as categorias do Sexo como 
componente principal. No quadro Pairwise Comparisons é apresentado os valores de 
“p” para comparação de médias entre o sexo masculino e feminino. 
 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Os valores de Sig.≤0,05 (p=0,0001) indicam que existe diferenças 
significativas dos valores de IMC entre o sexo masculino e feminino pelo teste de 
ajustado de comparações múltiplas de Bonferroni. 
 
 
A mesma estimativa no componente principal Faixa Etária é realizada. O teste 
de ajustamento de comparações múltiplas de Bonferroni, indica que existe diferenças 
significativas entre a faixa etária 1 e 3 (p=0,009), mas não entre 1 e 2 (p=0,243), e nem 
entre 2 e 3 (p=0,583). 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Por último é apresentado o quadro de comparação das médias (mean), erro 
padrão da média (Std.Error) e intervalo de confiança (95% Confidence Interval) para as 
interações entre Sexo e Faixa Etária. Ao analisar os intervalos de confiança de 95% 
(IC95%) não foi observado diferenças significativas entre as faixas etárias quando 
dividas por sexo, o que é confirmado pelo valor de “p” para interação (p=0,789). 
 
 
 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
5. ANOVA DE MEDIDAS REPETIDAS 
A ANOVA de Medidas Repetidas é utilizada em situações em que os mesmos 
sujeitos são medidos em momentos ou condições experimentais diferentes. 
Esse tipo de delineamento tem a vantagem de reduzir a variabilidade não-
sistemática, fornecendo um poder maior para detectar efeitos genuínos. 
Embora a distribuição de normalidade seja um pressuposto a se considerar, 
principalmente dos resíduos, a pressuposto mais relevante para a Anova de Medidas 
Repetidas é o da ESFERICIDADE (ɛ). 
A Esfericidade refere-se a igualdade das variâncias das diferenças entre os 
pares dos diferentes níveis de condições experimentais, e para que isso é necessário que 
exista no mínimo três condições experimentais. 
O pressuposto da Esfericidade é testado pelo teste de Mauchly´s, onde valores 
de p≤0,05 indicam a violação da hipótese. Quando este pressuposto é violado o SPSS 
fornece duas opções de teste que realizam a correção da hipótese da Esfericidade, sendo 
eles o de Greenhouse-Geiser e a de Huynh-Feldt. 
Quando o pressuposto de Esfericidade é violado (p≤0,05) o teste de 
Greenhouse-Geiser deverá ser utilizado se o valor de Epsilon (ɛ) for ≤ 0,750. Quando o 
valor de Epsilon (ɛ) for > 0,750 a opção deverá ser o teste Huynh-Feldt. 
Para exemplificar a Anova de Medidas Repetidas no SPSS, vamos imaginar 
uma situação onde foi realizada uma intervenção para avaliar o efeito sobre os valores 
do índice de massa corporal (IMC). Os valores de IMC foram mensurados em três 
momentos distintos, sendo a primeira medida pré intervenção (IMC_pré), a segunda 
medida pós intervenção (IMC_pós), e a terceira medida no retorno após 3 meses do 
final da intervenção (IMC_retorno). 
Para iniciar a análise no SPSS clicar em Analyze<General Linear 
Model<Repeated Measures. Na caixa de dialogo que abrir é preciso definir o número 
de níveis que a variável dependente será mensurada (Number of level), que no exemplo 
do IMC está em 3 níveis. Caso queira é possível nomear o fator de entrada, porém como 
estou tratando de apenas uma variável não farei isto agora. Clicar em Add e depois em 
Define. 
Na próxima caixa de dialogo que se abre no item selecionar as 3 medidas de 
IMC em inserir em Within-Subjects Variable (factor 1). A opção Model não será útil 
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
neste desenho porque a análise não contém divisão de grupos (Between-Subjects 
Factor(s)). 
 
 
Na opção Contrast o SPSS realiza automaticamente o contraste polynomial que 
analisa a presença de tendência linear ou quadrática, porém se preferir fazer 
comparações par-a-par selecione a opção Repeated. Recomendo o contraste polynomial, 
pois, as comparações par-a-par serão feitas nos teste Post-Hoc em Options. Em Plot 
inserir o factor 1 em Horizontal Axis e clicar em Add. A opção Post-Hoc não estará 
disponível por não possui nenhum grupo independente de comparação. 
 
 
 
 
Em Options selecionar a variável Factor 1 em Factor (s) and Factor Interactions 
e inserir em Display Means for, selecionando também o item Compare main effects, e 
na opção Confidence interval adjustment a opção Bonferroni. 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Em Display selecionar somente a opção Descriptive Statistics. A opção 
Homogeneity teste não deve ser seleciona porque a homogeneidade das variâncias aqui 
é substituída pelo teste de Esfericidade. Depois clicar em Continue e Ok. 
 
 
 
No Output no quadro Within-Subjects Factors é apresentada a lista de variáveis 
dependentes que foram incluídas na análise com seus respectivos códigos. Em 
Descriptive Statisitics é apresentado os valores de média (Mean) e desvio-padrão 
(Std.Deviation) para cada momento. 
 
 
 
No quadro Multivariate Test é apresentado o valor de “p” (sig) que indica se 
existe diferença entre as médias (sugiro olhar para Wilks`Lambda). No nosso exemplo 
existe diferença significativa entre as médias (p= 0,0001), porém antes de analisar o 
teste Post-Hoc para localizar as diferenças énecessário avaliar a Esfericidade. 
Katrice
Realce
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
No quadro Mauchy´s Testo f Sphericity o valor de sig ≤0,05 indica que a 
hipótese de Esfericidade foi violada e as análise não podem ser baseadas nos valores de 
Wilks´Lambda. Para decidir entre o teste de Greenhouse-Geisser ou Huynh-Feldt 
devemos observa o valor de Epsiolon. Valores de Epsilon ≤ 0,75 utilizar Greenhouse-
Geisser, e >0,75 o teste de Huynh-Feldt. 
 
 
No quadro Testo f Within-Subjects Effects são apresentados os valores de “p” 
(sig) para os testes de Greenhouse-Geisser e Huynh-Feldt. No caso do exemplo do IMC 
deveremos utilizar o valor de “p” do teste de Huynh-Feldt, que indica existir diferença 
significativas entre as médias. 
 
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
No quadro Tests of Within-Subjects Contrasts é apresentado o valor de “p” 
(sig) para tendência (p-trend) linear e quadrática. Os resultados indicam não existir 
tendência linear, mas confirmam a tendência quadrática (p=0,0001). Pela observação do 
gráfico de linhas para as média é possível observar o comportamento quadrático. 
 
 
 
No quadro Estimates é possível verificar as médias e respectivos intervalos de 
confiança de 95% das três condições avaliadas, o que permite analisar e detectar entre 
quais momentos ocorre a diferença significativa apontada no teste multivariado. 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
Porém para complementar a interpretação e localização das diferenças é 
recomendado olhar para o quadro Pairwise Comparisons que realiza o teste Post-Hoc de 
Bonferroni para as comparações par-a-par. Neste quadro é possível observar em sig que 
o momento 2 apresenta diferença significativas em relação aos momentos 1 e 3, porém 
não há diferença significativa entre os momentos 1 e 3. 
 
 
TAMANHO DO EFEITO 
 
Embora seja possível calcular o tamanho do efeito para a análise principal, é 
preferível avaliar o tamanho do efeito através dos dados do Contraste planejado, pois, 
permite avaliar o tamanho do efeito para cada comparação. 
Katrice
Realce
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Para gerar estas informações é necessário retornar a caixa de dialogo que foi 
realizada a ANOVA e na opção Contrasts selecionar o contraste Repeted e rodas a 
análise novamente. 
 
 
No quadro Tests of Within-Subjects Contrasts é possível utilizar as 
informações dos graus de liberdade (df) e da estatística F utilizando a equação: 
 
r = √ F/ (F+df) 
r (1 vs. 2) =√41,129/ 41,129 +491 = 0,27 efeito pequeno 
r (2 vs. 3) =√30,941/ 30,941 +491 = 0,24 efeito pequeno 
 
 
 
 
 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
A análise da Anova de Medidas Repetidas ainda pode ser analisada 
comparando grupos. Vamos utilizar o exemplo do IMC, mas incluindo a variável sexo 
como variável independente. Clicar em Analyze<General Linear Model<Repeated 
Measures e editar o nome da variável (IMC) e o número de níveis (3). 
Na caixa de dialogo principal incluir a variável Sexo no item Between-
Subjects Factor(s). Em Plots inserir a variável Sexo em Separate Lines e a variável IMC 
em Horizontal Axis. Em Options inserir em Display Means for Sexo, IMC e a interação 
Sexo*IMC. Ainda em Options selecionar a opção Compare main effects e selecionar o 
teste Post-Hoc de Bonferroni. Retornar na caixa de dialogo principal e clicar em OK. 
 
 
 
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
No Output em Within-Subjects Factors é indicado o número de fatores e em 
Between-Subjects Factors o número de sujeito dentro dos grupos de comparação. 
 
 
No quadro Descriptive Statistics é descrita a média e desvio-padrão dos valores 
de IMC nas três condições de medida para o sexo masculino, sexo feminino e total. 
 
 
No quadro Box´s Testo of Equality of Covariance Matrices o valor de sig 
avalia a igualdade das matrizes de covariâncias entre os grupos (sexo). Valores de “p” 
(sig) para o teste de Box ≤0,05 indicam que está hipótese foi violada. Porém o SPSS não 
oferece uma versão de correção para a violação desta hipótese. No quadro Levene´s 
Test of equality of Error Variance, valores de “p” (sig) ≤0,05 indicam a violação da 
hipótese de homogeneidade das variâncias. 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
No quadro Multivariate Test o valor de “p” (sig) para o IMC indica que existe 
diferença entre as médias em relação aos momentos pré, pós e retorno. Em IMC*Sexo o 
valor de “p” indica que existe interação entre Sexo e as variações de IMC. 
 
 
 
Porém o teste de Mauchy´s indica que a hipótese de Esfericidade foi violada, e 
os valores de Epsilon indicam a necessidade de se basear as análises no teste de Huynh-
Feldt. 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
No quadro Testo f Within-Subjects Effects os valores de “p” (sig) confirmam o 
efeito significativo do tempo sobre o IMC, como também a interação entre Sexo*IMC. 
 
No quadro Tests of Within-Subjects Contrasts é possível verificar diferença 
significativa entre as medidas pré e pós, e pós e retorno para os valores de IMC. Para a 
interação Sexo*IMC não foi verificada interação significativa entre os momentos pré e 
pós, mas entre os momentos pós e retorno foi observada interação significativa. 
 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Para análise do efeito do Grupo (Sexo) o SPSS fornece no quadro Estimates as 
médias e intervalos de confiança de 95%. No quadro Pairwise Comparisons é 
apresentado o valor de “p” para comparação entre os sexos pelo teste de Bonferroni. 
Lembre que esta média é geral e considera os três momentos. 
 
 
Em relação ao tempo (pré, pós e retorno) também é fornecido no quadro 
Estimates os valores de média e intervalo de confiança de 95%, e as comparações par-a-
par pelo teste Post-Hoc de Bonferroni. 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Para analisar o comportamento da interação Sexo*IMC é apresentado no 
quadro Estimates. Ao analisar os intervalos de confiança é possível verificar que ambos 
os sexo apresentaram um redução significativa entre os momentos pré e pós, porém 
entre os momentos pós e retorno apenas o sexo feminino apresentou aumento 
significativo do IMC. Este comportamento pode ser melhor observado no gráfico de 
linhas. 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
6. MANOVA 
A MANOVA (Análise de Variância Multivariada) é uma extensão da 
ANOVA. Na MANOVA é possível analisar o efeito de uma ou mais variáveis 
independentes sobre um conjunto de variáveis dependentes. Na ANOVA é possível 
analisar o efeito de uma ou mais variáveis independentes sobre uma única variável 
dependente. 
A teoria por trás da MANOVA é complexa e não será discutida aqui, porém 
alguns pontos importantes que podem auxiliar a decisão de realizar uma MANOVA ou 
as variáveis que serão incluídas na análise serão abordados neste capítulo. 
Na MANOVA duas ou mais variáveis dependentes podem ser incluídas na 
análise, porém quanto maior o número de variáveis inseridas na análise maior será o 
tamanho da amostra necessária para manutenção de um poder aceitável para detectar 
diferenças quando estas estão presentes. 
Outra questão importante é que as variáveis dependentes sejam 
preferencialmente quantitativas ou ao menos em escala demedida ordinal. 
Considerando que o número de variáveis influencia o poder da MANOVA a seleção das 
variáveis de inclusão deve ser baseada em critério biológico que indiquem a possível 
contribuição desta variável na análise. 
Porém se não dispõe de critérios suficientes para auxiliar a escolha das 
variáveis dependentes, mas mesmo assim você gostaria de incluí-las na análise, 
recomendado que realize um teste de correlação entre as variáveis dependentes. As 
variáveis que apresentem altas correlações entre si apresentam maior chance de 
contribuírem para um maior poder para detectar diferenças significativas na MANOVA. 
Além das características da variável dependente a MANOVA também exige a 
aderência a mais dois pressupostos importantes, o da Normalidade Multivariada e o 
da Homogeneidade das Matrizes de Covariância. O SPSS não tem oferece o teste de 
Normalidade Multivariada, o que leva a necessidade de testar a normalidade Univariada 
de cada variável que entra no modelo. A ausência de normalidade de uma variável 
dependente não indica que o teste Normalidade Multivariada será violada, porém o teste 
de Homogeneidade das Matrizes de Covariância é altamente sensível a violações da 
Normalidade Multivariada. No SPSS o teste de Homogeneidade das Matrizes de 
Covariância é realizado pelo teste de BOX. 
Katrice
Realce
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
O SPSS fornece quatro análises para MANOVA, a estatística de ROY, o 
Traço de HOTELLING, o Lamdda de WILKS e o Traço de PILLAI. Quando os 
pressupostos forem atendidos utilizar estatística de ROY. Quando o pressuposto de 
Homogeneidade das Matrizes de Covariância é violado e os grupos são de tamanhos 
iguais utilize o Traço de PILLAI. Quando os pressupostos forem violados e os grupos 
são de tamanhos diferentes, utilizar o Lamdda de WILKS. 
A MANOVA é o teste geral que indica se existe ou não diferença significativa 
entre os grupos, sendo necessários testes adicionais para localizar as diferenças. Uma 
opção de teste adicional é a ANOVA univariada seguida do teste Post-Hoc de 
Bonferroni. Porém a ANOVA univariada pode não ser suficiente para compreender o 
efeito combinado das variáveis dependentes dentro dos grupos, o que leva a necessidade 
da realização de uma ANÁLISE DISCRIMINANTE. 
Como primeiro exemplo para descrever e rotina de análise da MANOVA no 
SPSS vamos analisar se a variável Sexo (masculino=1; feminino=2) contribui de forma 
significativa no comportamento das variáveis, índice de massa corporal (IMC), glicemia 
de jejum (GL), pressão arterial sistólica (PAS) e frequência cardíaca de repouso (FC). 
No SPSS clicar em Analyze<General Linear Model< Multivariate. Na caixa 
de dialogo que abrir inserir as variáveis dependentes em Dependent Variables, e a 
variável independente (Sexo) em Fixed Factor(s). 
 
 
A opção Model só será utilizadas caso queira personalizar alguma análise não 
prevista no SPSS, o que acredito não ser necessário. Em Contrasts selecionar a opção 
simple, porém se a variável independente tiver mais de dois níveis de (3 ou mais 
categorias) o contraste simples lhe dará a opção de confrontar a primeira ou última 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
categoria com as demais, sendo necessário então definir com antecedência qual 
categoria representará a categoria de referência para comparação. Em Post-Hoc embora 
a solicitação desta análise esteja disponível no SPSS está análise não será realizada 
porque a variável sexo tem apenas duas categorias de reposta. Porém é possível realizar 
a análise Post-Hoc no item Options. 
 
 
Em Options inserir a variável Sexo em Display Means for, e selcionar o item 
Compare main effects e em seguida selecionar em Confidence inteval adjustment a 
opção Bonferroni. 
Ainda em Options selecionar em Display os itens: Descriptive Satatistics; 
Estimate of effect size; Parameter estimates; e Homogeneity teste. Os itens SSCP 
matrices e Residual SSCP matrix estão relacionados ao quadros de análise das matrizez 
do modelo, dos resíduos e total, utilizadas na MANOVA, mas que não vão contribuir 
com sua análise dos resultados. Após selecionar os itens clicar em Continues e depois 
em OK. 
No Output do SPSS o Between Factors é descrita as categorias (níveis) da 
variáveis independente com a frequência absoluta de cada categoria. No quadro 
Descriptive Statistics é apresentado os valores de média e desvio-padrão de cada 
variável dependente divida entre as categorias da variável independente (sexo). 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
No quadro Box´s Testo of Equality of Covariance Matrices o valor de sig 
≤0,05 indica que a Homogeneidade das Matrizes de Covariância entre os grupos não 
é igual. Considerando que os grupos são de tamanhos diferentes a análise da MANOVA 
deve ser baseada nos valores de “p” (sig) do Lambda de Wilks. Caso a MANOVA 
indique diferença significativa entre os grupos, as análises adicionais pela ANOVA 
levam em consideração o pressuposto de Homogeneidade das Variâncias, avaliada pelo 
teste de LEVENE. Como verificado no quadro abaixo todas as variáveis selecionadas 
tem valor de sig > 0,05, indicando que o pressuposto de Homogeneidade das Variância 
foi antendido. 
 
 
No quadro Multivariate Tests é apresentado os valores de “p” (sig) para a 
análise de MANOVA, que indicando que o conjunto de variáveis dependentes se 
comporta de forma diferente entre os grupos, porém para identificar quais variáveis são 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
responsáveis por está diferença e em qual direção é necessário a realização das análises 
adicionais. Ainda no quadro Multivariate Tests em Partial Eta Squared é apresentado o 
valor do Eta2 que pode ser utilizado para estimar o tamanho do efeito. 
 
No quadro Testo f Between-Subjects Effects em Sexo é apresentado o valor de 
“p” (sig) da ANOVA univariada para cada variável. Foi verificado efeito significativo 
do sexo para as variáveis, pressão arterial sistólica (p=0,0001), frequência cardíaca de 
repouso (p=0,026) e IMC (p=0,0001), mas não para glicemia de jejum (p=0,609). 
Como a variável Sexo possui apenas duas categorias de resposta o teste Post-
Hoc se torna desnecessário, bastando apenas observar os valores de média no quadro de 
estatística descritiva. Porém a direção e o tamanho da contribuição de cada variável 
dentro das categorias podem ser avaliados pelos coeficientes de regressão apresentados 
no quadro Parameter Estimates. 
 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
Como a variável Sexo apresenta apenas duas categorias as análises restantes 
são redundantes e não contribuem para informações adicionais. Mas é interessante 
realizar a análise Discriminante para avaliar a capacidade das variáveis em conjunto 
diferenciar os grupos. 
No SPSS clicar em Analyze<Classify<Discriminat. Na caixa de dialogo que 
abrir inserir a variável independente Sexo em Grouping Variable e em Define Range 
definir a amplitude dos valores. Em Independents inserir as variáveis dependentes. 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
Na caixa de dialogo principal clicar em Statistics e selecionar os itens 
Unstandardized e Separate-groups covariance. 
Retornando na caixa de dialogo principal clicar em Cassify e selecionar em 
Prior Probabilities “All groups equa” se os grupos forem de mesmo tamanho, e 
“Compute from groups sizes” se os grupos forem de tamanho diferente. Em Display 
selecionar Summary table, em Use Covariance Matriz selecionar Within-groups, e em 
Plots selecionar Combined-groups e Territorial map. 
Retornando novamente na caixa de dialogoprincipal clicar na opção SAVE e 
selecionar o item Discriminat scores. Depois retornar na caixa de dialogo principal e 
clicar em OK 
 
 
 
No Output, o quadro Eigenvalues compara a as funções discriminantes para 
diferenciar os grupos. Porém a variável Sexo apresenta apenas duas categorias de 
resposta, o que proporciona apenas uma função. No quadro Wilks´Lambda o valor de 
“p” (sig) indica se a função discriminante foi significativa para diferenciar os grupos 
através das variáveis discriminatórias. 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
 
 
Os valores apresentados no quadro Standardized Canonical Discriminat 
Function Coefficients representam os coeficientes padronizados da função discriminante 
da Combinação Linear (CL) que são equivalentes aos betas padronizados da regressão 
linear. Estes informam a contribuição relativa de cada variável na CL. O fato de uma 
variável se positiva e outra negativa indica que as diferenças entre os grupos são 
explicadas pelas diferenças entre as variáveis. 
No quadro Structure Matrix é apresentado os valores de correlação canônicas 
que indicam a natureza e a carga (força) de contribuição de cada variável na divisão de 
grupos. 
No quadro Functions at Group Centroids os valores centróides de cada grupos 
que representam a média dos escores de CL. O sinal positivo e negativo indica que as 
variáveis se comportam de forma diferente dentro dos grupos. 
 
 
 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Finalizando este exemplo o quadro Classifications Results indica o percentual 
de sujeitos que foram classificados corretamente para seus grupos considerando a 
função discriminante baseada nas variáveis proposta no modelo. 
 
 
Agora vamos realizar um exemplo de variável independente que apresenta 
quatro níveis de resposta. O Estado Nutricional classifica os valores de índice de massa 
corpora (IMC) em baixo peso (1), eutrófico (2), sobrepeso (3) e obeso (4). Deste modo 
o objetivo é analisar se o conjunto das variáveis dependentes, glicemia de jejum (GL), 
pressão arterial sistólica (PAS) e frequência cardíaca de repouso (FC) se diferenciam 
entre os grupos de diferentes categorias de Estado Nutricional. 
Inserir as variáveis dependentes em Dependent Variable e a variável 
independente em Fixed Factor(s). Em Contrasts selecionar o contraste Simple e em 
Reference Category selecionar a opção Last para que a categoria Obeso (4), que é a 
categoria de interesse, seja comparada com as outras. 
 
 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Em Post-Hoc inserir a variável Estado Nutricional em Post Hoc Tests for e 
selecionar o teste de Turkey (mais de 3 grupos de comparação) e o teste de Games-
Howell (deverá ser utilizado se o teste de Levene for violado). Em Options inserir a 
variável Estado Nutriciona em Display Means for, selecionar o item Compare main 
effects e selecionar o opção Bonferroni em Confidence interval adjustment. Ainda em 
Options no item Display selecionar Descriptive statistics, Estimate of effect size, 
Parameter estimates e Homogeneity tests. 
 
 
 
No Output no quadro Between-Subjects Factors é possível observer que os 
grupos tem tamanhos diferentes. No quadro Descriptive Statistics é apresentada a média 
e desvio-padrão das variáveis dependentes dentro de cada categoria de Estado 
Nutricional. No quadro Box´s Test of Equality of Covariance Matrices o valor de sig 
indica que o pressuposto de Homogeneidade das Matrizes de Covariância foi violado. 
No quadro Levene´s Test of Equality of Error Variance é possível ver que as variáveis 
dependente não violaram o pressuposto de Homogeneidade das Variâncias. 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
 
 
No quadro Multivariate Test o valor de sig indica efeito significativo do grupo 
sobre as variáveis dependentes, porém o tamanho do efeito é pequeno ao considerar o 
Eta2. Como a MANOVA foi significativa a análise da ANOVA univariada deve ser 
considerada para identificar quais variáveis dependentes se diferenciam entre as 
categorias do Estado Nutricional no quadro Testo f Between-Subjects Effects. Apenas a 
variáveis pressão arterial sistólica (PAS) apresentou efeito significativo de grupo. 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
 
No quadro Parameter Estimates é apresentado os coeficientes de regressão para 
as variáveis dependentes dentro das categorias de Estado Nutricional. Aqui semelhante 
a ANOVA somente a PAS apresentou efeito significativo, e pela análise dos 
coeficientes de regressão (B) é possível observar que a redução da categoria do Estado 
Nutricional se relaciona com a redução da PAS. 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
No quadro Contrast Results (K Matriz) é possível avaliar quais categorias 
apresentam diferença significativa da categoria 4 (level 4) que representa o Estado 
Nutricional Obeso. A variável PAS da categoria Obeso se diferencia significativamente 
dos Estados Nutricional Baixo Peso (level 1), Eutrófico (level 2) e Sobrepeso (level 4). 
 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
Embora o Contraste simples não avalie as diferenças entre os níveis 1,2 e 3, 
estas podem ser analisadas pelos intervalos de confiança de 95% apresentados no 
Estimates. O grupos Baixo Peso não apresenta diferenças significativas dos grupos 
Eutrófico e Sobrepeso, porém os grupos Sobrepeso e Eutrófico apresentam diferenças 
significativas. As diferenças significativas entre os grupos podem ser confirmadas no 
quadro Pairwise Comparisons pelo teste Post-Hoc de Bonferroni, com também pelo 
teste de Turkey. O teste de Games-Howell não deve ser considerado, pois, o 
pressuposto de Homogeneidade das Variâncias foi atendido. 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
A análise complementar a MANOVA é a análise Discriminante, que possibilita 
analisar o quão bem as variáveis dependentes discriminam os grupos, mas lembre que 
para a análise Discriminante as variáveis dependentes deverão ser inseridas no item 
Independents e a variável que define os grupos (Estado Nutricional) deverá ser inserida 
em Grouping Variable (lembre de definir a amplitude em Define Range). Em Statistics 
selecionar ao menos a opção Separate-groups covariance em Matrices. 
 
 
 
Em Classify no item Prior Probabilities a opção Compute from group sizes 
devido os tamanhos diferentes dos grupos. Em Display selecionar Summary table, em 
Use Covariance Matriz a opção Within-groups, e em Plots a opção Combined-groups. 
Retornando na caixa de dialogo principal clicar em Save e selecionar a opção 
Discriminat scores. Retornar a caixa de dialogo principal e clicar em OK. 
 
 
 
No Output do SPSS no quadro Eigenvalues são apresentado os valores dos 
elementos da Matriz HE-1 utilizados para calcular as Combinações Lineares (CL), que 
são convertido em percentual da variância da CL. No quadro Wilks´Lambda o valor de 
sig indica que somente a primeira função da CL é significativa para discriminar os 
Grupos. 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
 
 
 
No quadro Standardized Canonical Discriminate Function Coeficientes são 
apresentados os coeficientes de regressão (B) das variáveis dependentes para cada 
função. No quadro Canonical Discriminat Functiona Coefficients são apresentados os 
coeficientes de correlação Canônica das variáveis dependentes,que devem ser 
interpretados como a força da variável para divisão de grupos, que igualmente a 
correlação varia de 0 a 1 ou -1. 
 
 
No quadro Functions at Group Centroids é possível observar pelos sinais 
positivo e negativo que as variáveis dependentes são capazes de discriminar os grupos 
baixo peso e eutrofico dos grupos sobrepeso e obeso. Deste modo, os grupos com sinais 
iguais não são discriminados corretamente ao considerar as variáveis dependentes. 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
No quadro Classifications Results em “a” é indicado o percentual de sujeitos 
que foram classificados corretamente pela função discriminante 1. As análises podem 
ser complementadas pela análise visual do gráfico de dispersão entre a função 1 e 2. 
 
 
 
 
 
 
 Estatística Aplicada para Iniciantes – Módulo 5 – Estatística Analítica IV 
BIBLIOGRAFIA 
1. DAWSON, B.; TRAPP, R.G. Bioestatística básica e clínica. 3 ed.Rio de Janeiro: 
McGraw-Hill, 2001. 
2. DEMIDENKO, E. Sample size determination for logistic regression revisited. 
Statistics in Medicine, John Wiley. v. 26, p. 3385-3397, 2007. 
3. DEMIDENKO, E. Sample size and optimal design for logistic regression with 
binary interaction. Statistics in Medicine. John Wiley. v. 27, p. 36-46, 2008. 
4. FIELD, A. Descobrindo a estatística usando o SPSS. 2 ed. Porto Alegre: 
Artmed, 2009, 689p. 
5. FONTELLES, M.J.;et al. Metodologia da pesquisa: diretrizes para o cálculo do 
tamanho da amostra. Revista Paraense de Medicina. v.24, n.2. 2010 
6. GLANTZ, S.A. Princípios de Bioestatística. 7 ed. Porto Alegre: Artmed, 2014, 
306p. 
7. LINDENAU, J.D.; GUIMARÃES, L.S.P. Calculando o tamanho do efeito no 
SPSS. Rev. HCPA, Secção de Bioestatística, v.32, n.3, 2012. 
8. LUNET, N.; SEVERO, M.; BARROS, H. Desvio Padrão e Erro Padrão. Notas 
Metodológicas. Arquivos de Medicina, 2006. 
9. MIOT, Hélio Amante. Tamanho da amostra em estudos clínicos experimentais. J 
Vas Bras. 2011; 10 (4); 275-278. 
10. NOVIKOV, I.; FUND, N.; FREEDMAN, L. S. A modified approach to 
estimating sample size for simple logistic regression with one continuous 
covariate. Statistics in Medicine. John Wiley. v. 29, p. 97-107, 2009. 
11. RIBAS, J.R.; VIEIRA, P.R.C. Análise multivariada com o uso do SPSS. 1 ed. 
Rio de Janeiro: Editora Ciência Moderna, 2011, 272p. 
12. VIEIRA, A.C.R.; ALVAREZ, M.M.; MARINS, V.M.R.; SICHIERI, R.; 
VEIGA, G.V. Desempenho de pontos de corte do índice de massa corporal de 
diferentes referências na predição de gordura corporal em adolescentes. Cad. 
Saúde Pública, Rio de Janeiro, v.22, n.8, p.1681-1690, 2006. 
13. WHITTEMORE, A. S. Sample size for logistic regression with small response 
probability. Journal of the American Statistical Association. American 
Statistical Association. v. 76, p. 27-32, 1981. 
View publication statsView publication stats

Outros materiais