Buscar

estatistica_1_

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

Click to edit Master title style
Click to edit Master subtitle style
*
*
*
Estatística Médica
Estatística Descritiva e Introdução ao SPSS
Estatística Inferencial 
Distribuição t de Student e Teste de Hipóteses
ANOVA - Análise de Variância
Testes Não Paramétricos
Tabelas de Contingência e Teste do Qui-quadrado
Quadros de Síntese
Click to edit Master title style
Click to edit Master subtitle style
*
*
*
Estatística Descritiva
Introdução ao SPSS
Estatística descritiva: tipos de variáveis, medidas de tendência central, medidas de dispersão, gráficos e tabelas
Introdução ao SPSS: janelas, barras, caixas de diálogo, abrir e gravar uma base de dados (bd), criar uma bd
*
*
*
Estatística / Bioestatística
Estatística Descritiva
Objectivo: Descrever amostras
Ferramentas: Tabelas, gráficos, medidas de posição, medidas de tendência central, medidas de dispersão
Estatística Inferencial
Objectivo: Retirar informação útil sobre a população partindo de dados amostrais
Ferramentas: Estimativas pontuais e de intervalo de parâmetros populacionais, testes de hipóteses
*
*
*
Tipos de Variáveis
Quantitativas
Discretas
Contínuas
Escalas de intervalos
Escalas de razões
Qualitativas (Categóricas)
Ordinais
Nominais
Dicotómicas
Policotómicas
*
*
*
Medidas de Tendência Central
Média
Vantagens
Desvantagens
Mediana
Vantagens
Desvantagens
Moda
Vantagens
Desvantagens
*
*
*
Quantis
Posição das observações
Quantis
Mediana
Quartis
Percentis
*
*
*
Medidas de Dispersão
Variância
Desvio padrão
Âmbito
Âmbito interquartis
*
*
*
Gráficos e Tabelas
Histograma
Diagrama de dispersão 
Box plot (mediana, âmbito inter-quartis)
Error bar (média, IC 95%)
Gráfico de barras
Gráfico circular
Polígono de frequências
Tabela de frequências
Frequência absoluta
Frequência relativa
Frequência cumulativa
Tabelas de contingência (2 x 2; l x c)
*
*
*
Introdução ao SPSS
Statistical package for social sciences
Programa de análise estatística de dados
Fácil e rápido
*
*
*
Introdução ao SPSS - Janelas
Janela de edição de dados
Área de introdução de dados
Área de definição das variáveis
Janela de comandos / sintaxe
Janela de resultados
Resultados - gráficos, tabelas, estatísticas, testes de hipóteses, métodos de análise avançados, etc
Janela de edição de gráficos e tabelas
*
*
*
Introdução ao SPSS - Barras
Barra de menus
File, Edit, View, Data, Transform, Analyze, Graphs, Utilities, Window, Help
Barra de tarefas
Open file, Save file, Print, Dialog recall, Undo, Redo, Goto chart, Goto case, Variables, Find, Insert cases, Insert variable, Split file, Weight cases, Select cases, Value labels, Use sets
Barra de estado
Informa sobre o andamento das tarefas em execução
*
*
*
Introdução ao SPSS - Caixas de Diálogo
Caixas de Diálogo
Interface “user friendly”
Auxílio em
Escolha de variáveis
Escolha de estatísticas
Escolha de gráficos
Definição das características de gráficos, tabelas, estatísticas, métodos de análise avançados, etc
Click to edit Master title style
Click to edit Master subtitle style
*
*
*
Estatística Inferencial
Distribuição Normal; intervalos de Confiança
*
*
*
Estatística Inferencial
Populações e Amostras
Parâmetros e Valores Estatísticos (estatísticas)
Estimativas: Pontuais e de Intervalo
Testes de Hipóteses
*
*
*
Teoria Elementar da Amostragem
Teoria da amostragem
É possível retirar informação relevante sobre a população a partir de dados provenientes de amostras
Estimativas pontuais e de intervalo
Testes de Hipóteses
Números e amostras aleatórias
Para que as conclusões da teoria da amostragem e da inferência estatística sejam válidas, têm de ser escolhidas amostras representativas da população
Um dos métodos de obter amostras representativas é a amostragem aleatória simples
*
*
*
Distribuição Normal
Características
Equação
Dependente de μ e σ
Probabilidades
Distribuição normal padronizada
Utilidade
Surge naturalmente 
Teorema do Limite Central
Prático e funcional
*
*
*
Teorema do Limite Central
Valores estatísticos amostrais
Valores estatísticos de amostras são eles próprios variáveis
Assim, podem ser definidas distribuições relativas a valores estatísticos amostrais
Teorema do limite central
As médias de amostras de tamanho n retiradas de uma população normal têm sempre uma distribuição normal
As médias de amostras de tamanho n retiradas de uma população não normal têm uma distribuição que tende para a normal à medida que n aumenta (geralmente, a partir de n≥30 é já uma boa aproximação da normal)
*
*
*
Teorema do Limite Central
Teorema do limite central (cont.)
Pelo teorema do limite central, a distribuição das médias das amostras tende para uma distribuição normal com média μ (igual àmédia da população) e com desvio padrão (σ / n) (desvio padrão da população sobre a raiz quadrada do tamanho das amostras)
Erro Padrão
Chama-se Erro Padrão ao desvio padrão da distribuição das estatísticas amostrais
Assim, (σ / n) é o Erro Padrão da Média uma vez que é o desvio padrão da distribuição das médias amostrais
*
*
*
Teoria da Estimação Paramétrica
Estimação Paramétrica
Um dos problemas da estatística inferencial é a estimação de parâmetros populacionais, também designada por Estimação Paramétrica, partindo dos dados limitados relativos às estatísticas amostrais
Estimação 
Pontual
De Intervalo
*
*
*
Teoria da Estimação Paramétrica
Intervalos de Confiança para parâmetros populacionais
Intervalos de Confiança (IC) para a Média
Média da amostra ± Zc (σ/  n) 
Zc é um valor que provem da distribuição normal padrão
No caso do IC 95% Zc = 1,96
No caso do IC 99% Zc = 2,58
*
*
*
Intervalos de Confiança para a Média
Interpretação
Se o intervalo μ ± 1,96 (σ/  n) contém 95% das possíveis médias das amostras, então, com 95% de probabilidades a média da nossa amostra está dentro deste intervalo
Assim sendo, poder-se-á afirmar analogamente que 95% dos intervalos definidos pela fórmula Média amostral ± 1,96 (σ/  n) contêm em si a média da população (μ)
Ao intervalo Média amostral ± 1,96 (σ/  n) dá-se o nome de Intervalo de Confiança a 95% para a Média 
Click to edit Master title style
Click to edit Master subtitle style
*
*
*
Distribuição t de Student e Teste de Hipóteses
Distribuição t de Student, Teste de Hipóteses, Teste t para uma média, teste t para a diferença entre duas médias e teste t para pares emparelhados
*
*
*
Distribuição t de Student
Tendo em conta o Teorema do Limíte Central, definiu-se o Intervalo de Confiança (IC) para a Média como:
Média amostral ± Zc (σ/  n)
Para calcular este IC seria necessário conhecer o desvio padrão da população (σ) e este valor não é geralmente conhecido
No entanto, conhece-se o desvio padrão da amostra (s), que é a melhor estimativa disponível do desvio padrão da população (σ)
*
*
*
Para resolver este problema surge, em 1908, descrita por W. S. Gossett com o pseudónimo de Student, uma outra distribuição que utiliza o desvio padrão da amostra (s) em vez do desvio padrão da população (σ)
Se a variável em causa na população tem uma distribuição normal, então a estatística t segue uma distribuição t de Student com n-1 graus de liberdade
t = (Média da amostra - μ) / (s / n) 
Distribuição t de Student
*
*
*
Distribuição t de Student
A distribuição t é semelhante à distribuição normal, mas com uma maior dispersão em torno dos valores centrais
Esta distibuição tem uma forma diferente em função do tamanho da amostra, isto é, varia com os graus de liberdade
À medida que o tamanho da amostra aumenta a distribuição t tende para a distribuição normal 
*
*
*
Distribuição t de Student
Assim, se não conhecermos o desvio padrão da população o Intervalo de Confiança para a Média deverá ser calculado do seguinte modo:
IC 100(1-)% = Média da amostra ± t(1- /2)(n-1) (s / n)
 IC 95% = Média da amostra ± t(0,025)(n-1) (s / n)
*
*
*
Distribuição t de Student
Intervalo de Confiança a 95% para a Média: 
IC 95% = Média da amostra ± t(0,025)(n-1) (s / n)
Exemplo aplicando o SPSS (Analize>Descriptive Statistics>Explore):
IC 95% = 3263,23 ±
t(0,025)(462-1) (25,752)
IC 95% = 3263,23 ± 1,965 (25,752) = [3212,62; 3313,83]
*
*
*
Teste de Hipóteses
Utilizando a mesma estrutura teórica que nos permite calcular Intervalos de Confiança poder-se-ão testar hipóteses sobre um parâmetro populacional
Ex: Queremos testar a hipótese de que a altura média da população portuguesa é de 160 cm. Numa amostra aleatória de 25 portugueses observou-se uma média de altura de 170 cm com desvio padrão de 10 cm. Utilizando os nossos conhecimentos sobre a distribuição t poder-se-ia calcular a probabilidade de encontrar uma amostra com média tão ou mais extrema do que esta, caso a nossa hipótese inicial fosse verdadeira. Se essa probabilidade fosse muito pequena (ex: < 5%), então isso poderia ser um bom argumento para rejeitar a nossa hipótese inicial. 
*
*
*
Teste de Hipóteses
Como?
1. Especificar a Hipótese nula (H0) e a Hipótese alternativa (HA)
2. Seleccionar o Nível de Significância ()
Geralmente, = 0,05 ou 5%
Nota: (1 - ) é o designado Nível de Confiança
3. Escolher uma amostra, calcular uma estatística (ex: a média) e uma estatística de teste específica da hipótese considerada (ex: valor de t)
4. Comparar o valor da estatística de teste com valores de uma distribuição de probabilidades conhecida (ex: Distribuição t de Student)
*
*
*
Teste de Hipóteses
Como?
5. Calcular o valor de p - a probabilidade de encontrar valores tão ou mais extremos do que os encontrados na amostra, caso a hipótese nula seja verdadeira
6. Comparar os valores de p e 
Se p    Rejeita-se a Hipótese nula
Se p >   Não se rejeita a Hipótese nula
7. Descrever os resultados e conclusões estatísticas
Ex: A média da população é significativamente diferente de 160 cm (p=0,001).
*
*
*
Erros nos Testes de Hipóteses
Resultado do teste de hipóteses
Aceita-se H0
(Não existência de diferenças)
Rejeita-se H0
(Existência de diferenças)
A verdade na População
H0 Verdadeira
(Não existência de diferenças)
Aceita-se correctamente
Erro tipo I (()
H0 Falsa
(Existência de diferenças)
Erro tipo II (()
Rejeita-se correctamente
*
*
*
Erros nos Testes de Hipóteses
Erro tipo I ()
Probabilidade de rejeitar a Hipótese nula quando esta é verdadeira
Erro tipo II ()
Probabilidade de aceitar a Hipótese nula quando esta é falsa
Poder (1 - )
Probabilidade de rejeitar a Hipótese nula quando esta é falsa
*
*
*
Teste t para uma média
1. Especificar H0 e HA
H0: µ = µ0 HA: µ  µ0
2. Escolher o nível de significância ( = 0,05 ou 5%)
3. Calcular a estatística e a estatística de teste
Média da amostra
t = (Média da amostra - μ) / (s / n)
4. Comparar o valor de t com uma distribuição de t com n-1 graus de liberdade
5. Calcular o valor de p
6. Comparar p e 
7. Descrever os resultados e conclusões estatísticas
*
*
*
Teste t para uma média
Exemplo SPSS (Analize>Compare Means>One-Sample T Test) 
H0: µ = 3500 g; HA: µ  3500 g
*
*
*
Teste t para uma média
Assume-se:
Distribuição normal ou aproximadamente normal da variável
*
*
*
Teste t para a diferença entre duas médias
1. Especificar H0 e HA
H0: µ1 = µ2 HA: µ1  µ2 
H0: µ1 - µ2 = 0 HA: µ1 - µ2  0
2. Escolher o nível de significância ( = 0,05 ou 5%)
3. Calcular a estatística e a estatística de teste
Média das duas amostras
t = [(Média 1 - Média 2) - (µ1 - µ2 )] / [s(Média 1 - Média 2) ]
4. Comparar o valor de t com uma distribuição de t com (n1 + n2 - 2) graus de liberdade
5. Calcular o valor de p
6. Comparar p e 
7. Descrever os resultados e conclusões estatísticas
*
*
*
Exemplo 1 SPSS (Analize>Compare Means>Independent-Samples T Test):
Valor de p
Teste t para a diferença entre duas médias
*
*
*
Exemplo 2:
Teste t para a diferença entre duas médias
*
*
*
Assume-se
Distribuição normal ou aproximadamente normal da variável nos dois grupos
Independência entre os grupos
Teste t para a diferença entre duas médias
*
*
*
Teste t para pares emparelhados
1. Especificar H0 e HA
H0: µd = 0 HA: µd  0 
2. Escolher o nível de significância ( = 0,05 ou 5%)
3. Calcular a estatística e a estatística de teste
Média das duas amostras
t = (Média das diferenças - µd) / s(diferenças)
4. Comparar o valor de t com uma distribuição de t com (n-1) graus de liberdade
5. Calcular o valor de p
6. Comparar p e 
7. Descrever os resultados e conclusões estatísticas
*
*
*
Exemplo SPSS (Analize>Compare Means>Paired-Samples T Test):
Teste t para pares emparelhados
*
*
*
Assume-se
Distribuição normal ou aproximadamente normal das diferenças
Dependência (correlação) entre os grupos
Teste t para pares emparelhados
Click to edit Master title style
Click to edit Master subtitle style
*
*
*
ANOVA
Análise de variância
*
*
*
ANOVA
Comparação de médias de 2 grupos => Teste t 
H0: 1=2 [Erro tipo I () = 1-0,95 = 0,05 ou 5%]
Mais de 2 grupos: 
Ex: H0: 1 =2 =3 
 (1) H0: 1=2 (2) H0: 1=3 (3) H0: 2=3 
 [Erro tipo I = 1-(0,95)3 = 0,14 ou 14%]
 = 1-(0,95)4 = 0,26 ou 26%
Comparação de médias de mais de 2 grupos => ANOVA (Analysis of Variance) 
H0: 1 =2 =3 =... =k
*
*
*
Considere um conjunto de k grupos, com ni indivíduos cada um, um total de N indivíduos, uma média de cada grupo xi e uma média comum X 
Ex: Considere os pesos em Kg de 3 grupos de indivíduos de grupos étnicos diferentes (caucasianos, latinos e asiáticos).
 Grupo 1: 80; 75; 82; 68; 76; 86; 78; 90; 85; 64 x1= 78,40 kg
 Grupo 2: 65; 84; 63; 54; 86; 62; 73; 64; 69; 81 x2= 70,10 kg 
 Grupo 3: 58; 59; 61; 63; 71; 53; 54; 72; 61; 57 x3= 60,90 kg 
 X=69,80 kg k = 3 
 n1=10 n2=10 n3=10 N = 30
 
ANOVA
*
*
*
Fontes de variação:
Intra-grupos - Variabilidade das observações em relação à média do grupo
Within group SS 
(sum of squares)
Within group DF 
(degrees of freedom)
Within group MS 
(mean square = variance)
ANOVA
*
*
*
Fontes de variação:
Entre-grupos - Variabilidade entre os grupos. Dependente da média do grupo em relação à média conjunta
Between group SS
Between group DF
Between group MS
ANOVA
*
*
*
A variabilidade observada num conjunto de dados deve-se a:
Variação em relação à média do grupo - Within group
Variação da média do grupo em relação à média conjunta - Between group
Assim:
Total SS = Within group SS + Between group SS
Total DF = Within group DF + Between group DF
ANOVA
*
*
*
Prova-se que se 1 =2 =3 =... =k , então, Between MS e Within MS serão ambos estimativas de 2 - a variância comum aos k grupos - logo, Between MS  Within MS
Se pelo contrário 1  2  3  ...  k , então, Between MS será maior que Within MS 
Assim, para testar a Hipótese nula H0: 1 =2 =3 =... =k calcula-se a estatística F
 =>
ANOVA
*
*
*
A estatística F tem uma distribuição teórica conhecida - Distribuição F - dependente dos graus de liberdade Between DF e Within DF 
O cálculo da estatística F e seu enquadramento na distribuição adequada permite-nos conhecer um valor de p - probabilidade de obter um F tão ou mais extremo que o calculado se a hipótese nula for verdadeira
O valor de p é subsequentemente comparado com o grau de significância () à partida estabelecido e 
Se p   , rejeita-se a H0 => Existem diferenças estatisticamente significativas entre as médias dos grupos
Se p   , aceita-se a H0 => Não existem diferenças estatisticamente significativas entre as médias dos grupos
ANOVA
*
*
*
Assume-se:
Normalidade
Igualdade das variâncias dos grupos
Funciona melhor se:
Igual tamanho dos grupos
Igualdade dos grupos excepto na variável que os define
ANOVA
*
*
*
Exemplo SPSS (Analize>Compare Means>One-Way ANOVA):
ANOVA
*
*
*
ANOVA
Click to edit Master title style
Click to edit Master subtitle style
*
*
*
Testes Não Paramétricos
Mann-Whitney
Test; Wilcoxon Signed Ranks Test; Kruskal-Wallis Test
*
*
*
Mann-Whitney Test
Análogo ao teste t para a diferença entre duas médias
Quando as assumpções necessárias para a utilização do teste t não são cumpridas (normalidade e igualdade de variâncias) tem que se optar pelos testes análogos não paramétricos
Não faz assumpções sobre a distribuição da variável
Faz uso das posições ordenadas dos dados (ranks) e não dos valores da variável obtidos
*
*
*
Ex: Para investigar se os mecanismos envolvidos nos ataques fatais de asma provocados por alergia à soja são diferentes dos mecanismos envolvidos nos ataques fatais de asma típica compararam-se o número de células T CD3+ na submucosa de indivíduos destes dois grupos.
Mann-Whitney Test
Posição (rank)
Alergia à soja
Asma típica
2
0,00
2
0,00
2
0,00
4
1,36
5
1,43
6
3,76
7
4,01
8
4,32
9
13,75
10
34,45
11
37,50
12
58,33
13
73,63
14
74,17
15
99,99
16
154,86
17
1225,51
Grupo de alergia à soja (Células/mm²) (n=7)
Grupo de asma típica (Células/mm²) 
(n=10)
34,45
74,17
0,00
13,75
1,36
37,50
0,00
1225,51
1,43
99,99
0,00
3,76
4,01
58,33
73,63
4,32
154,86
*
*
*
Ex: situações possíveis (dois grupos A e B de 5 elementos cada um):
A A A A A B B B B B A B A B A B A B A B
1º 2º 3º 4º 5º 6º 7º 8º 9º 10º 1º 2º 3º 4º 5º 6º 7º 8º 9º 10º
 A e B diferentes Não há diferenças entre A e B
São calculadas as seguintes estatísticas:
R1= soma das posições no grupo 1
R2= soma das posições no grupo 2
Mann-Whitney Test
*
*
*
A maior destas estatísticas é comparada com uma distribuição adequada (distribuição da estatística U ou aproximação normal)
Obtem-se um valor de p - probabilidade de se obter uma estatística tão ou mais extrema do que a verificada caso a hipótese nula seja verdadeira
O valor de p é subsequentemente comparado com o grau de significância () à partida estabelecido e 
Se p   , rejeita-se a H0 => Existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos
Se p   , aceita-se a H0 => Não existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos
Mann-Whitney Test
*
*
*
Exemplo SPSS (Analize>Nonparametric Tests>2 Independent Samples):
Mann-Whitney Test
*
*
*
Análogo do teste t para pares emparelhados ou teste t para a diferença entre 2 médias de grupos dependentes
Ex: Num ensaio de um fármaco antidepressivo obtêm-se os seguintes scores numa escala de depressão, antes e depois do tratamento: 
Wilcoxon Signed Ranks Test
Score antes
Score depois
diferença
Posição
Posição assinalada
70
71
1
1,5
1,5
69
68
-1
1,5
-1,5
52
54
2
3
3
53
50
-3
4
-4
54
49
-5
5,5
-5,5
67
72
5
5,5
5,5
68
61
-7
7
-7
57
43
-14
8
-8
67
50
-17
9
-9
64
40
-24
10
-10
*
*
*
Wilcoxon Signed Ranks Test
Posicionam-se os valores absolutos das diferenças de forma ascendente e atribui-se o sinal da diferença à posição
Calculam-se as seguintes estatísticas:
T+ = soma das posições com sinal positivo
T- = soma das posições com sinal negativo
Utiliza-se a menor destas estatísticas, sendo esta comparada com uma distribuição adequada (distribuição da estatística T ou aproximação normal)
*
*
*
Obtem-se um valor de p - probabilidade de se obter uma estatística tão ou mais extrema do que a verificada caso a hipótese nula seja verdadeira
O valor de p é subsequentemente comparado com o grau de significância () à partida estabelecido e 
Se p   , rejeita-se a H0 => Existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos
Se p   , aceita-se a H0 => Não existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos
Wilcoxon Signed Ranks Test
*
*
*
Exemplo SPSS (Analize>Nonparametric Tests>2 Related Samples):
Wilcoxon Signed Ranks Test
*
*
*
Kruskal-Wallis Test
Análogo da Análise de Variância (ANOVA) para a comparação das médias de 3 ou mais grupos
Ex: Pesos em Kg de 3 grupos de indivíduos de grupos étnicos diferentes (caucasianos, latinos e asiáticos).
 Grupo 1: 80; 75; 82; 68; 76; 86; 78; 90; 85; 64
 Grupo 2: 65; 84; 63; 54; 86; 62; 73; 64; 69; 81
 Grupo 3: 58; 59; 61; 63; 71; 53; 54; 72; 61; 57
 Organizam-se todos os valores por ordem crescente de modo a cada valor ter uma posição atribuída
*
*
*
Calcula-se a estatística:
N = nº total de indivíduos; ni = nº de indivíduos no grupo i e Ri = soma das posições no grupo i
Esta estatística será comparada com uma distribuição adequada (distribuição de Qui-quadrado com k-1 graus de liberdade)
Kruskal-Wallis Test
*
*
*
Obtem-se um valor de p - probabilidade de se obter uma estatística tão ou mais extrema do que a verificada caso a hipótese nula seja verdadeira
O valor de p é subsequentemente comparado com o grau de significância () à partida estabelecido e 
Se p   , rejeita-se a H0 => Existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos
Se p   , aceita-se a H0 => Não existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos
Kruskal-Wallis Test
*
*
*
Exemplo SPSS (Analize>Nonparametric Tests>K Independent Samples):
Kruskal-Wallis Test
Click to edit Master title style
Click to edit Master subtitle style
*
*
*
Tabelas de Contingência e 
Teste do Qui-quadrado
Tabelas de contingência; teste do qui-quadrado; teste exacto de Fisher; correcção de Yates; teste de McNemar; teste do qui-quadrado para tendências 
*
*
*
Tabelas de Contingência
Forma de representar a relação entre duas variáveis categóricas. Distribuição das frequências das categorias de uma variável em função das categorias de uma outra variável.
*
*
*
Teste do Qui-quadrado
Quando estamos perante duas variáveis categóricas podemos usar o teste de qui-quadrado para testar a hipótese da existência de uma associação entre as variáveis na população.
As hipóteses nula e alternativa que serão testadas são:
H0: Não existe uma associação entre as categorias de uma variável e as da outra variável na população ou as proporções de indivíduos nas categorias de uma variável não variam em função das categorias da outra variável na população
HA: Existe uma associação entre as categorias de uma variável e as da outra variável na população ou as proporções de indivíduos nas categorias de uma variável variam em função das categorias da outra variável na população
*
*
*
Podem-se apresentar os dados numa tabela de contingência rc (r - nº de linhas; c - nº de colunas). As entradas da tabela são frequências e cada célula contem o nº de indivíduos que pertencem simultaneamente a essa linha e coluna, isto é, as categorias de cada variável são mutuamente exclusivas.
Calcula-se a frequência esperada em cada célula da tabela se a hipótese nula fosse verdadeira. A frequência esperada numa determinada célula é o produto do total da linha e do total da coluna dividido pelo total global.
Calcula-se uma estatística de teste (²) baseada na discrepância entre as frequências observadas e as frequências esperadas, caso a H0 seja verdadeira, em cada célula da tabela. Se a discrepância for grande é improvável que a hipótese nula seja verdadeira.
Teste do Qui-quadrado
*
*
*
A estatística de teste calculada (²) tem a seguinte forma genérica:
 O - frequência observada na célula e E - frequência esperada na célula, caso a H0 seja verdadeira.
A tabela de contingência tem a seguinte forma genérica:
Teste do Qui-quadrado
Variável B
Categoria 1
Categoria 2
…
Categoria c
Total
Variável A
Categoria 1
f11
f12
…
f1c
L1
Categoria 2
f21
f22
…
f2c
L2
…
…
…
…
…
…
Categoria r
fr1
fr2
…
frc
Lr
Total
C1
C2
…
Cc
N
*
*
*
A estatística de teste segue a Distribuição de Qui-quadrado com (r-1)(c-1) graus de liberdade.
O cálculo da estatística ² e seu enquadramento na distribuição adequada permite-nos conhecer um valor de p - probabilidade de obter um ² tão ou mais extremo que o calculado se a hipótese nula for verdadeira.
O valor de p é subsequentemente comparado com o grau de significância () à partida estabelecido e 
Se p   , rejeita-se a H0 => Existe uma associação entre as categorias de uma variável e as da outra variável na população ou as proporções de indivíduos nas categorias de uma variável variam em função das categorias da outra variável na população
Se p   , aceita-se a H0 => Não existe uma associação entre as categorias de uma variável e as da outra variável na população ou as proporções de indivíduos nas categorias de uma variável não variam em função das categorias da outra variável na população
Teste do Qui-quadrado
*
*
*
Ex: Num ensaio clínico compara-se a eficácia de um Medicamento X (n=30 indivíduos) em relação ao placebo (n=32 indivíduos) na melhoria do estado clínico dos doentes 6 meses após o tratamento (melhorado, agravado, falecido). 
E11= (26*32)/62= 13,4 
E12= (26*30)/62= 12,6
E21= (21*32)/62= 10,8
E22= (21*30)/62= 10,2
E31= (15*32)/62= 7,7
E32= (15*30)/62= 7,3
Teste do Qui-quadrado
*
*
*
Ex: (continuação)
Teste do Qui-quadrado
*
*
*
p= 0,047 Logo, p< => Rejeita-se a H0.
 Existem uma associação entre o estado clínico 6 meses após o tratamento (melhorado, agravado, falecido) e o tipo de tratamento efectuado (placebo ou medicamento X) ou Existem diferenças estatisticamente significativas quanto ao estado clínico 6 meses após o tratamento entre o grupo tratado com um placebo e o grupo tratado com o medicamento X. 
Teste do Qui-quadrado
*
*
*
Assume-se:
Independência dos grupos
 Caso as variáveis em análise sejam dependentes deverá ser usado o Teste de McNemar.
Pelo menos 80% das frequências esperadas têm valores 5
 No caso de existirem mais de 20% de células com valores esperados <5 deve reduzir-se a tabela, através da fusão de colunas ou linhas (esta fusão deve fazer sentido no contexto da análise que está a ser feita), até ter pelo menos 80% das frequências esperadas com valor 5.
 Se numa tabela de 22 (corresponde à fusão máxima possível) existir uma ou mais frequências esperadas com valor <5, então deverá ser usado o Teste Exacto de Fisher. 
Teste do Qui-quadrado
*
*
*
Teste Exacto usado em tabelas de 22 (faz o cálculo das probabilidades exactas e não faz uso da distribuição de qui-quadrado como aproximação para o cálculo de probabilidades).
Utiliza-se no caso de haver, numa tabela de contingência de 22, uma ou mais frequências esperadas < 5.
Ex: num outro ensaio clínico comparou-se a mortalidade no grupo tratado com placebo e tratado com o medicamento X e obtiveram-se os seguintes resultados:
Teste do Qui-quadrado
*
*
*
Teste Exacto de Fisher
*
*
*
Correcção de Yates
Correcção para a continuidade em tabelas de 22:
*
*
*
Teste de McNemar
Analogo ao teste de qui-quadrado mas para variáveis dependentes.
Variável B (ex: depois)
Presente
Ausente
Total
Variável A (ex: antes) 
Presente
a
b
a+b
Ausente
c
d
c+d
Total
a+c
b+d
a+b+c+d
*
*
*
Ex:
Teste de McNemar
*
*
*
Teste de Qui-quadrado para Tendências
Ex:
*
*
*
Teste de Qui-quadrado para Tendências
Click to edit Master title style
Click to edit Master subtitle style
*
*
*
Quadros de Síntese
Estatística; testes de hipóteses; testes de hipóteses para variáveis quantitativas; testes de hipóteses para variáveis categóricas; outros métodos
*
*
*
*
*
*
*
*
*
*
*
*
*
*
*

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Continue navegando