Baixe o app para aproveitar ainda mais
Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
Click to edit Master title style Click to edit Master subtitle style * * * Estatística Médica Estatística Descritiva e Introdução ao SPSS Estatística Inferencial Distribuição t de Student e Teste de Hipóteses ANOVA - Análise de Variância Testes Não Paramétricos Tabelas de Contingência e Teste do Qui-quadrado Quadros de Síntese Click to edit Master title style Click to edit Master subtitle style * * * Estatística Descritiva Introdução ao SPSS Estatística descritiva: tipos de variáveis, medidas de tendência central, medidas de dispersão, gráficos e tabelas Introdução ao SPSS: janelas, barras, caixas de diálogo, abrir e gravar uma base de dados (bd), criar uma bd * * * Estatística / Bioestatística Estatística Descritiva Objectivo: Descrever amostras Ferramentas: Tabelas, gráficos, medidas de posição, medidas de tendência central, medidas de dispersão Estatística Inferencial Objectivo: Retirar informação útil sobre a população partindo de dados amostrais Ferramentas: Estimativas pontuais e de intervalo de parâmetros populacionais, testes de hipóteses * * * Tipos de Variáveis Quantitativas Discretas Contínuas Escalas de intervalos Escalas de razões Qualitativas (Categóricas) Ordinais Nominais Dicotómicas Policotómicas * * * Medidas de Tendência Central Média Vantagens Desvantagens Mediana Vantagens Desvantagens Moda Vantagens Desvantagens * * * Quantis Posição das observações Quantis Mediana Quartis Percentis * * * Medidas de Dispersão Variância Desvio padrão Âmbito Âmbito interquartis * * * Gráficos e Tabelas Histograma Diagrama de dispersão Box plot (mediana, âmbito inter-quartis) Error bar (média, IC 95%) Gráfico de barras Gráfico circular Polígono de frequências Tabela de frequências Frequência absoluta Frequência relativa Frequência cumulativa Tabelas de contingência (2 x 2; l x c) * * * Introdução ao SPSS Statistical package for social sciences Programa de análise estatística de dados Fácil e rápido * * * Introdução ao SPSS - Janelas Janela de edição de dados Área de introdução de dados Área de definição das variáveis Janela de comandos / sintaxe Janela de resultados Resultados - gráficos, tabelas, estatísticas, testes de hipóteses, métodos de análise avançados, etc Janela de edição de gráficos e tabelas * * * Introdução ao SPSS - Barras Barra de menus File, Edit, View, Data, Transform, Analyze, Graphs, Utilities, Window, Help Barra de tarefas Open file, Save file, Print, Dialog recall, Undo, Redo, Goto chart, Goto case, Variables, Find, Insert cases, Insert variable, Split file, Weight cases, Select cases, Value labels, Use sets Barra de estado Informa sobre o andamento das tarefas em execução * * * Introdução ao SPSS - Caixas de Diálogo Caixas de Diálogo Interface “user friendly” Auxílio em Escolha de variáveis Escolha de estatísticas Escolha de gráficos Definição das características de gráficos, tabelas, estatísticas, métodos de análise avançados, etc Click to edit Master title style Click to edit Master subtitle style * * * Estatística Inferencial Distribuição Normal; intervalos de Confiança * * * Estatística Inferencial Populações e Amostras Parâmetros e Valores Estatísticos (estatísticas) Estimativas: Pontuais e de Intervalo Testes de Hipóteses * * * Teoria Elementar da Amostragem Teoria da amostragem É possível retirar informação relevante sobre a população a partir de dados provenientes de amostras Estimativas pontuais e de intervalo Testes de Hipóteses Números e amostras aleatórias Para que as conclusões da teoria da amostragem e da inferência estatística sejam válidas, têm de ser escolhidas amostras representativas da população Um dos métodos de obter amostras representativas é a amostragem aleatória simples * * * Distribuição Normal Características Equação Dependente de μ e σ Probabilidades Distribuição normal padronizada Utilidade Surge naturalmente Teorema do Limite Central Prático e funcional * * * Teorema do Limite Central Valores estatísticos amostrais Valores estatísticos de amostras são eles próprios variáveis Assim, podem ser definidas distribuições relativas a valores estatísticos amostrais Teorema do limite central As médias de amostras de tamanho n retiradas de uma população normal têm sempre uma distribuição normal As médias de amostras de tamanho n retiradas de uma população não normal têm uma distribuição que tende para a normal à medida que n aumenta (geralmente, a partir de n≥30 é já uma boa aproximação da normal) * * * Teorema do Limite Central Teorema do limite central (cont.) Pelo teorema do limite central, a distribuição das médias das amostras tende para uma distribuição normal com média μ (igual àmédia da população) e com desvio padrão (σ / n) (desvio padrão da população sobre a raiz quadrada do tamanho das amostras) Erro Padrão Chama-se Erro Padrão ao desvio padrão da distribuição das estatísticas amostrais Assim, (σ / n) é o Erro Padrão da Média uma vez que é o desvio padrão da distribuição das médias amostrais * * * Teoria da Estimação Paramétrica Estimação Paramétrica Um dos problemas da estatística inferencial é a estimação de parâmetros populacionais, também designada por Estimação Paramétrica, partindo dos dados limitados relativos às estatísticas amostrais Estimação Pontual De Intervalo * * * Teoria da Estimação Paramétrica Intervalos de Confiança para parâmetros populacionais Intervalos de Confiança (IC) para a Média Média da amostra ± Zc (σ/ n) Zc é um valor que provem da distribuição normal padrão No caso do IC 95% Zc = 1,96 No caso do IC 99% Zc = 2,58 * * * Intervalos de Confiança para a Média Interpretação Se o intervalo μ ± 1,96 (σ/ n) contém 95% das possíveis médias das amostras, então, com 95% de probabilidades a média da nossa amostra está dentro deste intervalo Assim sendo, poder-se-á afirmar analogamente que 95% dos intervalos definidos pela fórmula Média amostral ± 1,96 (σ/ n) contêm em si a média da população (μ) Ao intervalo Média amostral ± 1,96 (σ/ n) dá-se o nome de Intervalo de Confiança a 95% para a Média Click to edit Master title style Click to edit Master subtitle style * * * Distribuição t de Student e Teste de Hipóteses Distribuição t de Student, Teste de Hipóteses, Teste t para uma média, teste t para a diferença entre duas médias e teste t para pares emparelhados * * * Distribuição t de Student Tendo em conta o Teorema do Limíte Central, definiu-se o Intervalo de Confiança (IC) para a Média como: Média amostral ± Zc (σ/ n) Para calcular este IC seria necessário conhecer o desvio padrão da população (σ) e este valor não é geralmente conhecido No entanto, conhece-se o desvio padrão da amostra (s), que é a melhor estimativa disponível do desvio padrão da população (σ) * * * Para resolver este problema surge, em 1908, descrita por W. S. Gossett com o pseudónimo de Student, uma outra distribuição que utiliza o desvio padrão da amostra (s) em vez do desvio padrão da população (σ) Se a variável em causa na população tem uma distribuição normal, então a estatística t segue uma distribuição t de Student com n-1 graus de liberdade t = (Média da amostra - μ) / (s / n) Distribuição t de Student * * * Distribuição t de Student A distribuição t é semelhante à distribuição normal, mas com uma maior dispersão em torno dos valores centrais Esta distibuição tem uma forma diferente em função do tamanho da amostra, isto é, varia com os graus de liberdade À medida que o tamanho da amostra aumenta a distribuição t tende para a distribuição normal * * * Distribuição t de Student Assim, se não conhecermos o desvio padrão da população o Intervalo de Confiança para a Média deverá ser calculado do seguinte modo: IC 100(1-)% = Média da amostra ± t(1- /2)(n-1) (s / n) IC 95% = Média da amostra ± t(0,025)(n-1) (s / n) * * * Distribuição t de Student Intervalo de Confiança a 95% para a Média: IC 95% = Média da amostra ± t(0,025)(n-1) (s / n) Exemplo aplicando o SPSS (Analize>Descriptive Statistics>Explore): IC 95% = 3263,23 ± t(0,025)(462-1) (25,752) IC 95% = 3263,23 ± 1,965 (25,752) = [3212,62; 3313,83] * * * Teste de Hipóteses Utilizando a mesma estrutura teórica que nos permite calcular Intervalos de Confiança poder-se-ão testar hipóteses sobre um parâmetro populacional Ex: Queremos testar a hipótese de que a altura média da população portuguesa é de 160 cm. Numa amostra aleatória de 25 portugueses observou-se uma média de altura de 170 cm com desvio padrão de 10 cm. Utilizando os nossos conhecimentos sobre a distribuição t poder-se-ia calcular a probabilidade de encontrar uma amostra com média tão ou mais extrema do que esta, caso a nossa hipótese inicial fosse verdadeira. Se essa probabilidade fosse muito pequena (ex: < 5%), então isso poderia ser um bom argumento para rejeitar a nossa hipótese inicial. * * * Teste de Hipóteses Como? 1. Especificar a Hipótese nula (H0) e a Hipótese alternativa (HA) 2. Seleccionar o Nível de Significância () Geralmente, = 0,05 ou 5% Nota: (1 - ) é o designado Nível de Confiança 3. Escolher uma amostra, calcular uma estatística (ex: a média) e uma estatística de teste específica da hipótese considerada (ex: valor de t) 4. Comparar o valor da estatística de teste com valores de uma distribuição de probabilidades conhecida (ex: Distribuição t de Student) * * * Teste de Hipóteses Como? 5. Calcular o valor de p - a probabilidade de encontrar valores tão ou mais extremos do que os encontrados na amostra, caso a hipótese nula seja verdadeira 6. Comparar os valores de p e Se p Rejeita-se a Hipótese nula Se p > Não se rejeita a Hipótese nula 7. Descrever os resultados e conclusões estatísticas Ex: A média da população é significativamente diferente de 160 cm (p=0,001). * * * Erros nos Testes de Hipóteses Resultado do teste de hipóteses Aceita-se H0 (Não existência de diferenças) Rejeita-se H0 (Existência de diferenças) A verdade na População H0 Verdadeira (Não existência de diferenças) Aceita-se correctamente Erro tipo I (() H0 Falsa (Existência de diferenças) Erro tipo II (() Rejeita-se correctamente * * * Erros nos Testes de Hipóteses Erro tipo I () Probabilidade de rejeitar a Hipótese nula quando esta é verdadeira Erro tipo II () Probabilidade de aceitar a Hipótese nula quando esta é falsa Poder (1 - ) Probabilidade de rejeitar a Hipótese nula quando esta é falsa * * * Teste t para uma média 1. Especificar H0 e HA H0: µ = µ0 HA: µ µ0 2. Escolher o nível de significância ( = 0,05 ou 5%) 3. Calcular a estatística e a estatística de teste Média da amostra t = (Média da amostra - μ) / (s / n) 4. Comparar o valor de t com uma distribuição de t com n-1 graus de liberdade 5. Calcular o valor de p 6. Comparar p e 7. Descrever os resultados e conclusões estatísticas * * * Teste t para uma média Exemplo SPSS (Analize>Compare Means>One-Sample T Test) H0: µ = 3500 g; HA: µ 3500 g * * * Teste t para uma média Assume-se: Distribuição normal ou aproximadamente normal da variável * * * Teste t para a diferença entre duas médias 1. Especificar H0 e HA H0: µ1 = µ2 HA: µ1 µ2 H0: µ1 - µ2 = 0 HA: µ1 - µ2 0 2. Escolher o nível de significância ( = 0,05 ou 5%) 3. Calcular a estatística e a estatística de teste Média das duas amostras t = [(Média 1 - Média 2) - (µ1 - µ2 )] / [s(Média 1 - Média 2) ] 4. Comparar o valor de t com uma distribuição de t com (n1 + n2 - 2) graus de liberdade 5. Calcular o valor de p 6. Comparar p e 7. Descrever os resultados e conclusões estatísticas * * * Exemplo 1 SPSS (Analize>Compare Means>Independent-Samples T Test): Valor de p Teste t para a diferença entre duas médias * * * Exemplo 2: Teste t para a diferença entre duas médias * * * Assume-se Distribuição normal ou aproximadamente normal da variável nos dois grupos Independência entre os grupos Teste t para a diferença entre duas médias * * * Teste t para pares emparelhados 1. Especificar H0 e HA H0: µd = 0 HA: µd 0 2. Escolher o nível de significância ( = 0,05 ou 5%) 3. Calcular a estatística e a estatística de teste Média das duas amostras t = (Média das diferenças - µd) / s(diferenças) 4. Comparar o valor de t com uma distribuição de t com (n-1) graus de liberdade 5. Calcular o valor de p 6. Comparar p e 7. Descrever os resultados e conclusões estatísticas * * * Exemplo SPSS (Analize>Compare Means>Paired-Samples T Test): Teste t para pares emparelhados * * * Assume-se Distribuição normal ou aproximadamente normal das diferenças Dependência (correlação) entre os grupos Teste t para pares emparelhados Click to edit Master title style Click to edit Master subtitle style * * * ANOVA Análise de variância * * * ANOVA Comparação de médias de 2 grupos => Teste t H0: 1=2 [Erro tipo I () = 1-0,95 = 0,05 ou 5%] Mais de 2 grupos: Ex: H0: 1 =2 =3 (1) H0: 1=2 (2) H0: 1=3 (3) H0: 2=3 [Erro tipo I = 1-(0,95)3 = 0,14 ou 14%] = 1-(0,95)4 = 0,26 ou 26% Comparação de médias de mais de 2 grupos => ANOVA (Analysis of Variance) H0: 1 =2 =3 =... =k * * * Considere um conjunto de k grupos, com ni indivíduos cada um, um total de N indivíduos, uma média de cada grupo xi e uma média comum X Ex: Considere os pesos em Kg de 3 grupos de indivíduos de grupos étnicos diferentes (caucasianos, latinos e asiáticos). Grupo 1: 80; 75; 82; 68; 76; 86; 78; 90; 85; 64 x1= 78,40 kg Grupo 2: 65; 84; 63; 54; 86; 62; 73; 64; 69; 81 x2= 70,10 kg Grupo 3: 58; 59; 61; 63; 71; 53; 54; 72; 61; 57 x3= 60,90 kg X=69,80 kg k = 3 n1=10 n2=10 n3=10 N = 30 ANOVA * * * Fontes de variação: Intra-grupos - Variabilidade das observações em relação à média do grupo Within group SS (sum of squares) Within group DF (degrees of freedom) Within group MS (mean square = variance) ANOVA * * * Fontes de variação: Entre-grupos - Variabilidade entre os grupos. Dependente da média do grupo em relação à média conjunta Between group SS Between group DF Between group MS ANOVA * * * A variabilidade observada num conjunto de dados deve-se a: Variação em relação à média do grupo - Within group Variação da média do grupo em relação à média conjunta - Between group Assim: Total SS = Within group SS + Between group SS Total DF = Within group DF + Between group DF ANOVA * * * Prova-se que se 1 =2 =3 =... =k , então, Between MS e Within MS serão ambos estimativas de 2 - a variância comum aos k grupos - logo, Between MS Within MS Se pelo contrário 1 2 3 ... k , então, Between MS será maior que Within MS Assim, para testar a Hipótese nula H0: 1 =2 =3 =... =k calcula-se a estatística F => ANOVA * * * A estatística F tem uma distribuição teórica conhecida - Distribuição F - dependente dos graus de liberdade Between DF e Within DF O cálculo da estatística F e seu enquadramento na distribuição adequada permite-nos conhecer um valor de p - probabilidade de obter um F tão ou mais extremo que o calculado se a hipótese nula for verdadeira O valor de p é subsequentemente comparado com o grau de significância () à partida estabelecido e Se p , rejeita-se a H0 => Existem diferenças estatisticamente significativas entre as médias dos grupos Se p , aceita-se a H0 => Não existem diferenças estatisticamente significativas entre as médias dos grupos ANOVA * * * Assume-se: Normalidade Igualdade das variâncias dos grupos Funciona melhor se: Igual tamanho dos grupos Igualdade dos grupos excepto na variável que os define ANOVA * * * Exemplo SPSS (Analize>Compare Means>One-Way ANOVA): ANOVA * * * ANOVA Click to edit Master title style Click to edit Master subtitle style * * * Testes Não Paramétricos Mann-Whitney Test; Wilcoxon Signed Ranks Test; Kruskal-Wallis Test * * * Mann-Whitney Test Análogo ao teste t para a diferença entre duas médias Quando as assumpções necessárias para a utilização do teste t não são cumpridas (normalidade e igualdade de variâncias) tem que se optar pelos testes análogos não paramétricos Não faz assumpções sobre a distribuição da variável Faz uso das posições ordenadas dos dados (ranks) e não dos valores da variável obtidos * * * Ex: Para investigar se os mecanismos envolvidos nos ataques fatais de asma provocados por alergia à soja são diferentes dos mecanismos envolvidos nos ataques fatais de asma típica compararam-se o número de células T CD3+ na submucosa de indivíduos destes dois grupos. Mann-Whitney Test Posição (rank) Alergia à soja Asma típica 2 0,00 2 0,00 2 0,00 4 1,36 5 1,43 6 3,76 7 4,01 8 4,32 9 13,75 10 34,45 11 37,50 12 58,33 13 73,63 14 74,17 15 99,99 16 154,86 17 1225,51 Grupo de alergia à soja (Células/mm²) (n=7) Grupo de asma típica (Células/mm²) (n=10) 34,45 74,17 0,00 13,75 1,36 37,50 0,00 1225,51 1,43 99,99 0,00 3,76 4,01 58,33 73,63 4,32 154,86 * * * Ex: situações possíveis (dois grupos A e B de 5 elementos cada um): A A A A A B B B B B A B A B A B A B A B 1º 2º 3º 4º 5º 6º 7º 8º 9º 10º 1º 2º 3º 4º 5º 6º 7º 8º 9º 10º A e B diferentes Não há diferenças entre A e B São calculadas as seguintes estatísticas: R1= soma das posições no grupo 1 R2= soma das posições no grupo 2 Mann-Whitney Test * * * A maior destas estatísticas é comparada com uma distribuição adequada (distribuição da estatística U ou aproximação normal) Obtem-se um valor de p - probabilidade de se obter uma estatística tão ou mais extrema do que a verificada caso a hipótese nula seja verdadeira O valor de p é subsequentemente comparado com o grau de significância () à partida estabelecido e Se p , rejeita-se a H0 => Existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos Se p , aceita-se a H0 => Não existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos Mann-Whitney Test * * * Exemplo SPSS (Analize>Nonparametric Tests>2 Independent Samples): Mann-Whitney Test * * * Análogo do teste t para pares emparelhados ou teste t para a diferença entre 2 médias de grupos dependentes Ex: Num ensaio de um fármaco antidepressivo obtêm-se os seguintes scores numa escala de depressão, antes e depois do tratamento: Wilcoxon Signed Ranks Test Score antes Score depois diferença Posição Posição assinalada 70 71 1 1,5 1,5 69 68 -1 1,5 -1,5 52 54 2 3 3 53 50 -3 4 -4 54 49 -5 5,5 -5,5 67 72 5 5,5 5,5 68 61 -7 7 -7 57 43 -14 8 -8 67 50 -17 9 -9 64 40 -24 10 -10 * * * Wilcoxon Signed Ranks Test Posicionam-se os valores absolutos das diferenças de forma ascendente e atribui-se o sinal da diferença à posição Calculam-se as seguintes estatísticas: T+ = soma das posições com sinal positivo T- = soma das posições com sinal negativo Utiliza-se a menor destas estatísticas, sendo esta comparada com uma distribuição adequada (distribuição da estatística T ou aproximação normal) * * * Obtem-se um valor de p - probabilidade de se obter uma estatística tão ou mais extrema do que a verificada caso a hipótese nula seja verdadeira O valor de p é subsequentemente comparado com o grau de significância () à partida estabelecido e Se p , rejeita-se a H0 => Existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos Se p , aceita-se a H0 => Não existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos Wilcoxon Signed Ranks Test * * * Exemplo SPSS (Analize>Nonparametric Tests>2 Related Samples): Wilcoxon Signed Ranks Test * * * Kruskal-Wallis Test Análogo da Análise de Variância (ANOVA) para a comparação das médias de 3 ou mais grupos Ex: Pesos em Kg de 3 grupos de indivíduos de grupos étnicos diferentes (caucasianos, latinos e asiáticos). Grupo 1: 80; 75; 82; 68; 76; 86; 78; 90; 85; 64 Grupo 2: 65; 84; 63; 54; 86; 62; 73; 64; 69; 81 Grupo 3: 58; 59; 61; 63; 71; 53; 54; 72; 61; 57 Organizam-se todos os valores por ordem crescente de modo a cada valor ter uma posição atribuída * * * Calcula-se a estatística: N = nº total de indivíduos; ni = nº de indivíduos no grupo i e Ri = soma das posições no grupo i Esta estatística será comparada com uma distribuição adequada (distribuição de Qui-quadrado com k-1 graus de liberdade) Kruskal-Wallis Test * * * Obtem-se um valor de p - probabilidade de se obter uma estatística tão ou mais extrema do que a verificada caso a hipótese nula seja verdadeira O valor de p é subsequentemente comparado com o grau de significância () à partida estabelecido e Se p , rejeita-se a H0 => Existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos Se p , aceita-se a H0 => Não existem diferenças estatisticamente significativas relativamente à distribuição da variável entre os grupos Kruskal-Wallis Test * * * Exemplo SPSS (Analize>Nonparametric Tests>K Independent Samples): Kruskal-Wallis Test Click to edit Master title style Click to edit Master subtitle style * * * Tabelas de Contingência e Teste do Qui-quadrado Tabelas de contingência; teste do qui-quadrado; teste exacto de Fisher; correcção de Yates; teste de McNemar; teste do qui-quadrado para tendências * * * Tabelas de Contingência Forma de representar a relação entre duas variáveis categóricas. Distribuição das frequências das categorias de uma variável em função das categorias de uma outra variável. * * * Teste do Qui-quadrado Quando estamos perante duas variáveis categóricas podemos usar o teste de qui-quadrado para testar a hipótese da existência de uma associação entre as variáveis na população. As hipóteses nula e alternativa que serão testadas são: H0: Não existe uma associação entre as categorias de uma variável e as da outra variável na população ou as proporções de indivíduos nas categorias de uma variável não variam em função das categorias da outra variável na população HA: Existe uma associação entre as categorias de uma variável e as da outra variável na população ou as proporções de indivíduos nas categorias de uma variável variam em função das categorias da outra variável na população * * * Podem-se apresentar os dados numa tabela de contingência rc (r - nº de linhas; c - nº de colunas). As entradas da tabela são frequências e cada célula contem o nº de indivíduos que pertencem simultaneamente a essa linha e coluna, isto é, as categorias de cada variável são mutuamente exclusivas. Calcula-se a frequência esperada em cada célula da tabela se a hipótese nula fosse verdadeira. A frequência esperada numa determinada célula é o produto do total da linha e do total da coluna dividido pelo total global. Calcula-se uma estatística de teste (²) baseada na discrepância entre as frequências observadas e as frequências esperadas, caso a H0 seja verdadeira, em cada célula da tabela. Se a discrepância for grande é improvável que a hipótese nula seja verdadeira. Teste do Qui-quadrado * * * A estatística de teste calculada (²) tem a seguinte forma genérica: O - frequência observada na célula e E - frequência esperada na célula, caso a H0 seja verdadeira. A tabela de contingência tem a seguinte forma genérica: Teste do Qui-quadrado Variável B Categoria 1 Categoria 2 … Categoria c Total Variável A Categoria 1 f11 f12 … f1c L1 Categoria 2 f21 f22 … f2c L2 … … … … … … Categoria r fr1 fr2 … frc Lr Total C1 C2 … Cc N * * * A estatística de teste segue a Distribuição de Qui-quadrado com (r-1)(c-1) graus de liberdade. O cálculo da estatística ² e seu enquadramento na distribuição adequada permite-nos conhecer um valor de p - probabilidade de obter um ² tão ou mais extremo que o calculado se a hipótese nula for verdadeira. O valor de p é subsequentemente comparado com o grau de significância () à partida estabelecido e Se p , rejeita-se a H0 => Existe uma associação entre as categorias de uma variável e as da outra variável na população ou as proporções de indivíduos nas categorias de uma variável variam em função das categorias da outra variável na população Se p , aceita-se a H0 => Não existe uma associação entre as categorias de uma variável e as da outra variável na população ou as proporções de indivíduos nas categorias de uma variável não variam em função das categorias da outra variável na população Teste do Qui-quadrado * * * Ex: Num ensaio clínico compara-se a eficácia de um Medicamento X (n=30 indivíduos) em relação ao placebo (n=32 indivíduos) na melhoria do estado clínico dos doentes 6 meses após o tratamento (melhorado, agravado, falecido). E11= (26*32)/62= 13,4 E12= (26*30)/62= 12,6 E21= (21*32)/62= 10,8 E22= (21*30)/62= 10,2 E31= (15*32)/62= 7,7 E32= (15*30)/62= 7,3 Teste do Qui-quadrado * * * Ex: (continuação) Teste do Qui-quadrado * * * p= 0,047 Logo, p< => Rejeita-se a H0. Existem uma associação entre o estado clínico 6 meses após o tratamento (melhorado, agravado, falecido) e o tipo de tratamento efectuado (placebo ou medicamento X) ou Existem diferenças estatisticamente significativas quanto ao estado clínico 6 meses após o tratamento entre o grupo tratado com um placebo e o grupo tratado com o medicamento X. Teste do Qui-quadrado * * * Assume-se: Independência dos grupos Caso as variáveis em análise sejam dependentes deverá ser usado o Teste de McNemar. Pelo menos 80% das frequências esperadas têm valores 5 No caso de existirem mais de 20% de células com valores esperados <5 deve reduzir-se a tabela, através da fusão de colunas ou linhas (esta fusão deve fazer sentido no contexto da análise que está a ser feita), até ter pelo menos 80% das frequências esperadas com valor 5. Se numa tabela de 22 (corresponde à fusão máxima possível) existir uma ou mais frequências esperadas com valor <5, então deverá ser usado o Teste Exacto de Fisher. Teste do Qui-quadrado * * * Teste Exacto usado em tabelas de 22 (faz o cálculo das probabilidades exactas e não faz uso da distribuição de qui-quadrado como aproximação para o cálculo de probabilidades). Utiliza-se no caso de haver, numa tabela de contingência de 22, uma ou mais frequências esperadas < 5. Ex: num outro ensaio clínico comparou-se a mortalidade no grupo tratado com placebo e tratado com o medicamento X e obtiveram-se os seguintes resultados: Teste do Qui-quadrado * * * Teste Exacto de Fisher * * * Correcção de Yates Correcção para a continuidade em tabelas de 22: * * * Teste de McNemar Analogo ao teste de qui-quadrado mas para variáveis dependentes. Variável B (ex: depois) Presente Ausente Total Variável A (ex: antes) Presente a b a+b Ausente c d c+d Total a+c b+d a+b+c+d * * * Ex: Teste de McNemar * * * Teste de Qui-quadrado para Tendências Ex: * * * Teste de Qui-quadrado para Tendências Click to edit Master title style Click to edit Master subtitle style * * * Quadros de Síntese Estatística; testes de hipóteses; testes de hipóteses para variáveis quantitativas; testes de hipóteses para variáveis categóricas; outros métodos * * * * * * * * * * * * * * *
Compartilhar