Baixe o app para aproveitar ainda mais
Prévia do material em texto
Bioestatística ______________________ Testes e Análise de Variância Simples _____________________ Pressupostos Para aplicar os seguintes teste é preciso que os dados tenham distribuição normal. Para isso pode ser usado os seguintes procedimentos: - Normal Plot - Shapiro Wilk - Lilliefors Quando os dados não respeitam essa condição, usa-se os Testes não Paramétricos. Testes para diferença entre médias Comparar médias entre dois grupos definindo o tipo de teste É preciso verificar a homogeneidade entre as variâncias pela estatística F de Snedecor: - Se pvalor< : variancias diferentesα - Se pvalor> : variancias iguaisα : nível de significanciaα O pvalor é obtido a partir da estátistica F de Snedecor grupos independentes e variância iguais - H : 1= 20 μ μ - H : 1 2; 1> 2; 1 21 μ =/ μ μ μ μ < μ (depende do pesquisador) Estátistica T de Student: : média ; t = μ1−μ2 Sp√ +1n1 1n2 μ n: tamanho das amostras. Sp: desvio padrão ponderado; variância ponderada (S2.p): pS2 = n1+n2−2 (n1−1).S1 + (n2−1).S22 2 grau de liberdade (g.l.) = 1 2n + n − 2 o valor de t tabelado vai ser encontrado através da tabela cruzando a linha do grau de liberdade calculado pela coluna unilateral (dobro do) nível de significancia. O ajuste da rejeição deve ser feito conforme a hipótese 1, para 1> 2, a rejeição fica a μ μ direita. A se t tabelado estiver na zona de rejeição, então se rejeita H0 grupos independentes e variâncias diferentes - H : 1= 20 μ μ - H : 1 2; 1> 2; 1 21 μ =/ μ μ μ μ < μ (depende do pesquisador) Estatística T de Student: : média ; t = μ1−μ2 √ +n1S12 n2S22 μ S2: variância do grupo n: tamanho das amostras. grau de liberdade (g.l.) = ν correção ( ) = ν +( n1S12 n2S22) 2 +n1+1 ( )n1 S12 2 n2+1 ( )n2 S22 2 − 2 grupos dependentes Um grupo observado em dois momentos: - H : D=00 - H :D 1 0; D 1 0; D 1<0 (depende1 =/ > do pesquisador) t = dSd/√n média da diferenças de antes ed = n Ξdi depois variância das diferençasdS2 = n−1 Ξ(di−d)2 grau de liberdade (g.l.): n-1 Teste para diferença entre proporções - H : = 0. 0 1P P - H : P1 P 0; P1<P0; P1<P01 =/ z = p´1−p´0 √P (1−P ).( + )′ ′ 1n1 1n2 proporção ponderada´P = n1+n2 n1.p´1+n2.p´2 ´1p = n do grupo 1 n de casos favoráveis do grupo 1 z tabelado = :α unilateral - ztab(5%)= 1,64 - ztab(1%)=2,33 bilateral - ztab(5%)= 1,96 - ztab(1%)=2,58 Testes não paramétricos Testes alternativos para a falta de normalidade dos dados e não aplicabilidade dos outros dados Análise de Variancia Simples (ANOVA) Comparação 3 ou mais médias Extensão do teste t de Student para médias independentes. -H : 1= 2= 3: todas as médias são iguais0 μ μ μ -H :existe pelo menos uma diferença entre1 as médias pressupostos Feitos depois dos testes alternativos Dados em normalidade - testes e gráficos específicos aplicados no resultante no resíduo (valor-média) Variâncias iguais ou muito próximas - teste de Levene Estatística F de Snedecor Resulta em um p valor - Se p valor< : pelo menos uma α diferença entre as médias - Se p valor> : médias iguaisα : nível de significânciaα Testes de Comparações múltiplas Usado no caso de haver diferença - Teste LSD - Duncan - Tukey Correlação Linear Simples Verifica como duas variaveis quantitativas se relacionam: - x: independente - y: dependente gráfico de dispersão Eixo cartesiano ilustrando a correlação das variáveis coeficiente de correlação de Pearson (ρ) -1<ρ<+1 Mede o quanto em que sentido, direto ou inverso, duas variáveis se relacionam de forma linear: - ρ próximo de 0: correlação fraca - ρ próximo0 de |1|: correlação muito forte - ρ<0: correlação inversa - ρ>0: correlação direta teste de hipotese -H : não há relação linear as variavies0 -H :há correlação entre as variavies1 Estátistica de t de Student gera um p valor - Se p valor< : existe correlaçãoα - Se p valor> : não existe correlaçãoα : nível de significânciaα Análise de Regressão Linear Simples Relacionamento entre duas variáveis criando uma equação linear para explicá-la: y=a+bx y: variável dependente x: variável independente a: intercepto (ponto que a reta cruza o eixo y) b: inclinação (aumento a cada novo x) adequação do modelo - a reta explica a relação entre x e y? - o parâmetro intercepto é significativo (a>0)? - o parâmetro inclinação é significativo (b>0)? testes de significância -teste F: p valor tem que ser baixo -teste T de student: parâmetros significativos -análise de resíduos: adequação do ajuste.
Compartilhar