224 pág.

Pré-visualização | Página 44 de 50
como os 12 sorteados são fixos, se o número de verdes mudar, o número de azuis também muda, ou seja, há dependência entre esses fenômenos, caracterizando a não reposição. Bem, seguindo esse raciocínio, podemos então calcular qual a probabilidade de termos 9 ou mais bolinhas verdes sorteadas, não é mesmo? Seria a soma de termos 9 ou 10 ou 11 ou 12: > sum(dhyper(x=9:12, m=13, n=12, k=12)) [1] 0.03406053 Ora, isso seria equivalente a testar a probabilidade de, dada a hipótese nula, a proporção de casos expostos ser maior ou igual a 0.75, lembra da tabela lá em cima? Expostos Não Expostos Total Casos 0.7500000 0.2500000 1 Controles 0.3076923 0.6923077 1 Total 0.5200000 0.4800000 1 Bem, vamos então aplicar um teste de Fisher unidirecional, para ver a chance de uma observação ser tão extrema ou mais do que essa. Vamos usar a opção alternative="greater": > fisher.test(tabela[1:2,1:2], alternative="greater") Fisher's Exact Test for Count Data data: tabela[1:2, 1:2] 12 p-value = 0.03406 alternative hypothesis: true odds ratio is greater than 1 95 percent confidence interval: 1.148427 Inf sample estimates: odds ratio 6.180528 Hummm. Bateu direitinho o p-valor. Mas e o bilateral? Como é que se faz. Bem, aí fica parecido com a Binomial, que nós vimos. Calculamos o afastamento desse valor (9) para o valor esperado nessa casela (6.24) e calculamos o simétrico de 9 em relação a esse valor: > 6.24-(9-6.24) [1] 3.48 Como 3.48 não é inteiro, vamos calcular para valores iguais ou mais extremos que 3. No total, teríamos: > sum(dhyper(x=c(0:3,9:12), m=13, n=12, k=12)) [1] 0.04717997 Vamos comparar agora com o teste bilateral: > fisher.test( ) Fisher's Exact Test for Count Data data: tabela[1:2, 1:2] p-value = 0.04718 alternative hypothesis: true odds ratio is not equal to 1 95 percent confidence interval: 0.9006803 57.2549701 sample estimates: odds ratio 6.180528 Bem, para finalizar precisamos fazer algumas considerações sobre essa saída, especialmente as linhas abaixo do p-valor. Vamos devagar: alternative hypothesis: true odds ratio is not equal to 1 Repare que agora o nosso teste de hipóteses não diz respeito a proporções, mas sim à odds ratio (OR) da qual você já deve ter ouvido falar bastante. Para refrescar a memória, uma odds é um valor que indica quantas chances de ganhar algo versus a chance de perder algo. Assim, a odds de um caso ser exposto é de 9:3, ou se preferir 3:1 ou 3 simplesmente, enquanto a odds de um controle ser exposto é de 4:9, ou 0.44. Essas chances podem também ser expressas através de suas proporções. Assim, a chance de um caso ser exposto é 0.75:1-0.75, ou 0.75:0.25 = 3. São equivalentes. São equivalentes de tal sorte que comparar se p1 – p2 = 0 é o mesmo que comparar se p1 /1− p1 p2 /1− p2 =1 , ou seja, se a razão das odds é igual a 1. Esta é a famosa OR. 95 percent confidence interval: 0.9006803 57.2549701 13 Tudo estaria indo bem, não fosse esse IC para a OR, não é mesmo? Notou algo de estranho? Não? Então olhe o p-valor calculado de novo. E agora? Pois é, não bate, não é mesmo? Bem, esse é um problema que temos por causa das nossas aproximações, mesmo em um teste exato. Mas tem um outro problema. Olha só a estimativa que o R dá para a OR: sample estimates: odds ratio 6.180528 Você que já está cansado de calcular ORs no seu curso de Epidemiologia, calcule para mim a OR da nossa tabela, por favor: Expostos Não Expostos Total Casos 9 3 12 Controles 4 9 13 Total 13 12 25 Calculou? Conferiu para ver se está certo? Bateu com esse resultado aqui do R? Pois é, não bate né? Alguém já tinha te dito que existe mais de um tipo de OR? Não? Aconteceu o mesmo comigo quando descobri que existe. Não se preocupe, eu conheço essa sensação de decepção. Parece muito quando você descobre que Papai Noel não existe... ;-) Acontece que o que todos nós aprendemos e usamos, a famosa razão dos produtos cruzados é chamada de estimador de máxima verossimilhança incondicional da OR. Quer dizer que existe uma estimador condicional? Isso mesmo! E é essa que o R calcula... Isso porque vários estudos mostram que este estimador é mais acurado que a razão dos produtos cruzados para estimar o risco; mas isso é uma discussão para a Epidemio, não é mesmo? Bom, a “má” notícia é que esse estimador não pode ser calculado na mão, pois depende de métodos iterativos, e portanto não poderemos refazê-lo aqui... O IC então, nem me pergunte!!! :-( Mas não fique tão triste. Vamos implementar uma função para calcular a OR que você conhece e de quebra calcular um IC aproximado para essa OR. O método aproximado mais popular para se calcular o IC de uma OR é a que você provavelmente já viu, que se chama método de Woolf, que é baseada como você já deve ter desconfiado em uma aproximação normal. Vamos criar uma função no R para calcular isso: or.woolf <- function(x, alfa=0.05) { y<-c((x[1,1]*x[2,2])/(x[1,2]*x[2,1])) # Calculando a OR z<-exp(log(y)+(c(-1,1)*qnorm(1- (alfa/2))*sqrt((1/x[1,1])+(1/x[1,2])+(1/x[2,1])+(1/x[2,2])))) # Calculando o IC round(c("OR"=y, "IC"=z),3) } Bem, o cálculo da OR no código acima não deve deixar dúvidas (se ainda deixa, preocupe- se!!! Já estava na hora de ser entendido.) O cálculo do IC propriamente dito, ficará para um exercício para você. Tudo muito bonito, mas eu mencionei que esse é o método mais popular. Isso: significa que existem outros... Pelo menos um outro é também badalado por aí, e foi proposto por Miettinen, e esse é baseado no resultado do teste Qui-quadrado. Vamos ver como isso funciona. A equação para o cálculo desse IC é até bem simples: 14 IC 100× 1−%= OR1± 1,1− 2 / X 2 , onde X 2 nada mais é do que o valor da estatística do Qui-quadrado com correção de continuidade que o R calcula para nós. Bem, a implementação é também fácil: or.miett <- function(x, alfa=0.05) { y<-c((x[1,1]*x[2,2])/(x[1,2]*x[2,1])) # Calculando a OR qui<-chisq.test(x)$statistic z<-y^(1+(c(-1,1)*sqrt(qchisq(1-alfa, 1)/qui))) round(c("OR"=y, "IC"=z),3) } Não fique aflito, vamos usar essas funções em um exercício... Teste de McNemar Ainda falando em duas amostras para proporções, precisamos também de um teste para dar conta de estudos pareados, como vimos na última aula, no caso de um teste t pareado. Esse tipo de estudo é muito comum em Epidemiologia, como a maioria de vocês já deve ter percebido. Não abordaremos os estimadores para a razão dos pares discordantes, assunto certamente abordado pela Epidemio, mas vamos ver um teste Qui-quadrado específico para testar dados pareados, que é chamado de teste de McNemar. Como o nosso livro não comenta esse teste, vamo usar um exemplo do livro “Fundamentals of Biostatistics”, de Bernard Rosner, 5ª edição, página 376, Exemplo 10.21, que trata de dois regimes diferentes de quimioterapia em mulheres, sendo que o desfecho em questão é número de mulheres que sobrevivem em 5 anos após a cirurgia. Para tornar os grupos sob diferentes tratamentos mais “comparáveis”, pares são formados em respeito à idade e a uma classificação clínica. Vamos ver o resultado desse estudo na clássica apresentação de uma tabela para dados pareados. No R: sobrevida<-matrix(c(526, 5, 16, 90), nr=2, dimnames = list("Tratamento A" = c("Sobreviveu", "Faleceu"), "Tratamento B" = c("Sobreviveu", "Faleceu"))) O objeto sobrevida ficou assim: > sobrevida Tratamento B Tratamento A Sobreviveu Faleceu Sobreviveu 526 16 Faleceu 5 90 Não causa nenhuma surpresa para quem já viu esse tipo de resultado, onde a tabela retrata o resultado dos pares e não dos indivíduos em relação aos tratamentos e também aos desfechos. Para aplicar o teste de McNemar, basta fazermos: > mcnemar.test(sobrevida) McNemar's Chi-squared test with continuity correction data: sobrevida McNemar's chi-squared = 4.7619, df = 1, p-value = 0.02910 A interpretação