A maior rede de estudos do Brasil

Grátis
224 pág.
Estatistica usado o R

Pré-visualização | Página 44 de 50

como os 12 sorteados são fixos, se o número de
verdes mudar, o número de azuis também muda, ou seja, há dependência entre esses fenômenos,
caracterizando a não reposição.
Bem, seguindo esse raciocínio, podemos então calcular qual a probabilidade de termos 9 ou
mais bolinhas verdes sorteadas, não é mesmo? Seria a soma de termos 9 ou 10 ou 11 ou 12:
> sum(dhyper(x=9:12, m=13, n=12, k=12))
[1] 0.03406053
Ora, isso seria equivalente a testar a probabilidade de, dada a hipótese nula, a proporção de
casos expostos ser maior ou igual a 0.75, lembra da tabela lá em cima?
 Expostos Não Expostos Total
Casos 0.7500000 0.2500000 1
Controles 0.3076923 0.6923077 1
Total 0.5200000 0.4800000 1
Bem, vamos então aplicar um teste de Fisher unidirecional, para ver a chance de uma
observação ser tão extrema ou mais do que essa. Vamos usar a opção alternative="greater":
> fisher.test(tabela[1:2,1:2], alternative="greater")
 Fisher's Exact Test for Count Data
data: tabela[1:2, 1:2] 
12
p-value = 0.03406
alternative hypothesis: true odds ratio is greater than 1 
95 percent confidence interval:
 1.148427 Inf 
sample estimates:
odds ratio 
 6.180528 
Hummm. Bateu direitinho o p-valor. Mas e o bilateral? Como é que se faz. Bem, aí fica
parecido com a Binomial, que nós vimos. Calculamos o afastamento desse valor (9) para o valor
esperado nessa casela (6.24) e calculamos o simétrico de 9 em relação a esse valor:
> 6.24-(9-6.24)
[1] 3.48
Como 3.48 não é inteiro, vamos calcular para valores iguais ou mais extremos que 3. No
total, teríamos:
> sum(dhyper(x=c(0:3,9:12), m=13, n=12, k=12))
[1] 0.04717997
Vamos comparar agora com o teste bilateral:
> fisher.test( )
 Fisher's Exact Test for Count Data
data: tabela[1:2, 1:2] 
p-value = 0.04718
alternative hypothesis: true odds ratio is not equal to 1 
95 percent confidence interval:
 0.9006803 57.2549701 
sample estimates:
odds ratio 
 6.180528 
Bem, para finalizar precisamos fazer algumas considerações sobre essa saída, especialmente
as linhas abaixo do p-valor. Vamos devagar:
alternative hypothesis: true odds ratio is not equal to 1 
Repare que agora o nosso teste de hipóteses não diz respeito a proporções, mas sim à odds
ratio (OR) da qual você já deve ter ouvido falar bastante. Para refrescar a memória, uma odds é um
valor que indica quantas chances de ganhar algo versus a chance de perder algo. Assim, a odds de
um caso ser exposto é de 9:3, ou se preferir 3:1 ou 3 simplesmente, enquanto a odds de um controle
ser exposto é de 4:9, ou 0.44. Essas chances podem também ser expressas através de suas
proporções. Assim, a chance de um caso ser exposto é 0.75:1-0.75, ou 0.75:0.25 = 3. São
equivalentes.
São equivalentes de tal sorte que comparar se p1 – p2 = 0 é o mesmo que comparar se
p1 /1− p1
p2 /1− p2
=1 , ou seja, se a razão das odds é igual a 1. Esta é a famosa OR.
95 percent confidence interval:
 0.9006803 57.2549701 
13
Tudo estaria indo bem, não fosse esse IC para a OR, não é mesmo? Notou algo de estranho?
Não? Então olhe o p-valor calculado de novo. E agora? Pois é, não bate, não é mesmo? Bem, esse é
um problema que temos por causa das nossas aproximações, mesmo em um teste exato. Mas tem
um outro problema. Olha só a estimativa que o R dá para a OR:
sample estimates:
odds ratio 
 6.180528 
Você que já está cansado de calcular ORs no seu curso de Epidemiologia, calcule para mim
a OR da nossa tabela, por favor:
 Expostos Não Expostos Total
Casos 9 3 12
Controles 4 9 13
Total 13 12 25
Calculou? Conferiu para ver se está certo? Bateu com esse resultado aqui do R?
Pois é, não bate né? Alguém já tinha te dito que existe mais de um tipo de OR? Não?
Aconteceu o mesmo comigo quando descobri que existe. Não se preocupe, eu conheço essa
sensação de decepção. Parece muito quando você descobre que Papai Noel não existe...
;-)
Acontece que o que todos nós aprendemos e usamos, a famosa razão dos produtos cruzados
é chamada de estimador de máxima verossimilhança incondicional da OR. Quer dizer que existe
uma estimador condicional? Isso mesmo! E é essa que o R calcula... Isso porque vários estudos
mostram que este estimador é mais acurado que a razão dos produtos cruzados para estimar o risco;
mas isso é uma discussão para a Epidemio, não é mesmo? Bom, a “má” notícia é que esse
estimador não pode ser calculado na mão, pois depende de métodos iterativos, e portanto não
poderemos refazê-lo aqui... O IC então, nem me pergunte!!!
:-(
Mas não fique tão triste. Vamos implementar uma função para calcular a OR que você
conhece e de quebra calcular um IC aproximado para essa OR.
O método aproximado mais popular para se calcular o IC de uma OR é a que você
provavelmente já viu, que se chama método de Woolf, que é baseada como você já deve ter
desconfiado em uma aproximação normal. Vamos criar uma função no R para calcular isso:
or.woolf <- function(x, alfa=0.05)
{
y<-c((x[1,1]*x[2,2])/(x[1,2]*x[2,1])) # Calculando a OR
z<-exp(log(y)+(c(-1,1)*qnorm(1-
(alfa/2))*sqrt((1/x[1,1])+(1/x[1,2])+(1/x[2,1])+(1/x[2,2])))) # Calculando o IC
round(c("OR"=y, "IC"=z),3)
}
Bem, o cálculo da OR no código acima não deve deixar dúvidas (se ainda deixa, preocupe-
se!!! Já estava na hora de ser entendido.) O cálculo do IC propriamente dito, ficará para um
exercício para você.
Tudo muito bonito, mas eu mencionei que esse é o método mais popular. Isso: significa que
existem outros... Pelo menos um outro é também badalado por aí, e foi proposto por Miettinen, e
esse é baseado no resultado do teste Qui-quadrado. Vamos ver como isso funciona. A equação para
o cálculo desse IC é até bem simples:
14
IC 100× 1−%=

OR1± 1,1− 
2 / X 2 , onde X 2 nada mais é do que o valor da estatística
do Qui-quadrado com correção de continuidade que o R calcula para nós. Bem, a implementação é
também fácil:
or.miett <- function(x, alfa=0.05)
{
y<-c((x[1,1]*x[2,2])/(x[1,2]*x[2,1])) # Calculando a OR
qui<-chisq.test(x)$statistic
z<-y^(1+(c(-1,1)*sqrt(qchisq(1-alfa, 1)/qui)))
round(c("OR"=y, "IC"=z),3)
}
Não fique aflito, vamos usar essas funções em um exercício...
Teste de McNemar
Ainda falando em duas amostras para proporções, precisamos também de um teste para dar
conta de estudos pareados, como vimos na última aula, no caso de um teste t pareado. Esse tipo de
estudo é muito comum em Epidemiologia, como a maioria de vocês já deve ter percebido.
Não abordaremos os estimadores para a razão dos pares discordantes, assunto certamente
abordado pela Epidemio, mas vamos ver um teste Qui-quadrado específico para testar dados
pareados, que é chamado de teste de McNemar.
Como o nosso livro não comenta esse teste, vamo usar um exemplo do livro “Fundamentals
of Biostatistics”, de Bernard Rosner, 5ª edição, página 376, Exemplo 10.21, que trata de dois
regimes diferentes de quimioterapia em mulheres, sendo que o desfecho em questão é número de
mulheres que sobrevivem em 5 anos após a cirurgia. Para tornar os grupos sob diferentes
tratamentos mais “comparáveis”, pares são formados em respeito à idade e a uma classificação
clínica.
Vamos ver o resultado desse estudo na clássica apresentação de uma tabela para dados
pareados. No R:
sobrevida<-matrix(c(526, 5, 16, 90), nr=2, dimnames = list("Tratamento A"
= c("Sobreviveu", "Faleceu"), "Tratamento B" = c("Sobreviveu", "Faleceu")))
O objeto sobrevida ficou assim:
> sobrevida
 Tratamento B
Tratamento A Sobreviveu Faleceu
 Sobreviveu 526 16
 Faleceu 5 90
Não causa nenhuma surpresa para quem já viu esse tipo de resultado, onde a tabela retrata o
resultado dos pares e não dos indivíduos em relação aos tratamentos e também aos desfechos. Para
aplicar o teste de McNemar, basta fazermos:
> mcnemar.test(sobrevida)
 McNemar's Chi-squared test with continuity correction
data: sobrevida 
McNemar's chi-squared = 4.7619, df = 1, p-value = 0.02910
A interpretação