Prévia do material em texto
<p>menores critérios de informação.</p><p>O critério de informação de Akaike, conhecido simplesmente como AIC, e o critério de informação bayesiano, chamado de BIC, não são testes de hipótese, eles são ferramentas para seleção de modelos. Os critérios de informação apresentam duas vantagens sobre outros métodos de seleção como o R² de McFadden: O AIC e o BIC se baseiam na log-verossimilhança como o outro método e, além disso, consideram e penalizam a complexidade do modelo, número de parâmetros, o que busca o alinhamento com o princípio da parcimônia, essencial na modelagem estatística. Além disso, os modelos que estão sendo comparados não necessitam ser aninhados, o que é a principal restrição na comparação de modelos via teste de hipótese. Nas equações subsequentes os critérios AIC e BIC são expressos respectivamente.</p><p>(24) (25)</p><p>Onde: k = Número de restrições; n = Tamanho da amostra; e l = Função de verossimilhança.</p><p>Resíduos</p><p>Para a análise de resíduos num modelo linear generalizado geralmente se opta por utilizar alguma das três definições de resíduos generalizados: Pearson, Anscombe ou Deviance. Os três tipos são casos especiais da definição de resíduos dada por Cox e Snell (1968). Eles são uma função de y e μ, que tem por objetivo tornar a distribuição dos resíduos mais simétrica.</p><p>Resíduos de Pearson</p><p>O resíduo mais simples é o de Pearson, definido por:</p><p>(26)</p><p>A desvantagem do resíduo de Pearson é que sua distribuição é, geralmente, bastante assimétrica para modelos não-normais.</p><p>Resíduos de Anscombe</p><p>Anscombe (1953) apresenta uma definição geral de resíduo, através de uma transformação N(yi) da observação yi, escolhida visando tornar a sua distribuição o mais próxima possível da distribuição normal. Barndorff-Nielsen (1978) demonstra que, para os MLG, N(.) é dada por . Como é a aproximação de primeira ordem do desvio padrão de N(y), o resíduo de Anscombe, visando `a normalização e à estabilização da variância, é expresso por:</p><p>(27)</p><p>Nas equações a seguir são apresentadas as expressões dos resíduos de Anscombe para distribuições gama, normal inversa e Poisson, respectivamente.</p><p>Gama (28), Normal Inversa(29) e Poisson (30)</p><p>Análise de deviance</p><p>A análise de deviance ou ANODEV, consiste em uma tabela de diferenças de deviances para uma sequência de modelos encaixados. Nada mais é que uma generalização da análise de variância ou ANOVA, visando, como está, obter os efeitos da inclusão de cada covariável e além disto suas interações. Surge, porém, uma dificuldade, em geral os termos de um MLG são não octogonais, o que dificulta a interpretação da ANODEV.</p><p>Para comparar modelos encaixados considerar-se-á duas hipóteses: seja a hipótese nula Ho, representando um modelo mais simples, e a hipótese alternativa H1, representando um modelo mais complexo. Temos então:</p><p>e</p><p>onde q < p < N.</p><p>Pode-se testar Ho contra H1 usando a diferença de deviances do seguinte modo:</p><p>(31)</p><p>Com se ambos modelos descrevem adequadamente os dados.</p><p>Utilizando temos que , o que possibilita a comparação de ΔD com o valor crítico da distribuição qui-quadrado, . Logo, se o valor de ΔD > , para um determinado nível de significância α, não se pode ignorar os efeitos das (p-q) covariáveis, devendo-se rejeitar Ho em favor de H1, ou seja, prover uma descrição melhor dos dados. Caso contrário, se ΔD ≤ deve-se escolher o modelo correspondente a Ho porque é o mais simples, ou mais parcimonioso.</p><p>Teste de Hipóteses</p><p>Baseados na teoria assintótica de MV, usualmente três estatísticas específicas para realizar testes sobre β's: Wald; Razão de Verossimilhanças; Escore.</p><p>Teste de Wald</p><p>Este teste depende apenas da estimação do modelo sem restrição, e a ideia básica é investigar se a estimativa sem restrição está perto de cumprir a restrição. Isto é, nós utilizamos , o vetor estimado sem restrição, para testar se h() está próximo de zero. Caso tenhamos h() = 0 a restrição estará sendo satisfeita pelos dados. A questão é, novamente, definir o que significa "próximo" de zero. Para fazermos qualquer consideração a este respeito precisamos primeiro saber quem é a variância de h(). É possível mostrar-se que:</p><p>(32)</p><p>onde o vetor J é dado por:</p><p>(33)</p><p>O teste de Wald (W) tem uma distribuição chi-quadrado com g graus de liberdade, onde g é o número de restrições testadas.</p><p>(34)</p><p>Teste da Razão da Verossimilhança (LR)</p><p>Este teste requer a estimação do modelo restrito e sem restrição. Vamos denominar o vetor de parâmetros restrito de , isto é, a hipótese a ser testada é h() = 0, e o vetor não restrito de . Logo, podemos calcular o valor da função de verossimilhança no ponto de máximo com e sem a restrição, vale dizer, L() e L() respectivamente. Se a restrição for verdadeira, o valor da função de verossimilhança avaliada em e devem estar "próximos", indicando que os dados estão dando suporte a restrição.</p><p>O teste LR é baseado no ln da razão entre as duas verossimilhanças, isto é, na diferença entre o ln L() e ln L(). Se H0 é verdadeiro, a estatística é da forma:</p><p>(35)</p><p>onde g é o número de restrições. O teste é, portanto, distribuído assintoticamente como uma chi-quadrado com g graus de liberdade. Se o valor da estatística for maior que o valor crítico ao nível de significância desejado nós rejeitamos H0.</p><p>Multiplicador de Lagrange ou Escore Eficiente (LM)</p><p>Este teste requer apenas a estimação do modelo com restrição. Se a restrição for válida, isto é H0 for verdadeira, nós podemos esperar que S(), o escore eficiente avaliado em , seja "próximo" de zero. Lembre-se que no ponto de máximo temos S(θ) = 0. Neste sentido, o valor do score eficiente avaliado em é que determina a aceitação ou não da restrição. A estatística é dada por:</p><p>(36)</p><p>Os três testes são assintoticamente equivalentes. É fácil ver que quando um dos testes aceita a restrição os demais também o farão.</p><p>image6.png</p><p>image7.png</p><p>image8.png</p><p>image9.png</p><p>image10.png</p><p>image11.png</p><p>image12.png</p><p>image13.png</p><p>image14.png</p><p>image15.png</p><p>image16.png</p><p>image17.png</p><p>image18.png</p><p>image19.png</p><p>image20.png</p><p>image21.png</p><p>image22.png</p><p>image23.png</p><p>image24.png</p><p>image25.png</p><p>image26.png</p><p>image27.png</p><p>image28.png</p><p>image29.png</p><p>image30.png</p><p>image31.png</p><p>image32.png</p><p>image33.png</p><p>image34.png</p><p>image35.png</p><p>image36.png</p><p>image37.png</p><p>image1.png</p><p>image2.png</p><p>image3.png</p><p>image4.png</p><p>image5.png</p>menores critérios de informação. O critério de informação de Akaike, conhecido simplesmente como AIC, e o critério de informação bayesiano, chamado de BIC, não são testes de hipótese, eles são ferramentas para seleção de modelos. Os critérios de informação apresentam duas vantagens sobre outros métodos de seleção como o R² de McFadden: O AIC e o BIC se baseiam na log-verossimilhança como o outro método e, além disso, consideram e penalizam a complexidade do modelo, número de parâmetros, o que busca o alinhamento com o princípio da parcimônia, essencial na modelagem estatística. Além disso, os modelos que estão sendo comparados não necessitam ser aninhados, o que é a principal restrição na comparação de modelos via teste de hipótese. Nas equações subsequentes os critérios AIC e BIC são expressos respectivamente. (24) (25) Onde: k = Número de restrições; n = Tamanho da amostra; e l = Função de verossimilhança. Resíduos Para a análise de resíduos num modelo linear generalizado geralmente se opta por utilizar alguma das três definições de resíduos generalizados: Pearson, Anscombe ou Deviance. Os três tipos são casos especiais da definição de resíduos dada por Cox e Snell (1968). Eles são uma função de y e μ, que tem por objetivo tornar a distribuição dos resíduos mais simétrica. Resíduos de Pearson O resíduo mais simples é o de Pearson, definido por: (26) A desvantagem do resíduo de Pearson é que sua distribuição é, geralmente, bastante assimétrica para modelos não-normais. Resíduos de Anscombe Anscombe (1953) apresenta uma definição geral de resíduo, através de uma transformação N(yi) da observação yi, escolhida visando tornar a sua distribuição o mais próxima possível da distribuição normal. Barndorff-Nielsen (1978) demonstra que, para os MLG, N(.) é dada por . Como é a aproximação de primeira ordem do desvio padrão de N(y), o resíduo de Anscombe, visando `a normalização e à estabilização da variância, é expresso por: (27) Nas equações a seguir são apresentadas as expressões dos resíduos de Anscombe para distribuições gama, normal inversa e Poisson, respectivamente. Gama (28), Normal Inversa(29) e Poisson (30) Análise de deviance A análise de deviance ou ANODEV, consiste em uma tabela de diferenças de deviances para uma sequência de modelos encaixados. Nada mais é que uma generalização da análise de variância ou ANOVA, visando, como está, obter os efeitos da inclusão de cada covariável e além disto suas interações. Surge, porém, uma dificuldade, em geral os termos de um MLG são não octogonais, o que dificulta a interpretação da ANODEV. Para comparar modelos encaixados considerar-se-á duas hipóteses: seja a hipótese nula Ho, representando um modelo mais simples, e a hipótese alternativa H1, representando um modelo mais complexo. Temos então: e onde q < p < N. Pode-se testar Ho contra H1 usando a diferença de deviances do seguinte modo: (31) Com se ambos modelos descrevem adequadamente os dados. Utilizando temos que , o que possibilita a comparação de ΔD com o valor crítico da distribuição qui-quadrado, . Logo, se o valor de ΔD > , para um determinado nível de significância α, não se pode ignorar os efeitos das (p-q) covariáveis, devendo-se rejeitar Ho em favor de H1, ou seja, prover uma descrição melhor dos dados. Caso contrário, se ΔD ≤ deve-se escolher o modelo correspondente a Ho porque é o mais simples, ou mais parcimonioso. Teste de Hipóteses Baseados na teoria assintótica de MV, usualmente três estatísticas específicas para realizar testes sobre β's: Wald; Razão de Verossimilhanças; Escore. Teste de Wald Este teste depende apenas da estimação do modelo sem restrição, e a ideia básica é investigar se a estimativa sem restrição está perto de cumprir a restrição. Isto é, nós utilizamos , o vetor estimado sem restrição, para testar se h() está próximo de zero. Caso tenhamos h() = 0 a restrição estará sendo satisfeita pelos dados. A questão é, novamente, definir o que significa "próximo" de zero. Para fazermos qualquer consideração a este respeito precisamos primeiro saber quem é a variância de h(). É possível mostrar-se que: (32) onde o vetor J é dado por: (33) O teste de Wald (W) tem uma distribuição chi-quadrado com g graus de liberdade, onde g é o número de restrições testadas. (34) Teste da Razão da Verossimilhança (LR) Este teste requer a estimação do modelo restrito e sem restrição. Vamos denominar o vetor de parâmetros restrito de , isto é, a hipótese a ser testada é h() = 0, e o vetor não restrito de . Logo, podemos calcular o valor da função de verossimilhança no ponto de máximo com e sem a restrição, vale dizer, L() e L() respectivamente. Se a restrição for verdadeira, o valor da função de verossimilhança avaliada em e devem estar "próximos", indicando que os dados estão dando suporte a restrição. O teste LR é baseado no ln da razão entre as duas verossimilhanças, isto é, na diferença entre o ln L() e ln L(). Se H0 é verdadeiro, a estatística é da forma: (35) onde g é o número de restrições. O teste é, portanto, distribuído assintoticamente como uma chi-quadrado com g graus de liberdade. Se o valor da estatística for maior que o valor crítico ao nível de significância desejado nós rejeitamos H0. Multiplicador de Lagrange ou Escore Eficiente (LM) Este teste requer apenas a estimação do modelo com restrição. Se a restrição for válida, isto é H0 for verdadeira, nós podemos esperar que S(), o escore eficiente avaliado em , seja "próximo" de zero. Lembre-se que no ponto de máximo temos S(θ) = 0. Neste sentido, o valor do score eficiente avaliado em é que determina a aceitação ou não da restrição. A estatística é dada por: (36) Os três testes são assintoticamente equivalentes. É fácil ver que quando um dos testes aceita a restrição os demais também o farão. image6.png image7.png image8.png image9.png image10.png image11.png image12.png image13.png image14.png image15.png image16.png image17.png image18.png image19.png image20.png image21.png image22.png image23.png image24.png image25.png image26.png image27.png image28.png image29.png image30.png image31.png image32.png image33.png image34.png image35.png image36.png image37.png image1.png image2.png image3.png image4.png image5.png