Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

<p>menores critérios de informação.</p><p>O critério de informação de Akaike, conhecido simplesmente como AIC, e o critério de informação bayesiano, chamado de BIC, não são testes de hipótese, eles são ferramentas para seleção de modelos. Os critérios de informação apresentam duas vantagens sobre outros métodos de seleção como o R² de McFadden: O AIC e o BIC se baseiam na log-verossimilhança como o outro método e, além disso, consideram e penalizam a complexidade do modelo, número de parâmetros, o que busca o alinhamento com o princípio da parcimônia, essencial na modelagem estatística. Além disso, os modelos que estão sendo comparados não necessitam ser aninhados, o que é a principal restrição na comparação de modelos via teste de hipótese. Nas equações subsequentes os critérios AIC e BIC são expressos respectivamente.</p><p>(24) (25)</p><p>Onde: k = Número de restrições; n = Tamanho da amostra; e l = Função de verossimilhança.</p><p>Resíduos</p><p>Para a análise de resíduos num modelo linear generalizado geralmente se opta por utilizar alguma das três definições de resíduos generalizados: Pearson, Anscombe ou Deviance. Os três tipos são casos especiais da definição de resíduos dada por Cox e Snell (1968). Eles são uma função de y e μ, que tem por objetivo tornar a distribuição dos resíduos mais simétrica.</p><p>Resíduos de Pearson</p><p>O resíduo mais simples é o de Pearson, definido por:</p><p>(26)</p><p>A desvantagem do resíduo de Pearson é que sua distribuição é, geralmente, bastante assimétrica para modelos não-normais.</p><p>Resíduos de Anscombe</p><p>Anscombe (1953) apresenta uma definição geral de resíduo, através de uma transformação N(yi) da observação yi, escolhida visando tornar a sua distribuição o mais próxima possível da distribuição normal. Barndorff-Nielsen (1978) demonstra que, para os MLG, N(.) é dada por . Como é a aproximação de primeira ordem do desvio padrão de N(y), o resíduo de Anscombe, visando `a normalização e à estabilização da variância, é expresso por:</p><p>(27)</p><p>Nas equações a seguir são apresentadas as expressões dos resíduos de Anscombe para distribuições gama, normal inversa e Poisson, respectivamente.</p><p>Gama (28), Normal Inversa(29) e Poisson (30)</p><p>Análise de deviance</p><p>A análise de deviance ou ANODEV, consiste em uma tabela de diferenças de deviances para uma sequência de modelos encaixados. Nada mais é que uma generalização da análise de variância ou ANOVA, visando, como está, obter os efeitos da inclusão de cada covariável e além disto suas interações. Surge, porém, uma dificuldade, em geral os termos de um MLG são não octogonais, o que dificulta a interpretação da ANODEV.</p><p>Para comparar modelos encaixados considerar-se-á duas hipóteses: seja a hipótese nula Ho, representando um modelo mais simples, e a hipótese alternativa H1, representando um modelo mais complexo. Temos então:</p><p>e</p><p>onde q < p < N.</p><p>Pode-se testar Ho contra H1 usando a diferença de deviances do seguinte modo:</p><p>(31)</p><p>Com se ambos modelos descrevem adequadamente os dados.</p><p>Utilizando temos que , o que possibilita a comparação de ΔD com o valor crítico da distribuição qui-quadrado, . Logo, se o valor de ΔD > , para um determinado nível de significância α, não se pode ignorar os efeitos das (p-q) covariáveis, devendo-se rejeitar Ho em favor de H1, ou seja, prover uma descrição melhor dos dados. Caso contrário, se ΔD ≤ deve-se escolher o modelo correspondente a Ho porque é o mais simples, ou mais parcimonioso.</p><p>Teste de Hipóteses</p><p>Baseados na teoria assintótica de MV, usualmente três estatísticas específicas para realizar testes sobre β's: Wald; Razão de Verossimilhanças; Escore.</p><p>Teste de Wald</p><p>Este teste depende apenas da estimação do modelo sem restrição, e a ideia básica é investigar se a estimativa sem restrição está perto de cumprir a restrição. Isto é, nós utilizamos , o vetor estimado sem restrição, para testar se h() está próximo de zero. Caso tenhamos h() = 0 a restrição estará sendo satisfeita pelos dados. A questão é, novamente, definir o que significa "próximo" de zero. Para fazermos qualquer consideração a este respeito precisamos primeiro saber quem é a variância de h(). É possível mostrar-se que:</p><p>(32)</p><p>onde o vetor J é dado por:</p><p>(33)</p><p>O teste de Wald (W) tem uma distribuição chi-quadrado com g graus de liberdade, onde g é o número de restrições testadas.</p><p>(34)</p><p>Teste da Razão da Verossimilhança (LR)</p><p>Este teste requer a estimação do modelo restrito e sem restrição. Vamos denominar o vetor de parâmetros restrito de , isto é, a hipótese a ser testada é h() = 0, e o vetor não restrito de . Logo, podemos calcular o valor da função de verossimilhança no ponto de máximo com e sem a restrição, vale dizer, L() e L() respectivamente. Se a restrição for verdadeira, o valor da função de verossimilhança avaliada em e devem estar "próximos", indicando que os dados estão dando suporte a restrição.</p><p>O teste LR é baseado no ln da razão entre as duas verossimilhanças, isto é, na diferença entre o ln L() e ln L(). Se H0 é verdadeiro, a estatística é da forma:</p><p>(35)</p><p>onde g é o número de restrições. O teste é, portanto, distribuído assintoticamente como uma chi-quadrado com g graus de liberdade. Se o valor da estatística for maior que o valor crítico ao nível de significância desejado nós rejeitamos H0.</p><p>Multiplicador de Lagrange ou Escore Eficiente (LM)</p><p>Este teste requer apenas a estimação do modelo com restrição. Se a restrição for válida, isto é H0 for verdadeira, nós podemos esperar que S(), o escore eficiente avaliado em , seja "próximo" de zero. Lembre-se que no ponto de máximo temos S(θ) = 0. Neste sentido, o valor do score eficiente avaliado em é que determina a aceitação ou não da restrição. A estatística é dada por:</p><p>(36)</p><p>Os três testes são assintoticamente equivalentes. É fácil ver que quando um dos testes aceita a restrição os demais também o farão.</p><p>image6.png</p><p>image7.png</p><p>image8.png</p><p>image9.png</p><p>image10.png</p><p>image11.png</p><p>image12.png</p><p>image13.png</p><p>image14.png</p><p>image15.png</p><p>image16.png</p><p>image17.png</p><p>image18.png</p><p>image19.png</p><p>image20.png</p><p>image21.png</p><p>image22.png</p><p>image23.png</p><p>image24.png</p><p>image25.png</p><p>image26.png</p><p>image27.png</p><p>image28.png</p><p>image29.png</p><p>image30.png</p><p>image31.png</p><p>image32.png</p><p>image33.png</p><p>image34.png</p><p>image35.png</p><p>image36.png</p><p>image37.png</p><p>image1.png</p><p>image2.png</p><p>image3.png</p><p>image4.png</p><p>image5.png</p>menores critérios de informação.
O critério de informação de Akaike, conhecido simplesmente como AIC, e o critério de informação bayesiano, chamado de BIC, não são testes de hipótese, eles são ferramentas para seleção de modelos. Os critérios de informação apresentam duas vantagens sobre outros métodos de seleção como o R² de McFadden: O AIC e o BIC se baseiam na log-verossimilhança como o outro método e, além disso, consideram e penalizam a complexidade do modelo, número de parâmetros, o que busca o alinhamento com o princípio da parcimônia, essencial na modelagem estatística. Além disso, os modelos que estão sendo comparados não necessitam ser aninhados, o que é a principal restrição na comparação de modelos via teste de hipótese. Nas equações subsequentes os critérios AIC e BIC são expressos respectivamente.
 (24) (25)
Onde: k = Número de restrições; n = Tamanho da amostra; e l = Função de verossimilhança.
Resíduos
Para a análise de resíduos num modelo linear generalizado geralmente se opta por utilizar alguma das três definições de resíduos generalizados: Pearson, Anscombe ou Deviance. Os três tipos são casos especiais da definição de resíduos dada por Cox e Snell (1968). Eles são uma função de y e μ, que tem por objetivo tornar a distribuição dos resíduos mais simétrica.
Resíduos de Pearson
O resíduo mais simples é o de Pearson, definido por:
(26)
A desvantagem do resíduo de Pearson é que sua distribuição é, geralmente, bastante assimétrica para modelos não-normais.
Resíduos de Anscombe
Anscombe (1953) apresenta uma definição geral de resíduo, através de uma transformação N(yi) da observação yi, escolhida visando tornar a sua distribuição o mais próxima possível da distribuição normal. Barndorff-Nielsen (1978) demonstra que, para os MLG, N(.) é dada por . Como é a aproximação de primeira ordem do desvio padrão de N(y), o resíduo de Anscombe, visando `a normalização e à estabilização da variância, é expresso por:
(27)
Nas equações a seguir são apresentadas as expressões dos resíduos de Anscombe para distribuições gama, normal inversa e Poisson, respectivamente.
Gama (28), Normal Inversa(29) e Poisson (30)
Análise de deviance
A análise de deviance ou ANODEV, consiste em uma tabela de diferenças de deviances para uma sequência de modelos encaixados. Nada mais é que uma generalização da análise de variância ou ANOVA, visando, como está, obter os efeitos da inclusão de cada covariável e além disto suas interações. Surge, porém, uma dificuldade, em geral os termos de um MLG são não octogonais, o que dificulta a interpretação da ANODEV.
Para comparar modelos encaixados considerar-se-á duas hipóteses: seja a hipótese nula Ho, representando um modelo mais simples, e a hipótese alternativa H1, representando um modelo mais complexo. Temos então:
 e 
onde q < p < N.
Pode-se testar Ho contra H1 usando a diferença de deviances do seguinte modo:
(31)
Com se ambos modelos descrevem adequadamente os dados.
Utilizando temos que , o que possibilita a comparação de ΔD com o valor crítico da distribuição qui-quadrado, . Logo, se o valor de ΔD > , para um determinado nível de significância α, não se pode ignorar os efeitos das (p-q) covariáveis, devendo-se rejeitar Ho em favor de H1, ou seja, prover uma descrição melhor dos dados. Caso contrário, se ΔD ≤ deve-se escolher o modelo correspondente a Ho porque é o mais simples, ou mais parcimonioso.
Teste de Hipóteses
Baseados na teoria assintótica de MV, usualmente três estatísticas específicas para realizar testes sobre β's: Wald; Razão de Verossimilhanças; Escore.
Teste de Wald
Este teste depende apenas da estimação do modelo sem restrição, e a ideia básica é investigar se a estimativa sem restrição está perto de cumprir a restrição. Isto é, nós utilizamos , o vetor estimado sem restrição, para testar se h() está próximo de zero. Caso tenhamos h() = 0 a restrição estará sendo satisfeita pelos dados. A questão é, novamente, definir o que significa "próximo" de zero. Para fazermos qualquer consideração a este respeito precisamos primeiro saber quem é a variância de h(). É possível mostrar-se que:
(32)
onde o vetor J é dado por:
(33)
O teste de Wald (W) tem uma distribuição chi-quadrado com g graus de liberdade, onde g é o número de restrições testadas.
(34)
Teste da Razão da Verossimilhança (LR)
Este teste requer a estimação do modelo restrito e sem restrição. Vamos denominar o vetor de parâmetros restrito de , isto é, a hipótese a ser testada é h() = 0, e o vetor não restrito de . Logo, podemos calcular o valor da função de verossimilhança no ponto de máximo com e sem a restrição, vale dizer, L() e L() respectivamente. Se a restrição for verdadeira, o valor da função de verossimilhança avaliada em e devem estar "próximos", indicando que os dados estão dando suporte a restrição. 
O teste LR é baseado no ln da razão entre as duas verossimilhanças, isto é, na diferença entre o ln L() e ln L(). Se H0 é verdadeiro, a estatística é da forma:
(35)
onde g é o número de restrições. O teste é, portanto, distribuído assintoticamente como uma chi-quadrado com g graus de liberdade. Se o valor da estatística for maior que o valor crítico ao nível de significância desejado nós rejeitamos H0.
Multiplicador de Lagrange ou Escore Eficiente (LM)
Este teste requer apenas a estimação do modelo com restrição. Se a restrição for válida, isto é H0 for verdadeira, nós podemos esperar que S(), o escore eficiente avaliado em , seja "próximo" de zero. Lembre-se que no ponto de máximo temos S(θ) = 0. Neste sentido, o valor do score eficiente avaliado em é que determina a aceitação ou não da restrição. A estatística é dada por:
(36)
Os três testes são assintoticamente equivalentes. É fácil ver que quando um dos testes aceita a restrição os demais também o farão.
image6.png
image7.png
image8.png
image9.png
image10.png
image11.png
image12.png
image13.png
image14.png
image15.png
image16.png
image17.png
image18.png
image19.png
image20.png
image21.png
image22.png
image23.png
image24.png
image25.png
image26.png
image27.png
image28.png
image29.png
image30.png
image31.png
image32.png
image33.png
image34.png
image35.png
image36.png
image37.png
image1.png
image2.png
image3.png
image4.png
image5.png

Mais conteúdos dessa disciplina