Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 FORMULÁRIO ANOVA SQE x X x n x Nji n j k ij i n jj k ij i n j k j j j 2 11 1 2 1 11 2 SQR x x x x nij j iji n ij i n jj k j k i n j k j j j 2 2 1 1 2 1111 SQT x X x x Niji n j k ij i n ij i n j k j kj j j 2 11 2 1 11 2 1 STQ = SQE + SQR Quadro da ANOVA Fonte de Variação Soma de quadrados GL Quadrado médio = s2 Estatística F Entre amostras SQE k - 1 1k SQE QME 2 es QMR QME F 2 r 2 e s s Residual SQR N - k kN SQR QMR 2 rs Total SQT N - 1 Tabela: GL1 = k – 1 e GL2 = N – k Método de Scheffé: x xi j , onde QMR n n k F i j k N k 1 1 1 1, ( ) 2 CORRELAÇÃO Coeficiente de correlação linear de Pearson: 2 n 1i i n 1i 2 i n 1i 2 n 1i i 2 i n 1i n 1i n 1i iiii YYnXXn YXYXn r Avaliação: Interpretação: se 0 < | r | < 0,3 existe fraca correlação linear; se 0,30 | r | < 0,60 existe moderada correlação linear; se 0,60 | r | < 0,90 existe forte correlação linear; 0,90 | r | < 1,00 existe correlação linear muito forte. Testes para o coeficiente de correlação: (1) Para a hipótese H0: = 0, a estatística do teste é dada por t = r n−2 1−r2 com graus de liberdade GL = n - 2 (2) Para a hipótese H0: = 0 0, utiliza-se a estatística r1 r1 ln 2 1 Z onde 0 0 Z 1 1 ln 2 1 e 3n 1 Z . Como Z tem distribuição aproximadamente normal, então a variável padronizada z será dada por Z Z Z z REGRESSÃO SIMPLES Modelo linear estimado: Y = a + bX Método dos mínimos quadrados: Y na b Xi i X Y a X b Xi i i i 2 Durbin-Watson: n 1i 2 i 1n 1i 2 i1i d )dd( d 3 d [0, dL [ [dL, dU[ [dU, 4-dU[ [4-dU, 4-dL[ [4 – dL, 4[ Decisão Rejeitar H0 Dependência Nada se pode concluir Não rejeitar H0 Independência Nada se pode concluir Rejeitar H0 Dependência ANOVA para a regressão linear simples: Fonte de Variação Soma de quadrados GL Quadrado médio Estatística F Devido à regressão b.Sxy 1 b.Sxy 2 R xy s S.b F Residual Syy – b.Sxy n - 2 2 S.bS n s xyyy2 R Total Syy n - 1 onde n n 1i i n 1i in 1i ii n 1i iixy YX YXYYXXS e n 2 n 1i in 1i 2 i n 1i 2 iyy Y YYYS Se F > F com 1 = 1 e 2 = n - 2, rejeita-se a hipótese H0. Coeficiente de determinação: Syy S.b R xy 2 Variância amostral ou residual: 22 2 2 n )YˆY( n S.bS s xyyy R Teste para o parâmetro β: bs b t 0 , onde 2 2 x s s Rb , com 22 )XX(x Teste para o parâmetro α: as a t , onde: 2 22 x.n s.X s Ra . Intervalos de confiança: Para : xx 2 R2/ xx 2 R2/ S X n 1 .sta S X n 1 sta 4 onde n X X)XX(S 2 n 1i in 1i 2 i 2 n 1i ixx Para : xx R 2/ xx R 2/ S s tb S s tb Para E(Yh): xx 2 i R2/hh xx 2 i R2/h S XX n 1 stYˆ)Y(E S XX n 1 stYˆ Para Yh : xx 2 i R2/hh xx 2 i R2/h S XX n 1 1stYˆY S XX n 1 1.stYˆ Regressão polinomial: Y = a + bX + cX2 Y na b X b Xi i i 1 2 2 X Y a X b X b Xi i i i i 1 2 2 3 X Y a X b X b Xi i i i i 2 2 1 3 2 4 REGRESSÃO LINEAR MÚLTIPLA Modelo estimado: Y = Xb Estimador de mínimos quadrados: b = (X ' X)-1X ' Y Coeficiente de correlação linear múltipla: y'y y'X'b R , onde y = Y - Y . 5 Teste de existência de regressão: Fonte deVariação Soma de quadrados GL Quadrado médio Estatística F Devido à regressão b Si iy i k 1 k s b S kreg i iy i k 2 1 2 r 2 reg s s F Residual k 1i iyiyy SbS n-k-1 1kn SbS s k 1i iyiyy 2 r Total Syy n-1 Se F > Fk,n-k-1(), a regressão linear é significativa no nível de significância adotado, caso contrário, ela não é significativa nesse nível.
Compartilhar