Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 Breve revisão a respeito de matrizes: Muitas técnicas estatísticas podem ser facilmente resolvidas mediante uso de matrizes. Conceitualmente, matriz pode ser definida como uma espécie de arranjo, tabela, ou mesmo planilha, podendo ser retangular ou mesmo quadrada, disposta em linhas, na horizontal, e colunas, na vertical. Os elementos que compõem a matriz apresentam uma ordenação que corresponde ao endereçamento da linha e da coluna, respectivamente, onde estão localizados. Veja o exemplo abaixo: ܣ௫ = อܽ ܽ ܽܽ ܽ ܽ ܽ ܽ ܽ อ ⇒ ܣଷ௫ଷ = อܽଵଵ ܽଵଶ ܽଵଷܽଶଵ ܽଶଶ ܽଶଷ ܽଷଵ ܽଷଶ ܽଷଷ อ 1 - Alguns tipos de matrizes: Existem alguns tipos de matrizes, com características peculiares, considerados mais comuns, que serão apresentados abaixo. 1.1 –Matriz quadrada: É uma matriz que apresenta o mesmo número de linhas e colunas. A = ቚ1 43 8ቚ 1.2 – Matriz diagonal: Consiste numa matriz quadrada em que apenas os valores localizados na diagonal principal diferem de zero. A = อ 1 0 00 4 00 0 7อ 1.3 – Matriz identidade: Consiste numa matriz quadrada em que apenas os valores localizados na diagonal principal são iguais a um. Os demais são iguais a zero. A = อ 1 0 00 1 00 0 1อ 1.4 – Matriz simétrica: Há duas definições para este tipo de matriz. A primeira diz que ela é igual à sua transposta. A segunda é a seguinte: Seja uma matriz quadrada A = (aij), tal que aij – aji, para qualquer par (i, j). A = อ 1 2 32 7 43 4 1อ 1.5 – Matriz singular: É uma matriz cujo determinante é nulo. Matrizes em que há linhas ou colunas iguais ou múltiplas umas das outras são singulares. Não é possível inverter estas matrizes mediante uso de procedimentos comuns. Será necessário lançar mão de conhecimentos mais aprofundados de álgebra, tais como matrizes inversas generalizadas, que não é objetivo deste livro. A = อ 1 3 22 1 44 7 8อ 1.6 – Matriz triangular: Matriz quadrada cujos elementos - ou abaixo, ou acima - da diagonal principal, são todos nulos. A = อ 1 0 02 1 04 7 8อ B = อ1 3 20 1 40 0 8อ 1.7 – Matriz transposta: É uma matriz onde as linhas são trocadas pelas colunas: 2 A = อ 1 3 22 1 44 7 8อ A’ = AT = อ1 2 43 1 72 4 8อ 1.8 – Vetor linha e Vetor coluna: Se uma matriz Amn apresenta uma das dimensões, ou linha, ou coluna, igual a 1 (m = 1 ou n = 1), então ela será denominada vetor linha ou vetor coluna, respectivamente. A13 |7 4 7| (vetor linha) A31 = อ147อ (vetor coluna) 2 - Algumas operações com matrizes: 2.1 – Soma: Duas matrizes de mesma dimensão podem ser somadas efetuando-se a soma de cada elemento de posições equivalentes. A = อ 1 0 02 1 04 7 8อ B = อ1 3 20 1 40 0 8อ A + B =อ1 + 1 0 + 3 0 + 22 + 0 1 + 1 0 + 44 + 0 7 + 0 8 + 8อ = อ2 3 22 2 44 7 16อ 2.2 - Soma Direta: Esta operação é usada em matrizes de variância e covariância, úteis no estudo de estatística. Dadas duas matrizes, A(mn) e B(xy), sua soma direta é dada por A B = C(m+x;n+y). A B =ቚܣ 00 ܤቚ⇒A=|7 7 7| B =ቚ1 44 7ቚ⇒ A B =อ7 7 7 0 00 0 0 1 40 0 0 4 7อ 2.3 – Subtração: Duas matrizes de mesma dimensão podem ser subtraídas efetuando-se a subtração de cada elemento de posições equivalentes. A = อ 1 0 02 1 04 7 8อ B = อ1 3 20 1 40 0 8อ A - B =อ1 − 1 0 − 3 0 − 22 − 0 1 − 1 0 − 44 − 0 7 − 0 8 − 8อ = อ0 −3 −22 0 −44 7 0 อ 2.4 – Produto de um escalar por uma matriz: Este produto é obtido multiplicando-se cada elemento da matriz pelo escalar. K * A(mn) = (kamn) ⇒k = 7 A=ቚ 1 73 8ቚ k * A = ቚ7 ∗ 1 7 ∗ 77 ∗ 3 7 ∗ 8ቚ = ቚ 7 4921 56ቚ 2.5 – Produto entre duas matrizes: A condição de existência da multiplicação entre duas matrizes é que o número de colunas da primeira seja igual ao número de linhas da segunda. O procedimento ocorre mediante a adição dos produtos entre cada elemento da linha da primeira matriz pelo respectivo elemento de cada coluna da segunda matriz. Isto sempre resultará numa nova matriz, cujo número de linhas igual ao da primeira matriz, e o número de colunas igual ao da segunda matriz. A(2x3) X B(3x2) = C(2x3). Onde: A = ቚ 3 26 5ቚ (1ª matriz) e B = ቚ2 7 53 1 3ቚ (2ª matriz). C = ฬ (ܮ1ܣ ∗ ܥ1ܤ) (ܮ1ܣ ∗ ܥ2ܤ) (ܮ1ܣ ∗ ܥ3ܤ)(ܮ2ܣ ∗ ܥ1ܤ) (ܮ2ܣ ∗ ܥ2ܤ) (ܮ2ܣ ∗ ܥ3ܤ)ฬ C = ฬ (3 ∗ 2 + 2 ∗ 3) (3 ∗ 7 + 2 ∗ 1) (3 ∗ 5 + 2 ∗ 3)(6 ∗ 2 + 5 ∗ 3) (6 ∗ 7 + 5 ∗ 1) (6 ∗ 5 + 5 ∗ 3)ฬ C = ቚ12 23 2127 47 45ቚ. 2.6 - Produto de Kronecker ou produto direto: Sejam duas matrizes A(mn) e B(xy). O produto direto entre elas gera uma matriz C(mx;ny). A = ቚ2 31 2ቚ(2x2) e B = |3 4|(1x2). Então, A B = ቚ2 ∗ 3 2 ∗ 4 3 ∗ 3 3 ∗ 41 ∗ 3 1 ∗ 4 2 ∗ 3 2 ∗ 4ቚ A B = ቚ6 8 9 123 4 6 8 ቚ(2x4). 2.7 - Produto de Hadamard: Esta operação matricial não é tão conhecida quanto as demais, no entanto é encontrada em algumas aplicações 3 estatísticas. Consiste no produto entre os elementos da mesma posição de duas matrizes de mesma dimensão. A = ቚ1 40 2ቚ e B = ቚ3 16 5ቚ Então, A B = ቚ1 ∗ 3 4 ∗ 10 ∗ 6 2 ∗ 5ቚ A B = ቚ3 40 10ቚ. 2.8 – Menor Determinante: Consiste na matriz, de ordem inferior, obtida mediante eliminação da linha e da coluna onde um determinado elemento se encontra, numa uma matriz pré-existente. A(3x3) = อ ܽଵଵ ܽଵଶ ܽଵଷ ܽଶଵ ܽଶଶ ܽଶଷ ܽଷଵ ܽଷଶ ܽଷଷ อ ⇒ Mij = M11 = ቚ ܽଶଶ ܽଶଷ ܽଷଶ ܽଷଷ ቚ A = อ 3 4 15 7 98 7 0อ ⇒ Mij = M11 = ቚ7 97 0ቚ. 2.9 – Matriz de cofatores: Para se saber no que consiste uma matriz de cofatores, primeiro é necessário saber o que são os cofatores. Um cofator de um elemento qualquer de uma matriz é o valor obtido mediante aplicação da seguinte expressão: COFij = (-1)i+j * det [Mij]. A = ቚ5 32 1ቚ COF11 = (-1)1+1 * det [M11] COF11 = (-1)2 * [1] = 1 COF12 = (-1)1+2 * det [M12] COF12 = (-1)3 * [2] = -2 COF21 = (-1)2+1 * det [M21] COF21 = (-1)3 * [3] = -3 COF22 = (-1)2+2 * det [M22] COF22 = (-1)4 * [5] = 5 AC = ቚ 1 −2 −3 5 ቚ. 2.10 – Matriz adjunta: Consiste na matriz transposta da matriz de cofatores. AC = ቚ 1 −2 −3 5 ቚ ⇒ (ܣ)T =ቚ 1 −3−2 5 ቚ. 2.11 – Matriz inversa: Pode-se obter a inversa de uma matriz mediante utilização da seguinte expressão: A-1 = ଵ ୢୣ୲ * (ܣ)T. Na prática, consiste no produto do inverso do determinante da matriz que se deseja inverter, pela matriz adjunta dela. A = ቚ5 32 1ቚ ; det [A] = -1; (ܣ)T =ቚ 1 −3−2 5 ቚ. Então, A-1 = ଵ(ିଵ) * ቚ 1 −3−2 5 ቚ ⇒ A-1 = (-1) * ቚ 1 −3−2 5 ቚ ⇒ A-1 = ቚ−1 32 −5ቚ. 3 - Como calcular o determinante de uma matriz de qualquer ordem: Seja a matriz (A) 12 35 2221 1211 A aa aa A Aplicando-se o algoritmo descrito abaixo, obtém-se o determinante de uma matriz quadrada de qualquer ordem: O cálculo poderá ser feito mediante escolha de uma linha ou uma coluna qualquer, pois sempre será obtido o mesmo resultado. 15*)1(*12*)1(*3det:2/ 13*)1(*21*)1(*5det:1/ 15*)1(*13*)1(*2det:2/ 12*)1(*31*)1(*5det:1/ det 1 2221 1211 2212 2111 1 Acolunap Acolunap Alinhap Alinhap AaAAMA n k kjkj C ij ji ij 4 Significa dizer que deve ser feita para uma linha ou coluna qualquer, pois se obterá o mesmo resultado. Dica: Principalmente em matrizes de ordem igual ou maior que três, deve-se escolher a linha ou a coluna com o maior número de zeros, pois facilita bastante o cálculo. Algumas operações com matrizes: Resolução manual e no Excel: Determinante de uma matriz de ordem qualquer: Seja a matriz (A) 12 35 2221 1211 A aa aa A Aplicando-se o algoritmo descrito abaixo, obtém-se o determinante de uma matriz quadrada de qualquer ordem: 15*)1(*12*)1(*3det:2/ 13*)1(*21*)1(*5det:1/ 15*)1(*13*)1(*2det:2/ 12*)1(*31*)1(*5det:1/ det 1 2221 1211 2212 2111 1 Acolunap AcolunapAlinhap Alinhap AaAAMA n k kjkj C ij ji ij Significa dizer que deve ser feita para uma linha ou coluna qualquer, pois se obterá o mesmo resultado. Dica: Escolher linha ou coluna com maior número de zeros. Cálculo de matriz inversa: Para inverter uma matriz, pode-se utilizar o algoritmo a seguir, fazendo-se o mesmo processo para cada elemento da matriz e não apenas para cada linha ou coluna como no caso do determinante, a saber: 52 31 52 31 *1 53 21 *)1( 5*)1(3*)1( 2*)1(1*)1( * )1( 1 12 35 * det 1 11 1 2222 2111 1 1 AA AAA A A A T TC Dada uma matriz A: 1 -4 2 -2 A 4 7 -3 5 3 0 8 0 -5 -1 6 9 Cujo determinante é: |A| = det A. det A = 2042 5 Calculado da seguinte forma: Processo de redução e desenvolvimento utilizando menores e complementos algébricos. O menor (ou menor complementar) Mij de uma matriz Anxn é o determinante da submatriz (n - 1) x (n - 1) que resta depois de terem sido retiradas a i-ésima linha e a j-ésima coluna de A. (buscar linha ou coluna com maior número de zeros). No exemplo, a linha 3. det A = 3*A31 + 0*A32 + 8*A33 + 0* A34 = 3*(-1)3+1M31 + 8*(-1)3+3*M33 2042)250)(1(8)14)(1(3det 250)31)(1)(2()61)(1)(4()68)(1(1 15 74 )1)(2( 91 54 )1)(4( 91 57 )1(1 915 574 241 14)39)(1)(2()68)(1(2)57)(1(4 61 37 )1)(2( 91 57 )1(2 96 53 )1(4 961 537 224 432 33 432 31 AA M M A matriz de cofatores é: 544 -659 -204 365 AC 304 -98 -114 234 14 197 250 -137 -48 -92 18 178 Os cofatores são os mesmos menores - ou menores complementares - obtidos quando se calculou o determinante, com a diferença de que - para obtenção da matriz de cofatores - deve ser feito para todas as posições. Como exemplo, pode-se observar os cofatores das posições L3C1 e L3C3, respectivamente 14 e 250, obtidos no cálculo do determinante, logo acima. Assim, a matriz de cofatores, transposta, é: 544 304 14 -48 (AC)T -659 -98 197 -92 -204 -114 250 18 365 234 -137 178 A matriz inversa é: 0,266405 0,148874 0,006856 -0,02351 A-1 -0,32272 -0,04799 0,096474 -0,04505 -0,0999 -0,05583 0,122429 0,008815 0,178746 0,114594 -0,06709 0,087169 6 Calculada pelo algoritmo: TCTC AAA A A * 2042 11 11 : Como fazer algumas operações, envolvendo matrizes, no Excel: Matriz Inversa: Como no aplicativo não está muito claro, basta seguir os quatro passos seguintes, que ilustram um exemplo: 1) Coloque os valores da matriz: Por exemplo: 797514 282716 16132 no espaço (intervalo) A2 a C4; 2) Selecionar (e marcar) um espaço igual, por exemplo, A6 a C8. 3) Ir ao espaço de fórmulas e digitar a tecla igual < = > e procurar a função Matriz.Inverso (dentro das funções matemáticas e trigonométricas) e selecionar, ou digitar, o espaço ocupado pela matriz que se deseja inverter: No nosso exemplo, A2 a C4 e teclar < Enter >. Neste momento só aparecerá o primeiro valor da matriz inversa. 4) Tecle < F2 > e, em seguida, tecle < Ctrl > <Shift> < Enter >, estas três últimas simultaneamente e a matriz inversa aparecerá no espaço selecionado: no nosso caso, A6 a C8. A matriz resultante (inversa) será a seguinte: 08183,0017003,0436769,0 10627,003507,046334,0 03613,0091923,0017535,0 Se desejar provar que a matriz resultante é mesmo a inversa, faça a mesma coisa com a nova matriz, selecionando ouro espaço, por exemplo: A11 a C13 e, no final, aparecerá a mesma matriz original, já que a inversa de uma inversa é a própria matriz original! 7 797514 282716 16132 Uma outra coisa que pode ser feita é modificar os valores na matriz original e, observar que na matriz inversa, os valores são automaticamente recalculados e substituídos, sem ter mais trabalho para inverter. Assim, podem-se inverter quantas matrizes daquele tamanho a pessoa quiser. Muito prático. A função [TRANSPOR], do Excel, que retorna a matriz transposta de uma matriz original, funciona de forma semelhante à função [Matriz.Inverso], onde tem que ser marcado o intervalo referente à transposta da matriz original que se quer transpor. Lembre-se que o número de linhas da transposta é igual ao número de colunas da original, assim como o número de colunas da transposta é igual ao número de linhas da matriz original. A função [MATRIZ.MULT] que retorna a multiplicação de duas matrizes também funciona conforme o mesmo princípio das duas funções supracitadas. Deve-se lembrar, porém, que uma matriz resultado da multiplicação de duas outras tem o número de linhas da primeira e o número de colunas da segunda. Ex: Uma matriz (7x25) multiplicada por uma matriz (25x7) resultará numa matriz quadrada de tamanho (7x7). Existe, ainda, a função [MATRIZ.DETERM] que retorna o determinante de uma matriz. Esta é mais simples, pois basta marcar a matriz da qual se deseja obter o determinante e o resultado sairá numa só célula. Para fazer o gráfico, basta marcar as colunas com os valores de X e os totais dos tratamentos (coluna dos valores de Y), ir ao assistente de gráfico (ícone), (ou escolher o caminho: (Inserir ↳ Gráfico), escolher a modalidade (tipo): Dispersão (XY) e em seguida, o subtipo: (Dispersão. Compara pares de valores), que é o primeiro em exibição. (Avançar e escolher as opções que são apresentadas. Após concluir o gráfico, ainda pode-se clicar em cima dos pontos, solicitar linha de tendência e, também, as seguintes opções: adicionar a equação de segundo grau, por exemplo e o valor do R2. Isto é muito fácil e prático, só depende da curiosidade de cada dupla de estudantes. 8 Estas funções, existentes e disponíveis no Excel, são ferramentas bastantes e suficientes para auxiliar o estudante a desenvolver cálculos necessários para resolução do terceiro crédito. Análise de Correlação Linear Simples Geralmente interessa estudar a maneira como duas variáveis estão associadas e medir esse grau de associação. Como exemplos podem-se citar: Será que plantas mais altas possuem diâmetro maior? Será que pessoas mais altas são mais pesadas? Ou ainda, será que essas duas variáveis crescem no mesmo sentido? Será que o teor de cinzas do mel está relacionado com a condutividade elétrica do mesmo? Será que o avanço na idade das pessoas está relacionado ao aumento da pressão sistólica? Será que as variáveis: Perímetro encefálico e altura, em recém nascidos, estão relacionadas? Quanto maior a quantidade de memória RAM, menor o tempo de processamento? Quanto maior a resistência mecânica, menor a absorção de água, numa massa cerâmica? Quanto maior a temperatura do Forné maior será a resistência mecânica da cerâmica? Quanto maior a quantidade de aditivo maior será a octanagem da gasolina? Quanto maior a renda maior será o consumo? Quanto maior a memória RAM do computador menor será o tempo de resposta do sistema? Quanto maior a área construída do imóvel maior será o preço do imóvel? Para responder estas questões e outras de mesma natureza, adotam-se a covariância e o coeficiente de correlação de Pearson. Covariância: Se X e Y são duas variáveis aleatórias com médias μX e μY. Define-se como covariância entre X e Y como a variabilidade média das variáveis X e Y analisadas simultaneamente. contínuas. variáveispara ,YX,XYf e discretas variáveispara:onde ,,ˆ , dXdYXYE YXPYXXYEYEXEXYEYXEYXVOC ji jijiYX [f(X,Y) é uma função densidade de probabilidade conjunta de X,Y]. O estimador da covariância, para uma amostra de n pares de observações, é dado por: n i n i i n i i n i iiii YXn YX n YYXX n YXVOC 1 111 1 1 1 1 1,ˆ 9 Interpretação: A covariância fornece uma idéia do sinal da quantidade do relacionamento entre duas variáveis. Como ela pode assumir valores entre -∞ e +∞, dificulta interpretar se o grau de associação é representado por um alto ou baixo relacionamento. Criou-se, então, o coeficiente de correlação de Pearson. O coeficiente de correlação de Pearson pode ser definido como uma razão ente a covariância e as variâncias de duas variáveis aleatórias X e Y. Em álgebra linear, pode-se definir este coeficiente como uma razão entre um produto vetorial e a norma de dois vetores. ߩ = 〈ܺ; ܻ〉 ‖ܺ‖ ∗ ‖ܻ‖ Estatisticamente, pode-se definir o parâmetro como segue: .11;, 22 YX YXCOV O estimador deste parâmetro É: .11;, ˆ 2 2 2 2 22 r n Y Y n X X n YX XY SS YXVOCr YX Matematicamente, esta estimativa coincide com a função cosseno (X). Pode-se demonstrar graficamente este coeficiente de correlação, conforme veremos a seguir: 1 – Correlação positiva, quando r tende a ser igual a +1: 0 2 4 6 8 10 12 14 16 0 5 10 15 20 25 30 10 2 – Correlação negativa, quando r tende a ser igual a -1: 3 – Ausência de correlação: Quanto r tende a ser igual a zero. Não se observa uma tendência definida na nuvem de dados: 4 – Correlação que não tende a ser linear, apresentando outras formas: 0 2 4 6 8 10 12 14 16 0 5 10 15 20 25 30 0 2 4 6 8 10 12 14 16 0 5 10 15 20 0 200 400 600 800 1000 1200 1400 1600 0 10 20 30 11 Teste de correlacionamento (Teste de hipótese para ρ). .T se H se-Rejeita : 2* 1 : 0: 0: OBS0 2 0 TAB A TComparação n r rTaEstatístic H H Hipóteses A esta explicação segue um exercício, feito juntamente com a análise de regressão linear simples. Num ensaio de simulação de estudos de impacto ambiental, foi tomada uma amostra de tamanho n = 11, na qual se aplicou CO2 em diferentes concentrações em folhas de trigo (X) à temperatura de 35°C; a quantidade de CO2 absorvida em cm3/dm2/hora foi avaliada. Os resultados estão apresentados a seguir: 0 2 4 6 8 10 12 14 16 0,0000 0,0500 0,1000 0,1500 -600000 -500000 -400000 -300000 -200000 -100000 0 100000 200000 300000 -60 -40 -20 0 20 40 60 12 n x Y x2 y2 xy 1 75 0,00 5625 0 0 2 100 0,65 10000 0,4225 65 3 100 0,50 10000 0,25 50 4 120 1,00 14400 1 120 5 130 0,95 16900 0,9025 123,5 6 130 1,30 16900 1,69 169 7 160 1,80 25600 3,24 288 8 190 2,80 36100 7,84 532 9 200 2,50 40000 6,25 500 10 240 4,30 57600 18,49 1032 11 250 4,50 62500 20,25 1125 Σ 1695 20,3 295625 60,335 4004,5 .9875,0 11 3,20335,60 11 1695295625 11 3,20*16955,4004 22 r 9875,0 872,22*34441 45,876 872,22 34441 45,876 r S S S YY XX XY Para testar a correlação pode-se aplicar o teste “t”, a seguir: Teste de correlacionamento: Hipóteses a serem testadas: 0: 0:0 rH rH A Para testar a hipótese de ausência de correlação linear entre as variáveis: gasto com propaganda e vendas, ao nível de 5% de significância, faz-se: ** 2 8119,18211* 9752,01 9875,02* 1 ttn r rt . Ver valor de “t” tabelado ao nível de 5% e 1%, com (n - 2 = 9) graus de liberdade, e comparar com o valor calculado de “t”. Como o valor calculado de “t” foi maior que os valores tabelados, rejeita-se a hipótese de nulidade. Pode- se testar comparando diretamente com o valor de ‘r’, também, mediante utilização da tabela de ‘r’ 13 73,0 60,0 2498,3 2621,2 9 %1 9 %5 9 %1 9 %5 r r t t O coeficiente de determinação (r2): Consiste numa medida que nos diz quanto a variação de uma determinada variável ocorre em função da variação da outra. Aplica-se principalmente quando uma variável é considerada independente e a outra, dependente, como numa relação Y = f(x). Aplicação no caso em particular: r2 = (0,9875)2 = 0,9752 97,52% da variação da quantidade de CO2 absorvida (y) é devida à variação nas concentrações de CO2 em folhas de trigo (x). O diagrama de dispersão, que é o gráfico que melhor ilustra a dispersão dos dados, encontra-se a seguir. Outra forma de testar o valor de “r” coeficiente de correlação, é comparar com os valores tabelados a partir da tabela de “r”, com (n - 2) graus de liberdade. Geralmente os resultados coincidem com os do teste “t”. Neste caso em particular a correlação foi significativa ao nível de 1% de significância. 0 1 2 3 4 5 0 100 200 300 Concentração de CO2 C O 2 a bs or vi do 14 Resumo prático para análise de correlação linear simples – Forma matricial de resolução: O cálculo do coeficiente de Correlação linear de Pearson pode ser feito, facilmente, mediante procedimento matricial, a saber: Primeiro obtém-se as matrizes básicas, envolvendo as variáveis X e Y, ou X1 e X2, dependendo da natureza dos dados. 1 75 1 0 1 100 1 0,65 1 100 1 0,5 1 120 1 1 1 130 1 0,95 1X = 1 130 1Y = 1 1,3 1 160 1 1,8 1 190 1 2,8 1 200 1 2,5 1 240 1 4,3 1 250 1 4,5 Em seguida, obtêm-se as matrizes transpostas de X e Y, respectivamente: 1 1 1 1 1 1 1 1 1 1 1 1XT = 75 100 100 120 130 130 160 190 200 240 250 1 1 1 1 1 1 1 1 1 1 1 1YT = 0 0,65 0,5 1 0,95 1,3 1,8 2,8 2,5 4,3 4,5 O próximo passo é a obtenção das matrizes quadradas, resultantes da multiplicação das matrizes transpostas pelas matrizes básicas 1X e 1Y. 11 1695 1XT*1X = 1695 295625 det = 378850 11 20,3 1YT*1Y = 20,3 60,335 det = 251,595 11 20,3 1XT*1Y = 1695 4004,5 det = 9641 15 As duas primeiras matrizes quadradas correspondem à variabilidade de X e de Y. A terceira matriz obtida [1XT*1Y] corresponde à variação coincidente, isto é, a covariância. Como o denominador da estatística do coeficiente de correlação linear de Pearson corresponde à multiplicação da variabilidade das duas variáveis, X e Y, pode-se obter tal valor, matricialmente, mediante produto das matrizes quadradas (1XT*1X)*(1YT*1Y). 34529,5 102491,1 (1XT*1X)*(1YT*1Y) = 6019833 17870943 Para evitar uma divisão, obtendo-se o coeficiente por meio de um produto, pode-se inverter esta matriz, obtendo-se, então: [(1XT*1X)*(1YT*1Y)]-1. 0,18749 -0,00108 [(1XT*1X)*(1YT*1Y)]-1 = -0,06316 0,000362 det = 1,04913E-08 Em seguida extrai-se a raiz quadrada do valor do determinante da inversa anteriormente calculada. Assim obtém-se o valor do Coeficiente de Correlação, multiplicando-se o determinante da matriz (1XT*1Y) pela raiz quadrada do determinanteda matriz [(1XT*1X)*(1YT*1Y)]-1, a saber: r = det(1XT*1Y)*SQRT(det{[(1XT*1X)*(1YT*1Y)]-1}) = 0,987501 Observação: SQRT – Significa forma abreviada da expressão SQuare RooT - isto é, raiz quadrada de um determinado valor. 16 Outra alternativa para se obter o coeficiente de correlação é mediante padronização dos dados, a saber: Obtenção do Coeficiente de Correlação de Pearson, mediante padronização dos dados: Xp Yp -1,3477 -1,2202 -0,9217 -0,7905 -0,9217 -0,8896 -0,5809 -0,5590 -0,4105 -0,5921 -0,4105 -0,3607 0,1007 -0,0301 0,6119 0,6312 0,7823 0,4328 1,4639 1,6230 1,6343 1,7552 Em seguida, obtém-se a matriz transposta dos valores de X padronizado, a saber: XT = |−1,3477 … 1,6343| E, também, a matriz Y = อ −1,2202…1,7552 อ Em seguida, pode-se obter o coeficiente de correlação facilmente, mediante aplicação da seguinte operação matricial: r = (XT*Y)/(n-1) Onde, r = 0,9875007. 17 Análise de Regressão Linear Simples Quando há interesse por parte do pesquisador de determinar a relação existente entre uma característica qualquer de interesse experimental, dependente, e uma outra característica independente, tomadas juntas (pareadas), sendo que o pesquisador, geralmente escolhe os valores da variável independente, deve-se utilizar a técnica da análise de regressão. Para se conseguir um melhor ajuste entre as características, pode-se lançar mão da teoria de mínimos quadrados que tem como principais funções estimação dos parâmetros das equações de ajustamento e variáveis e obtenção dos coeficientes de explicação ou determinação dos fenômenos. Como a curva de ajustamento de um conjunto de pontos é a curva média de menor erro-padrão, suas principais características são: apresentar soma das diferenças verticais dos pontos em relação à curva igual a zero e mínimo erro-padrão dos dados em relação aos pontos da curva. Conforme a ilustração pode-se tomar como princípio que os pontos preditos (reais) do conjunto de dados (Yi) e os valores calculados (estimados) da curva Yˆ podem-se resumir as propriedades matematicamente, a saber: mínimo ˆ)2 0ˆ)1 2 YY YY i i A segunda propriedade, ao garantir que o erro-padrão é mínimo, indica que as derivadas parciais da função representativa da curva, em relação a cada uma de suas variáveis, são nulas. Simbolicamente, isso é indicado por: 0 j S Desta forma, levando-se em consideração um polinômio de primeiro grau, em que a equação geral da reta média a certo conjunto, pode-se afirmar que: 21010ˆ XYSXY i 18 Desenvolvendo o quadrado anterior e fazendo-se (Yi = y), simplificando a notação, tem-se: 22 110 2 010 2 2 1010 2 222 )()(2 XXXYYYS XXYYS Se Y é a melhor reta de ajustamento, então S é mínimo. Para que isto ocorra, suas derivadas parciais, em relação a seus coeficientes β0 e β1 devem ser nulas, a saber: 0222 0222 2 10 1 10 0 XXXYS XYS Simplificando as equações acima, obtém-se o seguinte sistema: 0 0 02 02 2 10 10 2 10 10 XXXY XY XXXY XY Distribuindo os somatórios pelas parcelas, tem-se: 0 0 2 10 10 XXXY XY Resolvendo em relação à variável Y, obtém-se o seguinte sistema de equações normais da reta: 2 10 10 XXXY XnY Onde: β0 é o coeficiente linear e β1 o coeficiente angular da reta. Como o resultado das operações matemáticas foi um sistema de equações lineares, deve-se observar que necessitaremos de revisar alguns conceitos importantes sobre matrizes, pois a forma matricial é simples e prática na resolução de sistema de equações. Para obtenção dos coeficientes β0, que é o coeficiente linear e β1, o coeficiente angular da reta, procede-se da Seguinte forma: Transformar o sistema de equações da forma algébrica para a matricial, a saber: XY Y YX XX Xn A XXXY XnY 1 0 22 10 10 Como cada matriz recebeu uma denominação, tem-se a seguinte propriedade: Ao multiplicar ambos os membros da equação A*X=Y pela matriz inversa de A, obtém-se: A-1*A*X = A-1*Y. Como a inversa de uma matriz multiplicada por ela nos dá uma matriz identidade, isto é, uma matriz com a diagonal principal composta de números (1) e o restante dos elementos são 19 zeros (0), o determinante desta matriz identidade é igual a (1). Consequentemente, a equação fica: X = A-1*Y. assim, obtêm-se os valores dos coeficientes β0 e β1 que se deseja, determinando, consequentemente, a equação que representa a relação entre as características dependente e independente, que modela o fenômeno. Uma outra forma de resolver um sistema, alternativa à anterior, é pela regra de Cramer, onde se obtém os coeficientes a partir de matrizes substituídas, a saber: Para substituição de β0, divide-se a matriz substituída de A, no primeiro vetor coluna, pela matriz A. A substituição se dá substituindo-se a primeira coluna pela matriz Y. XY n XY XXn XYXXY XX Xn XXY XY 1 1 22 2 2 2 0 O mesmo processo é feito com a segunda coluna, para obtenção de β1, completando o processo. 22 2 1 XXn YXXYn XX Xn XYX Yn Como não há divisão de matrizes, uma alternativa para determinar os betas mediante o método da matriz substituída é o seguinte: Ao definir as matrizes: B = Matriz base (que fica no denominador); S1 = Matriz cuja primeira coluna é substituída e S2 = matriz cuja 2ª coluna é substituída. Como não existe divisão entre matrizes, então pode-se, de forma alternativa, determinar os respectivos valores dos betas ao calcular o determinante da matriz resultante do produto de cada matriz substituída pela inversa da matriz base. 12121 1 10 1 0 *det *det BS B S BS B S Deve-se começar a estudar o comportamento do modelo ajustado ao conjunto de dados observados, fazendo-se uma análise dos resíduos. Os 20 resíduos consistem nas distâncias entre os valores observados e os valores ajustados pelo modelo i ii YYYY 0ˆˆ . Análise de variância da regressão linear simples. Esta análise tem a finalidade de testar se o modelo de regressão é significativo, a partir das variâncias da regressão e dos desvios da regressão (resíduos), utilizando-se, para isto, o teste de F, resultado da divisão de duas variâncias (ou quadrados médios), cujas distribuições são de qui-quadrado. (X2 / X2 = F), conforme tabela abaixo: Causas de Variação Graus de liberdade Soma de quadrados Quadrado médio F Regressão p - 1 S.Q. Regres. S.Q. Regres/(p - 1) Q.M. Regres/Q.M.Res. Resíduo (n - 1) - (p - 1) = n - p S.Q. Res. S.Q.Res./(n- 2) Total n - 1 S.Q. Total Onde: p = número de coeficientes [dois para a regressão linear simples (β0 e β1)]; soma de quadrados totais = SY2 = n Y YTQS 2 2... , soma de quadrados da regressão = n X X n YXXY YY XQS SPgQS 2 2 2 22 ˆ .. Re.. , n = número de pares de dados e a soma de quadrados do resíduo = S. Q. Res. = S.Q. Total - S. Q. Regressão. Coeficiente de Determinação: É a proporção da variação total que está sendo explicada pela regressão. Fornece uma idéia da qualidade do ajuste do modelo aos dados. .10 .. Re.. 22 r TotalQS gressãoQSr Uma outra forma de avaliar a regressão é calcular os valores estimados de Y, a partir da equação obtida ,ˆ 10 XY e comparar com os valores de Y observados. Valores de Y ajustados: YYYYAJ ˆ . Faz-se necessário calcular estes valores quando se quer comparar entre si dois ou mais valores de Y, neste caso, ajustando tais valores para um mesmo X, no caso a média X . Erro padrão da estimativa: Quando se estuda apenas uma variável (X), tem-se que a variação entre cada ponto observado e a média é dada pelo desvio padrão (σX ou sX). Ao se estudas duas ou mais variáveis, relacionadas 21 por uma equação (Y = β0 + β1X), o desvio padrão passa a ser o afastamento médio e mínimo existente entre cada ponto observado e a reta, chamando-se erro padrão da estimativa YS . 22 10 22 n XYYY n YY SY Intervalo de confiança: Os valores de Y obtidos pela relação XY 10ˆ encontram-se situados num intervalo (região), que é revelado pelo intervalo: 22 2 0 2;2 11**ˆ XXn XXn n StYY YnCALCULADO , onde: Z (valor crítico do teste Z bilateral), X0 representa o valor dado de X e SY (erro padrão da estimativa). Teste para verificar a hipótese H0: β1 = 0. Testa a inclinação da reta (coeficiente angular), se difere significativamente de uma reta com inclinação zero. 2 S:onde , 0 : 0: 0: 2 2 2 2 YX 2 2 1 11 10 n SX SXYSY SX S TaEstatístic H H Hipóteses YX Exemplo de aplicação de uma regressão linear simples: Aproveitando os dados utilizados na análise de correlação linear simples, estimar um modelo que represente a variação da pressão sistólica do indivíduo em função da idade, em seguida, calcular as estimativas destes valores e analisar o modelo estimado, conforme as medidas e testes explicados na parte teórica. As estimativas dos parâmetros da equação de regressão são calculadas da seguinte forma: 0254,0 1695295625*11 3,20*16955,4004*11 222 2 1 XXn YXXYn XX Xn XYX Yn 22 XY n XY XXn XYXXY XX Xn XXY XY 1 1 22 2 2 2 0 0759,2 11 1695*0254,0 11 3,20 0 Feito o modelo, pode-se, assim, estimar os valores de y, para cada par e valores que faz parte do conjunto de dados. Exemplo: p/ x = 75, y = 0,00 que são valores observados. O valor da estimativa de y calcula-se da seguinte forma: 1709,075*0254,00759,2ˆ Y . Como se pode observar, o valor estimado nem sempre coincide com o valor observado, às vezes pode ser menor ou maior, mas é o valor mais próximo, já que o método dos mínimos quadrados, utilizado para estimar a equação, proporciona estimar o valor de Y com o menor erro. Normalmente se estima todos os valores observados e verifica a distância entre os valores observados e estimados. Um dos testes mais importantes para o modelo de regressão é a análise de variância (ANOVA), ilustrada a seguir. Análise de variância da regressão linear simples: Para compor a tabela da ANOVA é necessário alguns cálculos preliminares, que são as somas de quadrados, a saber: Soma de quadrados totais (S.Q.T.): 8723,22 11 3,20335,60... 22 2 n Y YTQS y =-2,0759 + 0,0254x r2 = 0,9752 -1 0 1 2 3 4 5 0 100 200 300 Concentração de CO2 C O 2 a bs or vi do 23 Soma de Quadrados da Regressão (S.Q.Reg.) n X X n YX XY YY XQS SPgQS 2 2 2 22 ˆ .. Re.. 3041,22 11 1695295625 11 3,20*16955,4004 .Re.. 2 2 gQS Soma de quadrados do Resíduo ou desvios da regressão (S.Q.R.): Este valor normalmente é obtido por diferença entre S.Q.T. e S.Q.Reg. S.Q.R. = 22,8723 - 22,3041 = 0,5682. Tabela da ANOVA Causas de Variação Graus de Liberdade Soma de Quadrados Quadrado Médio F Regressão 1 22,3041 22,3041 353,4723 Resíduo 9 0,5682 0,0631 - Total 10 22,8723 - - Para testar se o modelo é significativo, compara-se o valor de F calculado com os valores de F tabulados ao nível de 5% e 1% de significância. No caso particular deste exemplo, tem-se: 56,10 12,5 %1 9;1 %5 9;1 F F . Como o valor de F calculado é 353,4723, significa que a variância ou quadrado médio devido à regressão (Q.M.Reg.) é 353,4723 vezes maior que a variância devido a fatores alheios à regressão, conhecido como resíduo ou desvios da regressão (Q.M.R.). Para que o modelo fosse significativo ao nível de 5% de significância, bastaria que Q.M.Reg. fosse 5,12 vezes maior que Q.M.R. A mesma lógica é utilizada na comparação com o nível de 1% de significância. Outra informação importante é que o teste F é utilizado, pois ao comparar duas variâncias ou quadrados médios, que têm distribuição qui- quadrado, obtém-se a distribuição de F. Teste de hipóteses para verificar se o intercepto e o coeficiente de regressão do ajuste do modelo (betas) não são nulos. Algumas medidas devem estar disponíveis para serem aplicadas nas estatísticas, a saber: n = 11; S = (Q.M.R.)0,5 = 0,2513; SX2 = 295625; SQX = 34440,9091; 0 = - 2,0759; 1 = 0,0254; t5%;9 = 2,262. 24 As hipóteses a serem testadas são: 0: 0: 0: 0: 1111 0100 HvsH HvsH Os testes a serem feitos são: 0262,27577,18 0 :/ 0262,23514,9 * * 0 :/ 19%;5 1 1 09%;52 0 0 t SQX S tP t SQXn X S tP No caso dos testes serem significativos (e foram), os Intervalos de confiança (IC) a serem construídos são: 0285,0 a 00224,00031,00254,0*ˆ:/ 5728,1 a 5772,25022,0075,2 * **ˆ:/ 2;2 11 2 2;2 00 SQX StP SQXn X StP n n Ao testar e comprovar que o valor de 1 ≠ 0, rejeita-se a hipótese de que o coeficiente angular seja nulo e conclui-se que o incremento médio na absorção de CO2 é 0,0254 para o aumento de uma unidade em X. Como ambos os testes foram significativos, justificou-se estimar por intervalo os respectivos coeficientes linear e angular. Esse é o procedimento geral, ilustrado nesse exemplo, para aplicação de testes de hipóteses e estimação dos parâmetros do modelo linear simples. Dentre as várias formas existentes, a análise de regressão linear pode ser polinomial, com uma equação de grau “n” (y = β0 + β1x + ... + βnxn) ou pode ser uma regressão linear múltipla, com várias variáveis independentes (x1, x2, ..., xn) e uma dependente (y). A aplicação do método de mínimos quadrados se dá da mesma forma demonstrada anteriormente, obtendo-se sistemas de equações de retas normais e mínimos quadrados a saber: 25 Para regressões polinomiais de grau “n”: y = β0 + β1x + β2x2 + ... + βnxn. nn n xxnnn n n n n n n n n xxxxxyx xxxxxyx xxxxxyx xxxxxxy xxxxny ... ... ... ... ... ... 3 3 2 2 1 10 36 3 5 2 4 1 3 0 3 25 3 4 2 3 1 2 0 2 14 3 3 2 2 10 3 3 2 210 Assim como no caso da regressão linear simples, de primeiro grau, utilizam-se as duas primeiras linhas até as colunas referentes aos betas 0 e 1. No caso de polinômio de segundo grau, utilizam-se as três primeiras linhas e as colunas até as referentes aos betas 0, 1 e 2. Assim se faz até um polinômio de grau “n” qualquer. Tudo se resume à resolução de sistemas de equações. Para regressões lineares múltiplas ou polinômio linear múltiplo: y = β0 + β1x1 + β2x2 + ... + βnxn. 2 22110 3322311303 2 2 22211202 1122 2 11101 22110 ... ... ... ... ... ... nnnnnn nn nn nn nn xxxxxxyx xxxxxxxyx xxxxxxyx xxxxxxyx xxxny Conforme haja maior número de variáveis independentes, deve-se seguir a mesma lógica aplicada à regressão polinomial de grau “n”. 26 Resumo prático para análise de regressão linear simples – Forma matricial de resolução: Demonstração da resolução do sistema, de forma matricial: YXXX YXXXXXXXYXXX '*' '*'*'*' '*' 1 11 Matrizes iniciais: Matriz X, matriz de coeficientes, dos valores de X, assim como a matriz transposta de X = XT: n T n XXX X X X X X ... 1...11 1 ...... 1 1 21 2 1 Matriz dos valores de Y, variável resposta (ou dependente): nY Y Y Y ... 2 1 Matriz dos valores desconhecidos (betas), parâmetros da equação, que se quer determinar: 1 0 Matrizes que temos de obter: 2* XX Xn XX T A matriz (XT*X)-1 = Matriz inversa de (XT*X). XY Y YX T * Matriz dos valores dos parâmetros, betas: 1 01 )*(*)*( YXXX TT O modelo construído é: XY ˆ*ˆ 10 . 27 Matriz das variâncias e covariâncias: Var/Cov: 110 1001 ; ; ...*)*(/ VarCov CovVar RMQXXCovVar T Testando o coeficiente linear – intercepto: 0 0 0 0 Var t 0: 0: 01 00 H H Hipóteses Este valor deverá ser testado comparando com o valor tabular: 2;2/ nt Testando o coeficiente angular – inclinação da reta: 1 1 0 1 Var t 0: 0: 11 10 H H Hipóteses Este valor deverá ser testado comparando com o valor tabular: 2;2/ nt ANOVA de Regressão, para testar o modelo construído: Soma de Quadrados totais – Variação total da variável resposta, ou dependente, Y: n Y YVTYQS 2 2.. Soma de quadrados da regressão, ou variação explicada: n Y YXVEgresQS TT 2 **Re.. Observação: Os valores que compõem o fator de correção das fórmulas de S.Q.T. e S.Q.Reg., n Y 2 , podem ser obtidos extraindo-se, diretamente, da matriz (1YT*1Y), obtida no cálculo do coeficiente de correlação. Soma de quadrados do resíduo ou erro: S.Q.R. = VR = S.Q.T. – S.Q.Regres. Graus de liberdade: Graus de liberdade do total: G.L.T. = n – 1 = nº de pares – 1. 28 Graus de liberdade da regressão = G.L. Regressão = P -1 = Nº de parâmetros – 1. Como numa regressão linear simples os parâmetros são 0 e 1, será sempre 2 – 1 = 1. Graus de liberdade do resíduo: G.L.R. = G.L.T. – G.L. Regressão = n – P = n – 2. De agora em diante a tabela de ANOVA é auto-explicativa, a saber: F.V. ou C.V. G.L. S.Q. Q.M. F Regressão P – 1 S.Q.Regressão S.Q./ G.L. QM Regres/QMR Resíduo n – P S.Q.R. S.Q./G.L. Total n - 1 S.Q.T. O valor do F calculado será testado, comparando com os valores tabulados de F a 5%; 1% e 0,1% de significância, com (P – 1) e (n – P) graus de liberdade. É uma prática comum calcular as estimativas de Y - Yˆ - e comparar os valores obtidos com os valores preditos. Calculando os valores de R2 e R2ajustado: 222 2 1*1 .. Re.. R Pn PRR TotalQS gressãoQSR Ajustado A diferença básica entre os valores do R2 e R2ajustado consiste na adequação - ou ajuste - do valor de R2 levando-se em consideração o número de parâmetros (betas) Pn P 1 para cada modelo construído, assim como a componente ambiental - ou aleatória 21 R - que envolve o fenômeno estudado. Determinando intervalo de confiança para os parâmetros: 0285,0 a 00224,0 0031,00254,01083,1*262,20254,0ˆˆ*ˆ:/ 5728,1 a 5772,25022,0075,2 049264,0*262,2075,2ˆˆ*ˆ:/ 6 12;2 11 02;2 00 xVtP VtP n n Determinação do Intervalo de confiança para os valores de Y obtidos pela relação XY 10ˆ encontram-se situados num intervalo (região), que é 29 revelado pelo intervalo: 22 2 0 2;2 11**ˆ XXn XXn n StYY YnCALCULADO , onde: Z (valor crítico do teste Z bilateral), X0 representa o valor dado de X e SY (erro padrão da estimativa). Aplicação do método matricial na análise de regressão linear simples – deve ser estudado seguindo a sequência teórica, a partir da página 22. Matrizes iniciais: 0 1 75 0,65 1 100 0,5 1 100 1 1 120 0,95 1 130 Y = 1,3 X = 1 130 1,8 1 160 2,8 1 190 2,5 1 200 4,3 1 240 4,5 1 250 1 1 1 1 1 1 1 1 1 1 1 XT = 75 100 100 120 130 130 160 190 200 240 250 Matrizes que temos de obter: 11 1695 XT*X = 1695 295625 0,780322 -0,004474066 (XT*X)-1 = -0,004474 2,90352E-05 20,3 (XT*Y) = 4004,5 30 Determinação dos parâmetros do modelo (betas): -2,075861159 = 0,025448067 Análise da Variância da Regressão: O cálculo de SYY pode ser visto na página 12, com maiores detalhes. S.Q.T. = det(1YT*1Y) / n = 251,5953 / 11 = 22,8723. SYY = VT = S.Q.T. = 22,8723 S.Q.Regress = 22,3041 S.Q.R. = 0,5682 (Y)2/n = 37,4627 YX TT ** = 59,5735 Obs.: S. Q. Regressão = YX TT ** - n Y 2 ANOVA C.V. ou F.V. G.L. S.Q. Q.M. F Regressão 1 22,3041 22,3041 353,2857 *** Resíduo 9 0,5682 0,0631 Total 10 22,8723 5%F(1;9) = 5,1174 1%F(1;9) = 10,5614 0,1%F(1;9) = 22,8571 Obtenção da matriz de variâncias e covariâncias: 0,049264 -0,00028 Var/Cov = -0,00028 1,83E-06 Testando os parâmetros do modelo (betas): t(0) = -9,3526 * t(1) = 18,7959 * 5%t9 = 2,2622 31 Determinando intervalo de confiança para os parâmetros: 0285,0 a 00224,0 0031,00254,01083,1*262,20254,0ˆˆ*ˆ:/ 5728,1 a 5772,25022,0075,2 049264,0*262,2075,2ˆˆ*ˆ:/ 6 12;2 11 02;2 00 xVtP VtP n n Calculando o coeficiente de determinação (r2) e o r2 ajustado (r2aj.): r2 = 0,975158 r2aj. = 0,972397 Determinandoas estimativas de Y XY *ˆ 10 Um exemplo, com X1: 1709,0)75(*0254,00759,21ˆ Y . X Y Yˆ 75 0 -0,1709 100 0,65 0,4641 100 0,5 0,4641 120 1 0,9721 130 0,95 1,2261 130 1,3 1,2261 160 1,8 1,9881 190 2,8 2,7501 200 2,5 3,0041 240 4,3 4,0201 250 4,5 4,2741 Obs.: As diferenças entre os valores preditos e os valores estimados são chamadas de erros ou resíduos. Os intervalos de confiança para os parâmetros (betas) assim como para as estimativas, iYˆ , são calculados de forma usual, sem maiores dificuldades, com simples aplicações de fórmulas. Outra forma de fazer a análise de regressão linear simples usando o Excel é buscando a ferramenta Análise de dados, dentro do menu ferramentas. Na primeira vez que utilizar a ferramenta, deve-se buscar a opção suplemento e, então, solicitar que a opção análise de dados seja disponibilizada. 32 Nas demais vezes já poderão utilizar a ferramenta diretamente. 33 Dentro de Análise de dados, buscar a opção Análise de regressão: Ao escolher a opção regressão, selecionar os intervalos para Y e para X, para que os procedimentos sejam processados. O relatório de saída - Output - é o seguinte: RESUMO DOS RESULTADOS Estatística de regressão R múltiplo 0,987501 R-Quadrado 0,975158 R-quadrado ajustado 0,972397 Erro padrão 0,251263 Observações 11 ANOVA gl SQ MQ F F de significação Regressão 1 22,30407 22,30407 353,2857 1,57E-08 Resíduo 9 0,568199 0,063133 Total 10 22,87227 Coeficientes Erro padrão Stat t valor-P 95% inferiores 95% superiores Inferior 95,0% Superior 95,0% Interseção -2,07586 0,221956 -9,3526 6,23E-06 -2,57796 -1,57376 -2,57796 -1,573762867 X 0,025448 0,001354 18,7959 1,57E-08 0,022385 0,028511 0,022385 0,028510837 Exemplo de aplicação de uma regressão linear simples: Os dados a seguir representam a pressão sistólica (P.S.) de 30 pessoas que participaram de uma pesquisa, pareados à idade de cada uma delas. Determinar a equação que estima a pressão sistólica do indivíduo em função da idade, em seguida, calcular as estimativas destes valores e analisar o modelo estimado, conforme as medidas e testes explicados na parte teórica. n Idade P.S. n Idade P.S. 1 39 144 16 48 130 2 47 220 17 45 135 3 45 138 18 17 114 4 47 145 19 20 116 5 65 162 20 19 124 6 46 142 21 36 136 7 67 170 22 50 142 8 42 124 23 39 120 9 67 158 24 21 120 10 56 154 25 44 160 11 64 162 26 53 158 12 56 150 27 63 144 13 59 140 28 29 130 14 34 110 29 25 125 15 42 128 30 69 175 Só aprende quem pratica, ...!!!
Compartilhar