Buscar

Matrizes: Conceitos e Operações

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 35 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 35 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 35 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1
Breve revisão a respeito de matrizes: 
 
Muitas técnicas estatísticas podem ser facilmente resolvidas mediante uso de 
matrizes. Conceitualmente, matriz pode ser definida como uma espécie de 
arranjo, tabela, ou mesmo planilha, podendo ser retangular ou mesmo 
quadrada, disposta em linhas, na horizontal, e colunas, na vertical. Os 
elementos que compõem a matriz apresentam uma ordenação que 
corresponde ao endereçamento da linha e da coluna, respectivamente, onde 
estão localizados. Veja o exemplo abaixo: 
ܣ௠௫௡ = อܽ௠௡ ܽ௠௡ ܽ௠௡ܽ௠௡ ܽ௠௡ ܽ௠௡
ܽ௠௡ ܽ௠௡ ܽ௠௡
อ ⇒ ܣଷ௫ଷ = อܽଵଵ ܽଵଶ ܽଵଷܽଶଵ ܽଶଶ ܽଶଷ
ܽଷଵ ܽଷଶ ܽଷଷ
อ 
1 - Alguns tipos de matrizes: Existem alguns tipos de matrizes, com 
características peculiares, considerados mais comuns, que serão apresentados 
abaixo. 
1.1 –Matriz quadrada: É uma matriz que apresenta o mesmo número de linhas 
e colunas. 
A = ቚ1 43 8ቚ 
1.2 – Matriz diagonal: Consiste numa matriz quadrada em que apenas os 
valores localizados na diagonal principal diferem de zero. 
A = อ
1 0 00 4 00 0 7อ 
1.3 – Matriz identidade: Consiste numa matriz quadrada em que apenas os 
valores localizados na diagonal principal são iguais a um. Os demais são iguais 
a zero. 
 A = อ
1 0 00 1 00 0 1อ 
1.4 – Matriz simétrica: Há duas definições para este tipo de matriz. A primeira 
diz que ela é igual à sua transposta. A segunda é a seguinte: Seja uma matriz 
quadrada A = (aij), tal que aij – aji, para qualquer par (i, j). 
A = อ
1 2 32 7 43 4 1อ 
1.5 – Matriz singular: É uma matriz cujo determinante é nulo. Matrizes em que 
há linhas ou colunas iguais ou múltiplas umas das outras são singulares. Não é 
possível inverter estas matrizes mediante uso de procedimentos comuns. Será 
necessário lançar mão de conhecimentos mais aprofundados de álgebra, tais 
como matrizes inversas generalizadas, que não é objetivo deste livro. 
 
A = อ
1 3 22 1 44 7 8อ 
1.6 – Matriz triangular: Matriz quadrada cujos elementos - ou abaixo, ou acima - 
da diagonal principal, são todos nulos. 
A = อ
1 0 02 1 04 7 8อ B = อ1 3 20 1 40 0 8อ 
1.7 – Matriz transposta: É uma matriz onde as linhas são trocadas pelas 
colunas: 
 2
A = อ
1 3 22 1 44 7 8อ A’ = AT = อ1 2 43 1 72 4 8อ 
1.8 – Vetor linha e Vetor coluna: Se uma matriz Amn apresenta uma das 
dimensões, ou linha, ou coluna, igual a 1 (m = 1 ou n = 1), então ela será 
denominada vetor linha ou vetor coluna, respectivamente. 
A13 |7 4 7| (vetor linha) A31 = อ147อ (vetor coluna) 
2 - Algumas operações com matrizes: 
2.1 – Soma: Duas matrizes de mesma dimensão podem ser somadas 
efetuando-se a soma de cada elemento de posições equivalentes. 
A = อ
1 0 02 1 04 7 8อ B = อ1 3 20 1 40 0 8อ A + B =อ1 + 1 0 + 3 0 + 22 + 0 1 + 1 0 + 44 + 0 7 + 0 8 + 8อ = อ2 3 22 2 44 7 16อ 
2.2 - Soma Direta: Esta operação é usada em matrizes de variância e 
covariância, úteis no estudo de estatística. Dadas duas matrizes, A(mn) e B(xy), 
sua soma direta é dada por A  B = C(m+x;n+y). 
A  B =ቚܣ 00 ܤቚ⇒A=|7 7 7| B =ቚ1 44 7ቚ⇒ A  B =อ7 7 7 0 00 0 0 1 40 0 0 4 7อ 
2.3 – Subtração: Duas matrizes de mesma dimensão podem ser subtraídas 
efetuando-se a subtração de cada elemento de posições equivalentes. 
A = อ
1 0 02 1 04 7 8อ B = อ1 3 20 1 40 0 8อ A - B =อ1 − 1 0 − 3 0 − 22 − 0 1 − 1 0 − 44 − 0 7 − 0 8 − 8อ = อ0 −3 −22 0 −44 7 0 อ 
 
2.4 – Produto de um escalar por uma matriz: Este produto é obtido 
multiplicando-se cada elemento da matriz pelo escalar. 
K * A(mn) = (kamn) ⇒k	=	7	A=ቚ
1 73 8ቚ k * A = ቚ7 ∗ 1 7 ∗ 77 ∗ 3 7 ∗ 8ቚ = ቚ 7 4921 56ቚ 
2.5 – Produto entre duas matrizes: A condição de existência da multiplicação 
entre duas matrizes é que o número de colunas da primeira seja igual ao 
número de linhas da segunda. 
O procedimento ocorre mediante a adição dos produtos entre cada elemento 
da linha da primeira matriz pelo respectivo elemento de cada coluna da 
segunda matriz. Isto sempre resultará numa nova matriz, cujo número de linhas 
igual ao da primeira matriz, e o número de colunas igual ao da segunda matriz. 
A(2x3) X B(3x2) = C(2x3). Onde: A = ቚ
3 26 5ቚ (1ª matriz) e B = ቚ2 7 53 1 3ቚ (2ª matriz). 
C = ฬ
(ܮ1ܣ ∗ ܥ1ܤ) (ܮ1ܣ ∗ ܥ2ܤ) (ܮ1ܣ ∗ ܥ3ܤ)(ܮ2ܣ ∗ ܥ1ܤ) (ܮ2ܣ ∗ ܥ2ܤ) (ܮ2ܣ ∗ ܥ3ܤ)ฬ 
C = ฬ
(3 ∗ 2 + 2 ∗ 3) (3 ∗ 7 + 2 ∗ 1) (3 ∗ 5 + 2 ∗ 3)(6 ∗ 2 + 5 ∗ 3) (6 ∗ 7 + 5 ∗ 1) (6 ∗ 5 + 5 ∗ 3)ฬ C = ቚ12 23 2127 47 45ቚ. 
2.6 - Produto de Kronecker ou produto direto: Sejam duas matrizes A(mn) e B(xy). 
O produto direto entre elas gera uma matriz C(mx;ny). 
A = ቚ2 31 2ቚ(2x2) e B = |3 4|(1x2). Então, A  B = ቚ2 ∗ 3 2 ∗ 4 3 ∗ 3 3 ∗ 41 ∗ 3 1 ∗ 4 2 ∗ 3 2 ∗ 4ቚ 
A  B = ቚ6 8 9 123 4 6 8 ቚ(2x4). 
2.7 - Produto de Hadamard: Esta operação matricial não é tão conhecida 
quanto as demais, no entanto é encontrada em algumas aplicações 
 3
estatísticas. Consiste no produto entre os elementos da mesma posição de 
duas matrizes de mesma dimensão. 
A = ቚ1 40 2ቚ e B = ቚ3 16 5ቚ Então, A  B = ቚ1 ∗ 3 4 ∗ 10 ∗ 6 2 ∗ 5ቚ  A  B = ቚ3 40 10ቚ. 
2.8 – Menor Determinante: Consiste na matriz, de ordem inferior, obtida 
mediante eliminação da linha e da coluna onde um determinado elemento se 
encontra, numa uma matriz pré-existente. 
A(3x3) = อ
ܽଵଵ ܽଵଶ ܽଵଷ
ܽଶଵ ܽଶଶ ܽଶଷ
ܽଷଵ ܽଷଶ ܽଷଷ
อ ⇒ Mij = M11 = ቚ
ܽଶଶ ܽଶଷ
ܽଷଶ ܽଷଷ
ቚ 
A = อ
3 4 15 7 98 7 0อ ⇒ Mij = M11 = ቚ7 97 0ቚ. 
2.9 – Matriz de cofatores: Para se saber no que consiste uma matriz de 
cofatores, primeiro é necessário saber o que são os cofatores. Um cofator de 
um elemento qualquer de uma matriz é o valor obtido mediante aplicação da 
seguinte expressão: COFij = (-1)i+j * det [Mij]. 
A = ቚ5 32 1ቚ COF11 = (-1)1+1 * det [M11]  COF11 = (-1)2 * [1] = 1 COF12 = (-1)1+2 * det [M12]  COF12 = (-1)3 * [2] = -2 COF21 = (-1)2+1 * det [M21]  COF21 = (-1)3 * [3] = -3 COF22 = (-1)2+2 * det [M22]  COF22 = (-1)4 * [5] = 5 
AC = ቚ 1 −2
−3 5 ቚ. 
2.10 – Matriz adjunta: Consiste na matriz transposta da matriz de cofatores. 
AC = ቚ 1 −2
−3 5 ቚ ⇒ (ܣ஼)T =ቚ 1 −3−2 5 ቚ. 
2.11 – Matriz inversa: Pode-se obter a inversa de uma matriz mediante 
utilização da seguinte expressão: A-1 = ଵ
ୢୣ୲ ஺
 * (ܣ஼)T. Na prática, consiste no 
produto do inverso do determinante da matriz que se deseja inverter, pela 
matriz adjunta dela. 
A = ቚ5 32 1ቚ ; det [A] = -1; (ܣ஼)T =ቚ 1 −3−2 5 ቚ. 
Então, A-1 = ଵ(ିଵ) * ቚ 1 −3−2 5 ቚ ⇒ A-1 = (-1) * ቚ 1 −3−2 5 ቚ ⇒	A-1 = ቚ−1 32 −5ቚ. 
3 - Como calcular o determinante de uma matriz de qualquer ordem: 
Seja a matriz (A) 
12
35
2221
1211  A
aa
aa
A 
Aplicando-se o algoritmo descrito abaixo, obtém-se o determinante de uma 
matriz quadrada de qualquer ordem: O cálculo poderá ser feito mediante 
escolha de uma linha ou uma coluna qualquer, pois sempre será obtido o 
mesmo resultado. 
 
15*)1(*12*)1(*3det:2/
13*)1(*21*)1(*5det:1/
15*)1(*13*)1(*2det:2/
12*)1(*31*)1(*5det:1/
det 1
2221
1211
2212
2111
1










 
Acolunap
Acolunap
Alinhap
Alinhap
AaAAMA
n
k
kjkj
C
ij
ji
ij
 
 4
Significa dizer que deve ser feita para uma linha ou coluna qualquer, pois se 
obterá o mesmo resultado. Dica: Principalmente em matrizes de ordem igual ou 
maior que três, deve-se escolher a linha ou a coluna com o maior número de 
zeros, pois facilita bastante o cálculo. 
 
 
Algumas operações com matrizes: Resolução manual e no Excel: 
 
 
Determinante de uma matriz de ordem qualquer: 
Seja a matriz (A) 
12
35
2221
1211  A
aa
aa
A 
Aplicando-se o algoritmo descrito abaixo, obtém-se o determinante de uma 
matriz quadrada de qualquer ordem: 
 
15*)1(*12*)1(*3det:2/
13*)1(*21*)1(*5det:1/
15*)1(*13*)1(*2det:2/
12*)1(*31*)1(*5det:1/
det 1
2221
1211
2212
2111
1










 
Acolunap
AcolunapAlinhap
Alinhap
AaAAMA
n
k
kjkj
C
ij
ji
ij
 
 
 Significa dizer que deve ser feita para uma linha ou coluna qualquer, 
pois se obterá o mesmo resultado. Dica: Escolher linha ou coluna com maior 
número de zeros. 
 Cálculo de matriz inversa: Para inverter uma matriz, pode-se utilizar o 
algoritmo a seguir, fazendo-se o mesmo processo para cada elemento da 
matriz e não apenas para cada linha ou coluna como no caso do determinante, 
a saber: 
 
 
52
31
52
31
*1
53
21
*)1(
5*)1(3*)1(
2*)1(1*)1(
*
)1(
1
12
35
*
det
1
11
1
2222
2111
1
1




















AA
AAA
A
A
A
T
TC
 
 
Dada uma matriz A: 
 
 1 -4 2 -2 
A 4 7 -3 5 
 3 0 8 0 
 -5 -1 6 9 
 
Cujo determinante é: |A| = det A. 
 
det A = 2042 
 
 5
Calculado da seguinte forma: Processo de redução e desenvolvimento 
utilizando menores e complementos algébricos. O menor (ou menor 
complementar) Mij de uma matriz Anxn é o determinante da submatriz (n - 1) x 
(n - 1) que resta depois de terem sido retiradas a i-ésima linha e a j-ésima 
coluna de A. (buscar linha ou coluna com maior número de zeros). No exemplo, 
a linha 3. 
 
det A = 3*A31 + 0*A32 + 8*A33 + 0* A34 = 3*(-1)3+1M31 + 8*(-1)3+3*M33 
 
2042)250)(1(8)14)(1(3det
250)31)(1)(2()61)(1)(4()68)(1(1
15
74
)1)(2(
91
54
)1)(4(
91
57
)1(1
915
574
241
14)39)(1)(2()68)(1(2)57)(1(4
61
37
)1)(2(
91
57
)1(2
96
53
)1(4
961
537
224
432
33
432
31























AA
M
M
 
 
A matriz de cofatores é: 
 
 
 544 -659 -204 365 
AC 304 -98 -114 234 
 14 197 250 -137 
 -48 -92 18 178 
 
Os cofatores são os mesmos menores - ou menores complementares - obtidos 
quando se calculou o determinante, com a diferença de que - para obtenção da 
matriz de cofatores - deve ser feito para todas as posições. Como exemplo, 
pode-se observar os cofatores das posições L3C1 e L3C3, respectivamente 14 e 
250, obtidos no cálculo do determinante, logo acima. 
 
 
Assim, a matriz de cofatores, transposta, é: 
 
 544 304 14 -48 
(AC)T -659 -98 197 -92 
 -204 -114 250 18 
 365 234 -137 178 
 
 
A matriz inversa é: 
 
 0,266405 0,148874 0,006856 -0,02351 
A-1 -0,32272 -0,04799 0,096474 -0,04505 
 -0,0999 -0,05583 0,122429 0,008815 
 0,178746 0,114594 -0,06709 0,087169 
 6
 
Calculada pelo algoritmo:    TCTC AAA
A
A *
2042
11 11   : 
 
 
Como fazer algumas operações, envolvendo matrizes, no 
Excel: 
 
Matriz Inversa: 
 
Como no aplicativo não está muito claro, basta seguir os quatro 
passos seguintes, que ilustram um exemplo: 
 1) Coloque os valores da matriz: Por exemplo: 
797514
282716
16132
 no 
espaço (intervalo) A2 a C4; 
 
2) Selecionar (e marcar) um espaço igual, por exemplo, A6 a C8. 
 
3) Ir ao espaço de fórmulas e digitar a tecla igual < = > e procurar a 
função Matriz.Inverso (dentro das funções matemáticas e 
trigonométricas) e selecionar, ou digitar, o espaço ocupado pela 
matriz que se deseja inverter: No nosso exemplo, A2 a C4 e teclar < 
Enter >. Neste momento só aparecerá o primeiro valor da matriz 
inversa. 
 
4) Tecle < F2 > e, em seguida, tecle < Ctrl > <Shift> < Enter >, estas 
três últimas simultaneamente e a matriz inversa aparecerá no 
espaço selecionado: no nosso caso, A6 a C8. 
 
A matriz resultante (inversa) será a seguinte: 
 
08183,0017003,0436769,0
10627,003507,046334,0
03613,0091923,0017535,0



 
 
Se desejar provar que a matriz resultante é mesmo a inversa, faça a 
mesma coisa com a nova matriz, selecionando ouro espaço, por 
exemplo: A11 a C13 e, no final, aparecerá a mesma matriz original, 
já que a inversa de uma inversa é a própria matriz original! 
 
 7
797514
282716
16132
 
 
Uma outra coisa que pode ser feita é modificar os valores na matriz 
original e, observar que na matriz inversa, os valores são 
automaticamente recalculados e substituídos, sem ter mais trabalho 
para inverter. Assim, podem-se inverter quantas matrizes daquele 
tamanho a pessoa quiser. Muito prático. 
A função [TRANSPOR], do Excel, que retorna a matriz transposta 
de uma matriz original, funciona de forma semelhante à função 
[Matriz.Inverso], onde tem que ser marcado o intervalo referente à 
transposta da matriz original que se quer transpor. Lembre-se que o 
número de linhas da transposta é igual ao número de colunas da 
original, assim como o número de colunas da transposta é igual ao 
número de linhas da matriz original. 
 
A função [MATRIZ.MULT] que retorna a multiplicação de duas 
matrizes também funciona conforme o mesmo princípio das duas 
funções supracitadas. Deve-se lembrar, porém, que uma matriz 
resultado da multiplicação de duas outras tem o número de linhas 
da primeira e o número de colunas da segunda. Ex: Uma matriz 
(7x25) multiplicada por uma matriz (25x7) resultará numa matriz 
quadrada de tamanho (7x7). 
 
Existe, ainda, a função [MATRIZ.DETERM] que retorna o 
determinante de uma matriz. Esta é mais simples, pois basta 
marcar a matriz da qual se deseja obter o determinante e o 
resultado sairá numa só célula. 
 
Para fazer o gráfico, basta marcar as colunas com os valores de X e 
os totais dos tratamentos (coluna dos valores de Y), ir ao assistente 
de gráfico (ícone), (ou escolher o caminho: (Inserir ↳ Gráfico), 
escolher a modalidade (tipo): Dispersão (XY) e em seguida, o 
subtipo: (Dispersão. Compara pares de valores), que é o primeiro 
em exibição. (Avançar e escolher as opções que são apresentadas. 
Após concluir o gráfico, ainda pode-se clicar em cima dos pontos, 
solicitar linha de tendência e, também, as seguintes opções: 
adicionar a equação de segundo grau, por exemplo e o valor do R2. 
Isto é muito fácil e prático, só depende da curiosidade de cada 
dupla de estudantes. 
 
 8
Estas funções, existentes e disponíveis no Excel, são ferramentas 
bastantes e suficientes para auxiliar o estudante a desenvolver 
cálculos necessários para resolução do terceiro crédito. 
 
 
 
Análise de Correlação Linear Simples 
 
Geralmente interessa estudar a maneira como duas variáveis estão associadas 
e medir esse grau de associação. Como exemplos podem-se citar: 
 Será que plantas mais altas possuem diâmetro maior? 
 Será que pessoas mais altas são mais pesadas? Ou ainda, será que 
essas duas variáveis crescem no mesmo sentido? 
 Será que o teor de cinzas do mel está relacionado com a condutividade 
elétrica do mesmo? 
 Será que o avanço na idade das pessoas está relacionado ao aumento 
da pressão sistólica? 
 Será que as variáveis: Perímetro encefálico e altura, em recém 
nascidos, estão relacionadas? 
 Quanto maior a quantidade de memória RAM, menor o tempo de 
processamento? 
 Quanto maior a resistência mecânica, menor a absorção de água, numa 
massa cerâmica? 
 Quanto maior a temperatura do Forné maior será a resistência mecânica 
da cerâmica? 
 Quanto maior a quantidade de aditivo maior será a octanagem da 
gasolina? 
 Quanto maior a renda maior será o consumo? 
 Quanto maior a memória RAM do computador menor será o tempo de 
resposta do sistema? 
 Quanto maior a área construída do imóvel maior será o preço do imóvel? 
 
Para responder estas questões e outras de mesma natureza, adotam-se a 
covariância e o coeficiente de correlação de Pearson. 
 
Covariância: Se X e Y são duas variáveis aleatórias com médias μX e μY. 
Define-se como covariância entre X e Y como a variabilidade média das 
variáveis X e Y analisadas simultaneamente. 
               
    contínuas. variáveispara ,YX,XYf e discretas variáveispara:onde ,,ˆ
,




dXdYXYE
YXPYXXYEYEXEXYEYXEYXVOC
ji
jijiYX 
 
[f(X,Y) é uma função densidade de probabilidade conjunta de X,Y]. 
 
O estimador da covariância, para uma amostra de n pares de observações, é 
dado por: 
      
 











n
i
n
i
i
n
i
i
n
i
iiii YXn
YX
n
YYXX
n
YXVOC
1 111
1
1
1
1
1,ˆ 
 
 9
Interpretação: A covariância fornece uma idéia do sinal da quantidade do 
relacionamento entre duas variáveis. Como ela pode assumir valores entre -∞ 
e +∞, dificulta interpretar se o grau de associação é representado por um alto 
ou baixo relacionamento. Criou-se, então, o coeficiente de correlação de 
Pearson. 
 
O coeficiente de correlação de Pearson pode ser definido como uma razão 
ente a covariância e as variâncias de duas variáveis aleatórias X e Y. 
 
Em álgebra linear, pode-se definir este coeficiente como uma razão entre um 
produto vetorial e a norma de dois vetores. 
 
ߩ = 〈ܺ; ܻ〉
‖ܺ‖ ∗ ‖ܻ‖
 
 
Estatisticamente, pode-se definir o parâmetro como segue: 
 
   .11;,
22
 


YX
YXCOV 
 
O estimador deste parâmetro É: 
 
   
 .11;,
ˆ
2
2
2
2
22























r
n
Y
Y
n
X
X
n
YX
XY
SS
YXVOCr
YX
 
 
Matematicamente, esta estimativa coincide com a função cosseno (X). 
 
Pode-se demonstrar graficamente este coeficiente de correlação, conforme 
veremos a seguir: 
 
1 – Correlação positiva, quando r tende a ser igual a +1: 
 
 
 
 
 
0
2
4
6
8
10
12
14
16
0 5 10 15 20 25 30
 10
2 – Correlação negativa, quando r tende a ser igual a -1: 
 
 
 
 
 
3 – Ausência de correlação: Quanto r tende a ser igual a zero. Não se observa 
uma tendência definida na nuvem de dados: 
 
 
 
 
 
4 – Correlação que não tende a ser linear, apresentando outras formas: 
 
 
 
 
0
2
4
6
8
10
12
14
16
0 5 10 15 20 25 30
0
2
4
6
8
10
12
14
16
0 5 10 15 20
0
200
400
600
800
1000
1200
1400
1600
0 10 20 30
 11
 
 
 
 
 
 
 
 
 
Teste de correlacionamento (Teste de hipótese para ρ). 
 
.T se H se-Rejeita :
2*
1
:
0:
0:
OBS0
2
0
TAB
A
TComparação
n
r
rTaEstatístic
H
H
Hipóteses











 
 
 
A esta explicação segue um exercício, feito juntamente com a análise de 
regressão linear simples. 
 
Num ensaio de simulação de estudos de impacto ambiental, foi tomada uma 
amostra de tamanho n = 11, na qual se aplicou CO2 em diferentes 
concentrações em folhas de trigo (X) à temperatura de 35°C; a quantidade de 
CO2 absorvida em cm3/dm2/hora foi avaliada. Os resultados estão 
apresentados a seguir: 
 
0
2
4
6
8
10
12
14
16
0,0000 0,0500 0,1000 0,1500
-600000
-500000
-400000
-300000
-200000
-100000
0
100000
200000
300000
-60 -40 -20 0 20 40 60
 12
n x Y x2 y2 xy 
1 75 0,00 5625 0 0 
2 100 0,65 10000 0,4225 65 
3 100 0,50 10000 0,25 50 
4 120 1,00 14400 1 120 
5 130 0,95 16900 0,9025 123,5 
6 130 1,30 16900 1,69 169 
7 160 1,80 25600 3,24 288 
8 190 2,80 36100 7,84 532 
9 200 2,50 40000 6,25 500 
10 240 4,30 57600 18,49 1032 
11 250 4,50 62500 20,25 1125 
Σ 1695 20,3 295625 60,335 4004,5 
 
 
 
   
.9875,0
11
3,20335,60
11
1695295625
11
3,20*16955,4004
22















r 
 
 
9875,0
872,22*34441
45,876
872,22
34441
45,876









r
S
S
S
YY
XX
XY
 
 
Para testar a correlação pode-se aplicar o teste “t”, a seguir: 
 
Teste de correlacionamento: 
 
Hipóteses a serem testadas: 





0:
0:0
rH
rH
A
 
 
Para testar a hipótese de ausência de correlação linear entre as variáveis: 
gasto com propaganda e vendas, ao nível de 5% de significância, faz-se: 
 
 **
2
8119,18211*
9752,01
9875,02*
1




 ttn
r
rt . 
Ver valor de “t” tabelado ao nível de 5% e 1%, com (n - 2 = 9) graus de 
liberdade, e comparar com o valor calculado de “t”. Como o valor calculado de 
“t” foi maior que os valores tabelados, rejeita-se a hipótese de nulidade. Pode-
se testar comparando diretamente com o valor de ‘r’, também, mediante 
utilização da tabela de ‘r’ 
 
 13










73,0
60,0
 
2498,3
2621,2
9
%1
9
%5
9
%1
9
%5
r
r
t
t
 
 
O coeficiente de determinação (r2): Consiste numa medida que nos diz quanto 
a variação de uma determinada variável ocorre em função da variação da 
outra. Aplica-se principalmente quando uma variável é considerada 
independente e a outra, dependente, como numa relação Y = f(x). 
 
Aplicação no caso em particular: r2 = (0,9875)2 = 0,9752  97,52% da variação 
da quantidade de CO2 absorvida (y) é devida à variação nas concentrações de 
CO2 em folhas de trigo (x). 
 
O diagrama de dispersão, que é o gráfico que melhor ilustra a dispersão dos 
dados, encontra-se a seguir. 
 
 
Outra forma de testar o valor de “r” coeficiente de correlação, é comparar com 
os valores tabelados a partir da tabela de “r”, com (n - 2) graus de liberdade. 
Geralmente os resultados coincidem com os do teste “t”. Neste caso em 
particular a correlação foi significativa ao nível de 1% de significância. 
 
 
0
1
2
3
4
5
0 100 200 300
Concentração de CO2
C
O
2 a
bs
or
vi
do
 14
 
Resumo prático para análise de correlação linear simples – Forma 
matricial de resolução: 
 
O cálculo do coeficiente de Correlação linear de Pearson pode ser feito, 
facilmente, mediante procedimento matricial, a saber: 
 
Primeiro obtém-se as matrizes básicas, envolvendo as variáveis X e Y, ou X1 e 
X2, dependendo da natureza dos dados. 
 
 1 75 1 0 
 1 100 1 0,65 
 1 100 1 0,5 
 1 120 1 1 
 1 130 1 0,95 
1X = 1 130 1Y = 1 1,3 
 1 160 1 1,8 
 1 190 1 2,8 
 1 200 1 2,5 
 1 240 1 4,3 
 1 250 1 4,5 
 
Em seguida, obtêm-se as matrizes transpostas de X e Y, respectivamente: 
 
 1 1 1 1 1 1 1 1 1 1 1 
1XT = 75 100 100 120 130 130 160 190 200 240 250 
 
 
 1 1 1 1 1 1 1 1 1 1 1 
1YT = 0 0,65 0,5 1 0,95 1,3 1,8 2,8 2,5 4,3 4,5 
 
O próximo passo é a obtenção das matrizes quadradas, resultantes da 
multiplicação das matrizes transpostas pelas matrizes básicas 1X e 1Y. 
 
 11 1695 
1XT*1X = 1695 295625 
 det = 378850 
 
 
 11 20,3 
1YT*1Y = 20,3 60,335 
 det = 251,595 
 
 
 11 20,3 
1XT*1Y = 1695 4004,5 
 det = 9641 
 15
As duas primeiras matrizes quadradas correspondem à variabilidade de X e de 
Y. A terceira matriz obtida [1XT*1Y] corresponde à variação coincidente, isto é, 
a covariância. 
 
Como o denominador da estatística do coeficiente de correlação linear de 
Pearson corresponde à multiplicação da variabilidade das duas variáveis, X e 
Y, pode-se obter tal valor, matricialmente, mediante produto das matrizes 
quadradas (1XT*1X)*(1YT*1Y). 
 
 34529,5 102491,1 
(1XT*1X)*(1YT*1Y) = 6019833 17870943 
 
 
Para evitar uma divisão, obtendo-se o coeficiente por meio de um produto, 
pode-se inverter esta matriz, obtendo-se, então: [(1XT*1X)*(1YT*1Y)]-1. 
 
 0,18749 -0,00108 
[(1XT*1X)*(1YT*1Y)]-1 = -0,06316 0,000362 
 det = 1,04913E-08 
 
 
Em seguida extrai-se a raiz quadrada do valor do determinante da inversa 
anteriormente calculada. Assim obtém-se o valor do Coeficiente de Correlação, 
multiplicando-se o determinante da matriz (1XT*1Y) pela raiz quadrada do 
determinanteda matriz [(1XT*1X)*(1YT*1Y)]-1, a saber: 
 
r = det(1XT*1Y)*SQRT(det{[(1XT*1X)*(1YT*1Y)]-1}) = 0,987501 
 
Observação: SQRT – Significa forma abreviada da expressão SQuare RooT - 
isto é, raiz quadrada de um determinado valor. 
 
 
 
 
 16
 
Outra alternativa para se obter o coeficiente de correlação é mediante 
padronização dos dados, a saber: 
 
Obtenção do Coeficiente de Correlação de Pearson, mediante 
padronização dos dados: 
 
 
Xp Yp 
-1,3477 -1,2202 
-0,9217 -0,7905 
-0,9217 -0,8896 
-0,5809 -0,5590 
-0,4105 -0,5921 
-0,4105 -0,3607 
0,1007 -0,0301 
0,6119 0,6312 
0,7823 0,4328 
1,4639 1,6230 
1,6343 1,7552 
 
 
Em seguida, obtém-se a matriz transposta dos valores de X padronizado, a 
saber: 
 
XT = |−1,3477 … 1,6343| 
 
E, também, a matriz Y = อ
−1,2202…1,7552 อ 
 
 
Em seguida, pode-se obter o coeficiente de correlação facilmente, mediante 
aplicação da seguinte operação matricial: 
 
r = (XT*Y)/(n-1) 
 
Onde, r = 0,9875007. 
 
 
 
 17
 
Análise de Regressão Linear Simples 
 
 Quando há interesse por parte do pesquisador de determinar a relação 
existente entre uma característica qualquer de interesse experimental, 
dependente, e uma outra característica independente, tomadas juntas 
(pareadas), sendo que o pesquisador, geralmente escolhe os valores da 
variável independente, deve-se utilizar a técnica da análise de regressão. 
 Para se conseguir um melhor ajuste entre as características, pode-se 
lançar mão da teoria de mínimos quadrados que tem como principais funções 
estimação dos parâmetros das equações de ajustamento e variáveis e 
obtenção dos coeficientes de explicação ou determinação dos fenômenos. 
 Como a curva de ajustamento de um conjunto de pontos é a curva 
média de menor erro-padrão, suas principais características são: apresentar 
soma das diferenças verticais dos pontos em relação à curva igual a zero e 
mínimo erro-padrão dos dados em relação aos pontos da curva. 
 
 
 
 Conforme a ilustração pode-se tomar como princípio que os pontos 
preditos (reais) do conjunto de dados (Yi) e os valores calculados (estimados) 
da curva  Yˆ podem-se resumir as propriedades matematicamente, a saber: 
 
 



mínimo ˆ)2
0ˆ)1
2
YY
YY
i
i
 
 
 A segunda propriedade, ao garantir que o erro-padrão é mínimo, indica 
que as derivadas parciais da função representativa da curva, em relação a 
cada uma de suas variáveis, são nulas. Simbolicamente, isso é indicado por: 
0


j
S

 
 
 Desta forma, levando-se em consideração um polinômio de primeiro 
grau, em que a equação geral da reta média a certo conjunto, pode-se afirmar 
que: 
    21010ˆ XYSXY i  
 18
 
 Desenvolvendo o quadrado anterior e fazendo-se (Yi = y), simplificando 
a notação, tem-se: 
 
 



22
110
2
010
2
2
1010
2
222
)()(2
XXXYYYS
XXYYS


 
 
 Se Y é a melhor reta de ajustamento, então S é mínimo. Para que isto 
ocorra, suas derivadas parciais, em relação a seus coeficientes β0 e β1 devem 
ser nulas, a saber: 
 
 







0222
0222
2
10
1
10
0
XXXYS
XYS



 
Simplificando as equações acima, obtém-se o seguinte sistema: 
 
 
 
 














0
0
02
02
2
10
10
2
10
10
XXXY
XY
XXXY
XY




 
 
Distribuindo os somatórios pelas parcelas, tem-se: 







0
0
2
10
10
XXXY
XY


 
 
Resolvendo em relação à variável Y, obtém-se o seguinte sistema de equações 
normais da reta: 







2
10
10
XXXY
XnY


 
 
Onde: β0 é o coeficiente linear e β1 o coeficiente angular da reta. 
 
 Como o resultado das operações matemáticas foi um sistema de 
equações lineares, deve-se observar que necessitaremos de revisar alguns 
conceitos importantes sobre matrizes, pois a forma matricial é simples e prática 
na resolução de sistema de equações. 
 
 Para obtenção dos coeficientes β0, que é o coeficiente linear e β1, o 
coeficiente angular da reta, procede-se da Seguinte forma: Transformar o 
sistema de equações da forma algébrica para a matricial, a saber: 
 





 





XY
Y
YX
XX
Xn
A
XXXY
XnY
 
1
0
22
10
10




 
 
 Como cada matriz recebeu uma denominação, tem-se a seguinte 
propriedade: Ao multiplicar ambos os membros da equação A*X=Y pela matriz 
inversa de A, obtém-se: A-1*A*X = A-1*Y. Como a inversa de uma matriz 
multiplicada por ela nos dá uma matriz identidade, isto é, uma matriz com a 
diagonal principal composta de números (1) e o restante dos elementos são 
 19
zeros (0), o determinante desta matriz identidade é igual a (1). 
Consequentemente, a equação fica: X = A-1*Y. assim, obtêm-se os valores dos 
coeficientes β0 e β1 que se deseja, determinando, consequentemente, a 
equação que representa a relação entre as características dependente e 
independente, que modela o fenômeno. 
 
 Uma outra forma de resolver um sistema, alternativa à anterior, é pela 
regra de Cramer, onde se obtém os coeficientes a partir de matrizes 
substituídas, a saber: 
 
 Para substituição de β0, divide-se a matriz substituída de A, no primeiro 
vetor coluna, pela matriz A. A substituição se dá substituindo-se a primeira 
coluna pela matriz Y. 
 
 
XY
n
XY
XXn
XYXXY
XX
Xn
XXY
XY
1
1
22
2
2
2
0 

 




 






 
 
 O mesmo processo é feito com a segunda coluna, para obtenção de β1, 
completando o processo. 
 
 22
2
1









XXn
YXXYn
XX
Xn
XYX
Yn
 
 
Como não há divisão de matrizes, uma alternativa para determinar os betas 
mediante o método da matriz substituída é o seguinte: 
 
Ao definir as matrizes: B = Matriz base (que fica no denominador); S1 = Matriz 
cuja primeira coluna é substituída e S2 = matriz cuja 2ª coluna é substituída. 
Como não existe divisão entre matrizes, então pode-se, de forma alternativa, 
determinar os respectivos valores dos betas ao calcular o determinante da 
matriz resultante do produto de cada matriz substituída pela inversa da matriz 
base. 
 
 
 12121
1
10
1
0
*det
*det




BS
B
S
BS
B
S


 
 
 Deve-se começar a estudar o comportamento do modelo ajustado ao 
conjunto de dados observados, fazendo-se uma análise dos resíduos. Os 
 20
resíduos consistem nas distâncias entre os valores observados e os valores 
ajustados pelo modelo     
i
ii YYYY 0ˆˆ . 
 
 Análise de variância da regressão linear simples. Esta análise tem a 
finalidade de testar se o modelo de regressão é significativo, a partir das 
variâncias da regressão e dos desvios da regressão (resíduos), utilizando-se, 
para isto, o teste de F, resultado da divisão de duas variâncias (ou quadrados 
médios), cujas distribuições são de qui-quadrado. (X2 / X2 = F), conforme tabela 
abaixo: 
 
Causas de 
Variação 
Graus de 
liberdade 
Soma de 
quadrados 
Quadrado 
médio 
F 
Regressão p - 1 S.Q. Regres. S.Q. 
Regres/(p - 1) 
Q.M. 
Regres/Q.M.Res. 
Resíduo (n - 1) - (p - 
1) = n - p 
S.Q. Res. S.Q.Res./(n-
2) 
 
Total n - 1 S.Q. Total 
 
 Onde: p = número de coeficientes [dois para a regressão linear simples 
(β0 e β1)]; soma de quadrados totais = SY2 = 
 
n
Y
YTQS
2
2...   , soma de 
quadrados da regressão = 
 
  












n
X
X
n
YXXY
YY
XQS
SPgQS 2
2
2
22 ˆ
..
Re.. , n = número de pares de 
dados e a soma de quadrados do resíduo = S. Q. Res. = S.Q. Total - S. Q. 
Regressão. 
 
 Coeficiente de Determinação: É a proporção da variação total que está 
sendo explicada pela regressão. Fornece uma idéia da qualidade do ajuste do 
modelo aos dados.  .10
..
Re.. 22  r
TotalQS
gressãoQSr 
 
 Uma outra forma de avaliar a regressão é calcular os valores estimados 
de Y, a partir da equação obtida ,ˆ 10 XY   e comparar com os valores de Y 
observados. 
 
 Valores de Y ajustados: YYYYAJ  ˆ . Faz-se necessário calcular 
estes valores quando se quer comparar entre si dois ou mais valores de Y, 
neste caso, ajustando tais valores para um mesmo X, no caso a média X . 
 
 Erro padrão da estimativa: Quando se estuda apenas uma variável (X), 
tem-se que a variação entre cada ponto observado e a média é dada pelo 
desvio padrão (σX ou sX). Ao se estudas duas ou mais variáveis, relacionadas 
 21
por uma equação (Y = β0 + β1X), o desvio padrão passa a ser o afastamento 
médio e mínimo existente entre cada ponto observado e a reta, chamando-se 
erro padrão da estimativa  YS . 
 
 
22
10
22





 
n
XYYY
n
YY
SY

 
 
 Intervalo de confiança: Os valores de Y obtidos pela relação 
XY 10ˆ   encontram-se situados num intervalo (região), que é revelado 
pelo intervalo: 
 
   22
2
0
2;2
11**ˆ
 


 XXn
XXn
n
StYY YnCALCULADO  , onde: Z 
(valor crítico do teste Z bilateral), X0 representa o valor dado de X e SY (erro 
padrão da estimativa). 
 
 Teste para verificar a hipótese H0: β1 = 0. Testa a inclinação da reta 
(coeficiente angular), se difere significativamente de uma reta com inclinação 
zero. 
 
2
S:onde ,
0
:
0:
0:
2
2
2
2
YX
2
2
1
11
10










n
SX
SXYSY
SX
S
TaEstatístic
H
H
Hipóteses
YX



 
 
 Exemplo de aplicação de uma regressão linear simples: 
 
 Aproveitando os dados utilizados na análise de correlação linear 
simples, estimar um modelo que represente a variação da pressão sistólica do 
indivíduo em função da idade, em seguida, calcular as estimativas destes 
valores e analisar o modelo estimado, conforme as medidas e testes 
explicados na parte teórica. 
 
 As estimativas dos parâmetros da equação de regressão são calculadas 
da seguinte forma: 
 
 
   
0254,0
1695295625*11
3,20*16955,4004*11
222
2
1 












XXn
YXXYn
XX
Xn
XYX
Yn
 
 
 
 22
 
XY
n
XY
XXn
XYXXY
XX
Xn
XXY
XY
1
1
22
2
2
2
0 

 




 






 
 
 
0759,2
11
1695*0254,0
11
3,20
0  
 
 
 
 
 Feito o modelo, pode-se, assim, estimar os valores de y, para cada par e 
valores que faz parte do conjunto de dados. Exemplo: p/ x = 75, y = 0,00 que 
são valores observados. O valor da estimativa de y calcula-se da seguinte 
forma:   1709,075*0254,00759,2ˆ Y . Como se pode observar, o valor 
estimado nem sempre coincide com o valor observado, às vezes pode ser 
menor ou maior, mas é o valor mais próximo, já que o método dos mínimos 
quadrados, utilizado para estimar a equação, proporciona estimar o valor de Y 
com o menor erro. Normalmente se estima todos os valores observados e 
verifica a distância entre os valores observados e estimados. 
 
 Um dos testes mais importantes para o modelo de regressão é a análise 
de variância (ANOVA), ilustrada a seguir. 
 
 Análise de variância da regressão linear simples: 
 
 Para compor a tabela da ANOVA é necessário alguns cálculos 
preliminares, que são as somas de quadrados, a saber: 
 
 Soma de quadrados totais (S.Q.T.): 
 
    8723,22
11
3,20335,60...
22
2   n
Y
YTQS 
 
y =-2,0759 + 0,0254x
r2 = 0,9752
-1
0
1
2
3
4
5
0 100 200 300
Concentração de CO2
C
O
2 a
bs
or
vi
do
 23
 Soma de Quadrados da Regressão (S.Q.Reg.) 
 
 
  












n
X
X
n
YX
XY
YY
XQS
SPgQS 2
2
2
22 ˆ
..
Re.. 
 
3041,22
11
1695295625
11
3,20*16955,4004
.Re.. 2
2





 
gQS 
 
 Soma de quadrados do Resíduo ou desvios da regressão (S.Q.R.): Este 
valor normalmente é obtido por diferença entre S.Q.T. e S.Q.Reg. 
S.Q.R. = 22,8723 - 22,3041 = 0,5682. 
 
Tabela da ANOVA 
 
Causas de 
Variação 
Graus de 
Liberdade 
Soma de 
Quadrados 
Quadrado 
Médio 
F 
Regressão 1 22,3041 22,3041 353,4723 
Resíduo 9 0,5682 0,0631 - 
Total 10 22,8723 - - 
 
 Para testar se o modelo é significativo, compara-se o valor de F 
calculado com os valores de F tabulados ao nível de 5% e 1% de significância. 
 
 No caso particular deste exemplo, tem-se: 





56,10
12,5
%1
9;1
%5
9;1
F
F
. 
 
 Como o valor de F calculado é 353,4723, significa que a variância ou 
quadrado médio devido à regressão (Q.M.Reg.) é 353,4723 vezes maior que a 
variância devido a fatores alheios à regressão, conhecido como resíduo ou 
desvios da regressão (Q.M.R.). Para que o modelo fosse significativo ao nível 
de 5% de significância, bastaria que Q.M.Reg. fosse 5,12 vezes maior que 
Q.M.R. A mesma lógica é utilizada na comparação com o nível de 1% de 
significância. Outra informação importante é que o teste F é utilizado, pois ao 
comparar duas variâncias ou quadrados médios, que têm distribuição qui-
quadrado, obtém-se a distribuição de F. 
 
Teste de hipóteses para verificar se o intercepto e o coeficiente de regressão 
do ajuste do modelo (betas) não são nulos. 
 
Algumas medidas devem estar disponíveis para serem aplicadas nas 
estatísticas, a saber: 
n = 11; S = (Q.M.R.)0,5 = 0,2513; SX2 = 295625; SQX = 34440,9091; 0 = -
2,0759; 1 = 0,0254; t5%;9 = 2,262. 
 24
 
As hipóteses a serem testadas são: 
 





0: 0:
0: 0:
1111
0100


HvsH
HvsH
 
 
Os testes a serem feitos são: 
0262,27577,18
0
:/
0262,23514,9
*
*
0
:/
19%;5
1
1
09%;52
0
0













t
SQX
S
tP
t
SQXn
X
S
tP
 
 
No caso dos testes serem significativos (e foram), os Intervalos de confiança 
(IC) a serem construídos são: 
 
 
 0285,0 a 00224,00031,00254,0*ˆ:/
5728,1 a 5772,25022,0075,2
*
**ˆ:/
2;2
11
2
2;2
00





SQX
StP
SQXn
X
StP
n
n




 
 
Ao testar e comprovar que o valor de 1 ≠ 0, rejeita-se a hipótese de que o 
coeficiente angular seja nulo e conclui-se que o incremento médio na absorção 
de CO2 é 0,0254 para o aumento de uma unidade em X. 
 
Como ambos os testes foram significativos, justificou-se estimar por intervalo 
os respectivos coeficientes linear e angular. Esse é o procedimento geral, 
ilustrado nesse exemplo, para aplicação de testes de hipóteses e estimação 
dos parâmetros do modelo linear simples. 
 
Dentre as várias formas existentes, a análise de regressão linear pode ser 
polinomial, com uma equação de grau “n” (y = β0 + β1x + ... + βnxn) ou pode ser 
uma regressão linear múltipla, com várias variáveis independentes (x1, x2, ..., 
xn) e uma dependente (y). A aplicação do método de mínimos quadrados se dá 
da mesma forma demonstrada anteriormente, obtendo-se sistemas de 
equações de retas normais e mínimos quadrados a saber: 
 
 
 
 
 
 
 
 
 
 25
Para regressões polinomiais de grau “n”: y = β0 + β1x + β2x2 + ... + βnxn. 
 























nn
n
xxnnn
n
n
n
n
n
n
n
n
xxxxxyx
xxxxxyx
xxxxxyx
xxxxxxy
xxxxny





...
...
...
...
...
...
3
3
2
2
1
10
36
3
5
2
4
1
3
0
3
25
3
4
2
3
1
2
0
2
14
3
3
2
2
10
3
3
2
210
 
 
 Assim como no caso da regressão linear simples, de primeiro grau, 
utilizam-se as duas primeiras linhas até as colunas referentes aos betas 0 e 1. 
No caso de polinômio de segundo grau, utilizam-se as três primeiras linhas e 
as colunas até as referentes aos betas 0, 1 e 2. Assim se faz até um polinômio 
de grau “n” qualquer. Tudo se resume à resolução de sistemas de equações. 
 
 Para regressões lineares múltiplas ou polinômio linear múltiplo: y = β0 + 
β1x1 + β2x2 + ... + βnxn. 
 




















2
22110
3322311303
2
2
22211202
1122
2
11101
22110
...
...
...
...
...
...
nnnnnn
nn
nn
nn
nn
xxxxxxyx
xxxxxxxyx
xxxxxxyx
xxxxxxyx
xxxny





 
 
 
 Conforme haja maior número de variáveis independentes, deve-se 
seguir a mesma lógica aplicada à regressão polinomial de grau “n”. 
 
 
 26
Resumo prático para análise de regressão linear simples – Forma 
matricial de resolução: 
 
Demonstração da resolução do sistema, de forma matricial: 
 
           
   YXXX
YXXXXXXXYXXX
'*'
'*'*'*' '*'
1
11




 
 
Matrizes iniciais: 
 
Matriz X, matriz de coeficientes, dos valores de X, assim como a matriz 
transposta de X = XT: 
 
n
T
n
XXX
X
X
X
X
X
...
1...11
 
1
......
1
1
21
2
1
 
Matriz dos valores de Y, variável resposta (ou dependente): 
nY
Y
Y
Y
...
2
1
 
 
Matriz dos valores desconhecidos (betas), parâmetros da equação, que se quer 
determinar: 
1
0


 
 
 
Matrizes que temos de obter: 
 

 2* XX
Xn
XX T A matriz (XT*X)-1 = Matriz inversa de (XT*X). 
 
 


XY
Y
YX T * 
 
Matriz dos valores dos parâmetros, betas: 
 
1
01 )*(*)*(


  YXXX TT
 O modelo construído é: XY ˆ*ˆ 10   . 
 27
Matriz das variâncias e covariâncias: Var/Cov: 
 
   
   110
1001
;
;
...*)*(/


VarCov
CovVar
RMQXXCovVar T   
 
 
Testando o coeficiente linear – intercepto: 
 
   0
0 0
0 

 Var
t  





0:
0:
01
00


H
H
Hipóteses 
 
Este valor deverá ser testado comparando com o valor tabular: 2;2/ nt 
 
Testando o coeficiente angular – inclinação da reta: 
 
   1
1 0
1 

 Var
t  





0:
0:
11
10


H
H
Hipóteses 
 
Este valor deverá ser testado comparando com o valor tabular: 2;2/ nt 
 
 
ANOVA de Regressão, para testar o modelo construído: 
 
Soma de Quadrados totais – Variação total da variável resposta, ou 
dependente, Y: 
 
 
n
Y
YVTYQS
2
2..   
 
Soma de quadrados da regressão, ou variação explicada: 
 
    
n
Y
YXVEgresQS TT
2
**Re..  
 
Observação: Os valores que compõem o fator de correção das fórmulas de 
S.Q.T. e S.Q.Reg., 
 
n
Y 2 , podem ser obtidos extraindo-se, diretamente, da 
matriz (1YT*1Y), obtida no cálculo do coeficiente de correlação. 
 
Soma de quadrados do resíduo ou erro: S.Q.R. = VR = S.Q.T. – S.Q.Regres. 
 
Graus de liberdade: 
Graus de liberdade do total: G.L.T. = n – 1 = nº de pares – 1. 
 28
Graus de liberdade da regressão = G.L. Regressão = P -1 = Nº de parâmetros 
– 1. Como numa regressão linear simples os parâmetros são 0 e 1, será 
sempre 2 – 1 = 1. 
Graus de liberdade do resíduo: G.L.R. = G.L.T. – G.L. Regressão = n – P = n – 
2. 
 
De agora em diante a tabela de ANOVA é auto-explicativa, a saber: 
 
F.V. ou C.V. G.L. S.Q. Q.M. F 
Regressão P – 1 S.Q.Regressão S.Q./ G.L. QM Regres/QMR 
Resíduo n – P S.Q.R. S.Q./G.L. 
Total n - 1 S.Q.T. 
 
O valor do F calculado será testado, comparando com os valores tabulados de 
F a 5%; 1% e 0,1% de significância, com (P – 1) e (n – P) graus de liberdade. 
 
É uma prática comum calcular as estimativas de Y -  Yˆ - e comparar os 
valores obtidos com os valores preditos. 
 
Calculando os valores de R2 e R2ajustado: 
 
 222
2
1*1
..
Re..
R
Pn
PRR
TotalQS
gressãoQSR
Ajustado 



 
 
A diferença básica entre os valores do R2 e R2ajustado consiste na adequação - 
ou ajuste - do valor de R2 levando-se em consideração o número de 
parâmetros (betas) 





Pn
P 1 para cada modelo construído, assim como a 
componente ambiental - ou aleatória  21 R - que envolve o fenômeno 
estudado. 
 
 
Determinando intervalo de confiança para os parâmetros: 
 
 
 
 
 0285,0 a 00224,0
0031,00254,01083,1*262,20254,0ˆˆ*ˆ:/
5728,1 a 5772,25022,0075,2
049264,0*262,2075,2ˆˆ*ˆ:/
6
12;2
11
02;2
00







xVtP
VtP
n
n




 
 
Determinação do Intervalo de confiança para os valores de Y obtidos pela 
relação XY 10ˆ   encontram-se situados num intervalo (região), que é 
 29
revelado pelo intervalo: 
 
   22
2
0
2;2
11**ˆ
 


 XXn
XXn
n
StYY YnCALCULADO  , 
onde: Z (valor crítico do teste Z bilateral), X0 representa o valor dado de X e SY 
(erro padrão da estimativa). 
 
 
Aplicação do método matricial na análise de regressão linear simples – 
deve ser estudado seguindo a sequência teórica, a partir da página 22. 
 
Matrizes iniciais: 
 
 0 1 75 
 0,65 1 100 
 0,5 1 100 
 1 1 120 
 0,95 1 130 
Y = 1,3 X = 1 130 
 1,8 1 160 
 2,8 1 190 
 2,5 1 200 
 4,3 1 240 
 4,5 1 250 
 
 
 1 1 1 1 1 1 1 1 1 1 1 
XT = 75 100 100 120 130 130 160 190 200 240 250 
 
 
Matrizes que temos de obter: 
 
 11 1695 
XT*X = 1695 295625 
 
 
 0,780322 -0,004474066 
(XT*X)-1 = -0,004474 2,90352E-05 
 
 
 20,3 
(XT*Y) = 4004,5 
 
 
 
 
 
 
 30
Determinação dos parâmetros do modelo (betas): 
 
 -2,075861159 
 = 0,025448067 
 
Análise da Variância da Regressão: 
 
O cálculo de SYY pode ser visto na página 12, com maiores detalhes. 
 
S.Q.T. = det(1YT*1Y) / n = 251,5953 / 11 = 22,8723. 
 
SYY = VT = S.Q.T. = 22,8723 
S.Q.Regress = 22,3041 
S.Q.R. = 0,5682 
(Y)2/n = 37,4627 
 YX TT ** = 59,5735 
 
Obs.: S. Q. Regressão =  YX TT ** -  
n
Y 2 
 
ANOVA 
C.V. ou F.V. G.L. S.Q. Q.M. F 
Regressão 1 22,3041 22,3041 353,2857 *** 
Resíduo 9 0,5682 0,0631 
Total 10 22,8723 
 
5%F(1;9) = 5,1174 
1%F(1;9) = 10,5614 
0,1%F(1;9) = 22,8571 
 
Obtenção da matriz de variâncias e covariâncias: 
 
 0,049264 -0,00028 
Var/Cov = -0,00028 1,83E-06 
 
 
Testando os parâmetros do modelo (betas): 
 
t(0) = -9,3526 * 
t(1) = 18,7959 * 
5%t9 = 2,2622 
 
 
 
 
 
 
 31
 
 
Determinando intervalo de confiança para os parâmetros: 
 
 
 
 
 0285,0 a 00224,0
0031,00254,01083,1*262,20254,0ˆˆ*ˆ:/
5728,1 a 5772,25022,0075,2
049264,0*262,2075,2ˆˆ*ˆ:/
6
12;2
11
02;2
00







xVtP
VtP
n
n




 
 
 
Calculando o coeficiente de determinação (r2) e o r2 ajustado (r2aj.): 
 
r2 = 0,975158 
r2aj. = 0,972397 
 
Determinandoas estimativas de Y  XY *ˆ 10   
Um exemplo, com X1: 1709,0)75(*0254,00759,21ˆ Y . 
 
X Y Yˆ 
75 0 -0,1709 
100 0,65 0,4641 
100 0,5 0,4641 
120 1 0,9721 
130 0,95 1,2261 
130 1,3 1,2261 
160 1,8 1,9881 
190 2,8 2,7501 
200 2,5 3,0041 
240 4,3 4,0201 
250 4,5 4,2741 
 
Obs.: As diferenças entre os valores preditos e os valores estimados são 
chamadas de erros ou resíduos. 
 
Os intervalos de confiança para os parâmetros (betas) assim como para as 
estimativas,  iYˆ , são calculados de forma usual, sem maiores dificuldades, 
com simples aplicações de fórmulas. 
 
Outra forma de fazer a análise de regressão linear simples usando o Excel é 
buscando a ferramenta Análise de dados, dentro do menu ferramentas. 
 
Na primeira vez que utilizar a ferramenta, deve-se buscar a opção suplemento 
e, então, solicitar que a opção análise de dados seja disponibilizada. 
 
 32
 
 
 
Nas demais vezes já poderão utilizar a ferramenta diretamente. 
 
 
 33
 
 
Dentro de Análise de dados, buscar a opção Análise de regressão: 
 
 
 
 
 
 
 
 
 
 
 
 
 
Ao escolher a opção regressão, selecionar os intervalos para Y e para X, para 
que os procedimentos sejam processados. 
 
 
 
O relatório de saída - Output - é o seguinte: 
 
RESUMO DOS RESULTADOS 
 
Estatística de regressão 
R múltiplo 0,987501 
R-Quadrado 0,975158 
R-quadrado 
ajustado 0,972397 
Erro padrão 0,251263 
Observações 11 
 
ANOVA 
 gl SQ MQ F 
F de 
significação 
Regressão 1 22,30407 22,30407 353,2857 1,57E-08 
Resíduo 9 0,568199 0,063133 
Total 10 22,87227 
 
 Coeficientes 
Erro 
padrão Stat t valor-P 95% inferiores 
95% 
superiores 
Inferior 
95,0% 
Superior 
95,0% 
Interseção -2,07586 0,221956 -9,3526 6,23E-06 -2,57796 -1,57376 -2,57796 -1,573762867 
X 0,025448 0,001354 18,7959 1,57E-08 0,022385 0,028511 0,022385 0,028510837 
 
 
Exemplo de aplicação de uma regressão linear simples: 
 
Os dados a seguir representam a pressão sistólica (P.S.) de 30 pessoas que 
participaram de uma pesquisa, pareados à idade de cada uma delas. 
Determinar a equação que estima a pressão sistólica do indivíduo em função 
da idade, em seguida, calcular as estimativas destes valores e analisar o 
modelo estimado, conforme as medidas e testes explicados na parte teórica. 
n Idade P.S. n Idade P.S. 
1 39 144 16 48 130 
2 47 220 17 45 135 
3 45 138 18 17 114 
4 47 145 19 20 116 
5 65 162 20 19 124 
6 46 142 21 36 136 
7 67 170 22 50 142 
8 42 124 23 39 120 
9 67 158 24 21 120 
10 56 154 25 44 160 
11 64 162 26 53 158 
12 56 150 27 63 144 
13 59 140 28 29 130 
14 34 110 29 25 125 
15 42 128 30 69 175 
 
Só aprende quem pratica, ...!!!

Outros materiais