Buscar

Apostila-Modelos_Lineares_I (Rencher)

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 379 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 379 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 379 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

A P O S T I L A 
 
 
LCE 5861-3 
MODELOS LINEARES 
 
 
 
Material preparado 
pelo Prof. Dr. César Gonçalves de Lima 
 
 
 
 
 
 
Linear Models in Statistics 
ALVIN C. RENCHER 
Department of Statistics 
Brigham Young University, Provo, Utah 
A Wiley-Interscience Publication, 2000 
JOHN WILEY & SONS, INC. 
 
 ii
C O N T E Ú D O 
 
1. INTRODUÇÃO .................................................................................................. 1 
1.1. Modelo de Regressão Linear Simples ........................................................... 1 
1.2. Modelo de Regressão Linear Múltipla .......................................................... 1 
1.3. Modelos de Análise de Variância .................................................................. 3 
 
2. ÁLGEBRA DE MATRIZES ............................................................................. 4 
2.1 Matrizes e vetores ........................................................................................... 4 
2.1.1. Matrizes, vetores e escalares .................................................................. 4 
2.1.2. Igualdade de matrizes ............................................................................. 5 
2.1.3. Matriz transposta .................................................................................... 5 
2.1.4. Alguns tipos especiais de matrizes ......................................................... 6 
2.2. Operações com matrizes ................................................................................ 7 
2.2.1. Adição de duas matrizes ......................................................................... 7 
2.2.2. Produto de duas matrizes ........................................................................ 8 
2.2.3. Soma direta ........................................................................................... 14 
2.2.4. Produto direto ou de Kronecker ........................................................... 15 
2.2.5. Potência de matriz quadrada ................................................................ 16 
2.3. Matrizes particionadas ................................................................................. 17 
2.4. Posto (rank) de uma matriz ......................................................................... 19 
2.5. Inversa de uma matriz ................................................................................. 23 
2.6. Matrizes positivas definidas ........................................................................ 25 
2.7. Sistemas de equações .................................................................................. 29 
2.8. Inversas Generalizadas ................................................................................ 32 
2.8.1. Definição e propriedades ...................................................................... 32 
2.8.2. Inversas generalizadas e sistemas de equações .................................... 36 
2.9. Determinantes .............................................................................................. 37 
2.10. Vetores ortogonais e matrizes ................................................................... 39 
2.11. Traço de uma matriz .................................................................................. 41 
2.12. Autovalores e autovetores ......................................................................... 42 
2.12.2. Funções de uma matriz ....................................................................... 43 
2.12.3. Produtos .............................................................................................. 44 
 iii 
2.12.4. Matrizes simétricas ............................................................................. 45 
2.12.5. Matriz positiva definida e positiva semidefinida ............................... 45 
2.13. Matrizes idempotentes ............................................................................... 46 
2.14 Derivadas de funções lineares e formas quadráticas .................................. 47 
Lista de Exercícios Adicionais ........................................................................... 50 
 
3. VETORES E MATRIZES ALEATÓRIOS ................................................... 54 
3.1. Introdução .................................................................................................... 54 
3.2. Média, variância, covariância e correlação ................................................. 55 
3.3. Vetor de médias e matriz de covariância para vetores aleatórios ............... 57 
3.3.1. Vetor de médias .................................................................................... 57 
3.3.2. Matriz de covariâncias .......................................................................... 57 
3.3.3. Variância generalizada ......................................................................... 59 
3.3.4. Distância padronizada .......................................................................... 59 
3.4. Matriz de correlações .................................................................................. 59 
3.5. Vetor de médias e matriz de covariância para vetores aleatórios particio-
nados ........................................................................................................... 60 
3.6. Funções Lineares de vetores aleatórios ....................................................... 61 
3.6.1. Média de uma função linear ................................................................. 61 
3.6.2. Variâncias e covariâncias de uma função linear .................................. 62 
 
4. DISTRIBUIÇÃO NORMAL MULTIVARIADA ......................................... 64 
4.1. Função densidade normal univariada .......................................................... 64 
4.2. Função densidade normal multivariada ...................................................... 64 
4.3. Funções geradoras de momentos ................................................................. 66 
4.4. Propriedades da distribuição normal multivariada ...................................... 68 
4.5. Correlação parcial ........................................................................................ 72 
 
5. DISTRIBUIÇÃO DE FORMAS QUADRÁTICAS ...................................... 74 
5.1. Somas de quadrados .................................................................................... 74 
5.2. Média e variância de formas quadráticas .................................................... 75 
5.3. Distribuição quiquadrado não central ......................................................... 78 
5.4. Distribuições t e F não centrais ................................................................... 80 
 iv
5.4.1. Distribuição F não central .................................................................... 80 
5.4.2. Distribuição t não central ..................................................................... 81 
5.5. Distribuição de formas quadráticas ............................................................. 81 
5.6. Independência de formas lineares e formas quadráticas ............................. 82 
Apêndice A.5. Classificação de formas quadráticas .......................................... 85 
 
6. REGRESSÃO LINEAR SIMPLES ................................................................ 86 
6.1. Modelo ......................................................................................................... 86 
6.2. Estimação de β0, β1 e σ2 ............................................................................. 86 
6.3. Teste de hipóteses e intervalo de confiança para β1 .................................... 90 
6.4. Coeficiente de determinação ....................................................................... 91 
 
7. REGRESSÃO LINEAR MÚLTIPLA: ESTIMAÇÃO .................................93 
7.1. Introdução .................................................................................................... 93 
7.2. Modelo ......................................................................................................... 93 
7.3. Estimação de ββββ e de σ2 ................................................................................ 97 
7.3.1. Estimador de mínimos quadrados de ββββ ................................................ 97 
7.3.2. Propriedades dos estimadores de mínimos quadrados ββββˆ .................... 100 
7.3.3. Um estimador para σ2.......................................................................... 104 
7.4. Geometria de mínimos quadrados ............................................................. 106 
7.4.1. Espaço de variáveis ............................................................................ 106 
7.4.2. Espaço amostral .................................................................................. 107 
7.5. O modelo na forma centrada ..................................................................... 108 
7.6. O modelo normal ....................................................................................... 111 
7.6.1. Suposições .......................................................................................... 111 
7.6.2. Estimadores de máxima verossimilhança de ββββ e σ2 ........................... 111 
7.6.3. Propriedades de ββββˆ e 2σˆ ...................................................................... 112 
7.7. O coeficiente de determinação R2 na regressão com x-fixos ..................... 113 
7.8. Mínimos quadrados generalizados: cov(y) = σ2V ..................................... 115 
7.8.1. Estimação de ββββ e σ2 quando cov(y) = ΣΣΣΣ = σ2V .................................. 116 
7.8.2. Falha de especificação da estrutura de erros ...................................... 118 
7.9. Falha na especificação do modelo ............................................................. 120 
7.10. Ortogonalização ....................................................................................... 122 
 v 
8. REGRESSÃO MÚLTIPLA: TESTES DE HIPÓTESES E INTERVA-
LOS DE CONFIANÇA .................................................................................. 126 
8.1. Teste de regressão global .......................................................................... 126 
8.2. Teste sobre um conjunto de β’s ................................................................. 129 
8.3. Testes F baseados no coeficiente de determinação ................................... 134 
8.4. Teste da hipótese linear geral H0: Cββββ = 0 e da hipótese H0: Cββββ = t ....... 134 
8.4.1. O teste da hipótese H0: Cββββ = 0 ........................................................... 134 
8.4.2. O teste da hipótese H0: Cββββ = t ............................................................ 138 
8.5. Testes sobre βj e a’ββββ .................................................................................. 139 
8.5.1. Testando um βj ou uma combinação a’ββββ ........................................... 139 
8.5.2. Testar diversos βj’s ou diversas combinações ai’ββββ ............................ 140 
8.6. Intervalos de confiança e intervalos de predição ...................................... 143 
8.6.1. Região de confiança para ββββ ................................................................ 143 
8.6.2. Intervalo de confiança para βj ............................................................ 143 
8.6.3. Intervalo de confiança para a’ββββ .......................................................... 144 
8.6.4. Intervalo de confiança para E(y) ........................................................ 144 
8.6.5. Intervalo de predição para uma observação futura ............................ 145 
8.6.6. Intervalo de confiança para σ2 ............................................................ 146 
8.6.7. Intervalos simultâneos ........................................................................ 147 
8.7. Testes da razão de verossimilhança .......................................................... 148 
 
9. REGRESSÃO MÚLTIPLA: VALIDAÇÃO DO MODELO E DIAG-
NÓSTICO ........................................................................................................ 150 
9.1. Resíduos e análises gráficas de diagnóstico .............................................. 150 
9.2. A matriz (que coloca) chapéu ou hat matrix ............................................. 154 
9.3. Outliers ...................................................................................................... 156 
9.4. Observações influentes e leverage ............................................................ 159 
 
10. REGRESSÃO MÚLTIPLA: X’S ALEATÓRIOS .................................... 162 
10.1. Modelo de regressão normal multivariada............................................... 162 
10.2. Estimação na regressão normal multivariada .......................................... 163 
10.3. R2 na regressão normal multivariada ....................................................... 169 
10.4. Testes e intervalos de confiança .............................................................. 172 
 vi
10.5. Efeito de cada variável em R2 .................................................................. 176 
10.6. Predição para dados não-normais ............................................................ 179 
10.7. Correlações parciais amostrais ................................................................ 180 
 
11. MODELOS DE ANÁLISE DE VARIÂNCIA ........................................... 184 
11.1 Modelos de posto incompleto .................................................................. 184 
11.1.1. Modelo com um fator (one-way model) ........................................... 184 
11.1.2. Modelo com dois fatores (two way model) ...................................... 187 
11.2. Estimação ................................................................................................ 190 
11.2.1. Estimabilidade de ββββ .......................................................................... 190 
11.2.2. Funções estimáveis de ββββ ................................................................... 193 
11.3. Estimadores ............................................................................................. 197 
11.3.1. Estimadores de λλλλ’ββββ ........................................................................... 197 
11.3.2. Um estimador de σ2 .......................................................................... 201 
11.3.3. Modelo normal ................................................................................. 202 
11.4. Reparametrização .................................................................................... 203 
11.5. Condições marginais ............................................................................... 205 
11.6. Testando hipóteses .................................................................................. 208 
11.6.1. Hipóteses testáveis ........................................................................... 208 
11.6.2. Modelo completo e modelo reduzido ............................................... 209 
11.6.3. Hipótese linear geral H0: Cββββ = 0 ...................................................... 212 
11.7. Uma ilustração de estimação e teste de hipótese .................................... 214 
11.7.1. Funções estimáveis ........................................................................... 214 
11.7.2. Testando uma hipótese ..................................................................... 215 
11.7.3. Ortogonalidade das colunas de X ..................................................... 217 
 
12. ANÁLISE DE VARIÂNCIA COM UM FATOR: CASO BALANCEA-
DO ...................................................................................................................221 
12.1. O modelo com um fator .......................................................................... 221 
12.2. Funções estimáveis .................................................................................. 222 
12.3. Estimação de parâmetros ......................................................................... 222 
12.3.1. Resolvendo o sistema de equações normais ..................................... 222 
12.3.1a. Condições marginais .................................................................. 223 
 vii 
12.3.1b. Inversa generalizada ................................................................... 224 
12.3.2. Um estimador para σ2 ....................................................................... 225 
12.4. Testando a hipótese H0: µ1 = µ2 = … = µk ............................................... 225 
12.4.1. Modelo completo versus modelo reduzido ...................................... 226 
12.4.2. Hipótese linear geral ......................................................................... 229 
12.5. Esperança matemática dos quadrados médios ........................................ 232 
12.5.1. Modelo completo versus modelo reduzido ...................................... 233 
12.5.2. Hipótese linear geral ......................................................................... 235 
12.6. Contrastes ................................................................................................ 236 
12.6.1. Teste de hipótese para um contraste ................................................. 237 
12.6.2. Contrastes ortogonais ....................................................................... 238 
12.6.3. Contrastes polinomiais ortogonais ................................................... 243 
Apêndice: Programas no proc iml do SAS .................................................. 251 
 
13. ANÁLISE DE VARIÂNCIA COM DOIS FATORES: CASO BALAN-
CEADO .......................................................................................................... 253 
13.1. O modelo com dois fatores ...................................................................... 253 
13.2. Funções estimáveis .................................................................................. 254 
13.3. Estimadores de λλλλ’ββββ e σ2 .......................................................................... 258 
13.3.1. Resolvendo o sistema de equações normais e estimando λλλλ’ββββ ......... 258 
13.3.1a. Condições marginais .................................................................. 258 
13.3.1b. Inversa generalizada ................................................................... 259 
13.3.2. Um estimador para σ2 ....................................................................... 260 
13.4. Testando hipóteses .................................................................................. 260 
13.4.1. Testa para a interação ....................................................................... 260 
13.4.1a. A hipótese de interação .................................................................. 260 
13.4.1b. Teste do modelo completo versus modelo reduzido baseado nas 
equações normais ........................................................................... 263 
13.4.1c. Teste do modelo completo versus modelo reduzido baseado em 
uma inversa generalizada ............................................................... 266 
13.4.2. Testes para os efeitos principais ....................................................... 270 
13.4.2a. Abordagem modelo completo versus modelo reduzido ............. 270 
13.4.2b. Abordagem baseada na hipótese linear geral ............................. 275 
 viii
13.5. Esperança dos quadrados médios ............................................................ 277 
13.5.1. Abordagem baseada nas somas de quadrados .................................. 277 
13.5.2. Abordagem baseada na forma quadrática ........................................ 279 
Apêndice: Programa do proc iml do SAS .................................................... 283 
 
14. ANÁLISE DE VARIÂNCIA: DADOS DESBALANCEADOS ............... 287 
14.1. Introdução ................................................................................................ 287 
14.2. Modelo com um fator .............................................................................. 288 
14.2.1. Estimação e teste de hipótese ........................................................... 288 
14.2.2. Contrastes ......................................................................................... 291 
14.3. Modelo com dois fatores ......................................................................... 294 
14.3.1. Modelo incondicional ....................................................................... 295 
14.3.2. Modelo condicional .......................................................................... 301 
Apêndice: Programas do proc iml do SAS .................................................. 306 
 
15. ANÁLISE DE COVARIÂNCIA ................................................................. 313 
15.1. Introdução ................................................................................................ 313 
15.2. Estimação e testes de hipóteses ............................................................... 314 
15.2.1. O modelo de análise de covariância ................................................. 314 
15.2.2. Estimação ......................................................................................... 316 
15.2.3. Testes de hipóteses ........................................................................... 318 
15.3. Modelo com um fator (one way) e com uma covariável ......................... 318 
15.3.1. O modelo .......................................................................................... 319 
15.3.2. Estimação ......................................................................................... 319 
15.3.3. Testes de hipóteses ........................................................................... 320 
15.3.3a. Tratamentos .............................................................................. 320 
15.3.3b. Coeficiente angular (slope) ...................................................... 322 
15.3.3c Homogeneidade dos coeficientes angulares .............................. 322 
15.4. Modelo com dois fatores (two way) e uma covariável ............................ 327 
15.4.1 Testes para os efeitos principais e interação ..................................... 327 
15.4.2 Teste para o coeficiente angular (slope) ............................................ 332 
15.4.3 Teste para a homogeneidade dos coeficientes angulares (slopes) .... 333 
15.5. Modelo one-way com múltiplas covariáveis ........................................... 334 
 ix
15.5.1. O modelo .......................................................................................... 334 
15.5.2. Estimação ......................................................................................... 335 
15.5.3. Testando hipóteses ........................................................................... 338 
15.5.3a. Tratamentos ................................................................................ 338 
15.5.3b. Vetor de coeficientes angulares (slopes) .................................... 339 
15.5.3c. Homogeneidade dos vetores de coeficientes angulares ............. 339 
15.6. Análise de covariância com modelos desbalanceados ............................ 342 
Apêndice – Programas no proc iml .................................................................. 344 
 
16. MODELOS DE EFEITOS ALEATÓRIOS E MODELOS DE EFEI-
TOS MISTOS ............................................................................................... 313 
16.1. Introdução ................................................................................................352 
16.2. Estimação de λ’β e predição de a em y = Xββββ + Za + εεεε .......................... 355 
16.2.1. Melhor estimador linear não-viesado (blue) de λ’β ......................... 355 
16.2.2. Melhor preditor linear não-viesado (blup) do vetor aleatório a ....... 356 
16.3. Estimação de componentes de variância ................................................. 358 
16.3.1. Esperança dos quadrados médios ..................................................... 359 
16.3.2 Estimadores ANOVA ........................................................................ 361 
16.4 Testes de hipóteses ................................................................................... 362 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
1
CAPÍTULO 1 – INTRODUÇÃO 
 
Os métodos estatísticos (modelos lineares) são amplamente usados como parte do 
processo de aprendizagem do método científico. Na biologia, física e ciências sociais, 
como também nos negócios e engenharia, os modelos lineares são úteis nos estágios 
de planejamento da pesquisa e na análise dos dados resultantes. Nas seções 1.1, 1.2 e 
1.3 nós daremos uma breve introdução aos modelos de regressão linear simples, mo-
delos de regressão linear múltipla e modelos de análise de variância. 
 
 
1.1. MODELO DE REGRESSÃO LINEAR SIMPLES 
Na regressão linear simples, nós nos preocupamos em modelar a relação entre duas 
variáveis, por exemplo, rendimento e número de anos de educação, altura e peso de 
pessoas, comprimento e largura de envelopes, altitude e temperatura de ebulição da 
água, dose de uma droga e resposta, quantidade de adubo e produção de gramíneas. 
Para uma relação linear, nós usamos um modelo da forma: 
y = β0 + β1x + ε (1.1) 
onde y é a variável dependente ou variável resposta e x é a variável independente ou 
variável preditora. A variável aleatória ε é o termo de erro no modelo. Nesse contex-
to, o erro não significa engano ou equívoco, mas sim um termo estatístico que repre-
senta flutuações aleatórias, erros de medidas ou o efeito de fatores não controlados. 
 A linearidade do modelo em (1.1) é uma suposição. Geralmente, nós adiciona-
mos outras suposições sobre a distribuição do erro, independência dos valores obser-
vados de y, assim por diante. Usando valores observados de x e y, nós estimamos β0 e 
β1 e fazemos inferências tais como intervalos de confiança e testes de hipóteses sobre 
β0 e β1. Nós também podemos usar o modelo estimado para prever ou predizer o va-
lor de y para um particular valor de x. 
 Estimação e procedimentos inferenciais para o modelo de regressão linear 
simples são desenvolvidos e ilustrados no Capítulo 6. 
 
 
1.2. MODELO DE REGRESSÃO LINEAR MÚLTIPLA 
Muitas vezes a resposta y é influenciada por mais de uma variável preditora. Por 
exemplo, a produção de uma colheita pode depender das quantidades de nitrogênio, 
potássio e fosfato usadas. Essas variáveis são controladas pelo experimentador, mas a 
produção também pode depender de variáveis não controladas como aquelas associa-
das com o tempo. 
 Um modelo linear relacionando y a diversas variáveis preditoras tem a forma 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
2
y = β0 + β1x1 + β2x2 + … + βkxk + ε (1.2) 
onde os parâmetros β0, β1, β2, …, βk são chamados coeficientes de regressão. Como 
em (1.1), ε é a variação aleatória em y não explicada pelos x’s. Essa variação aleató-
ria pode ser em parte devido a outras variáveis que afetam y mas não são conhecidas 
ou não foram observadas. 
 O modelo (1.2) é linear nos β’s, mas não é necessariamente linear nos x’s. 
Assim, o modelo: 
y = β0 + β1x1 + β2 21x +β3x2 + β4 seno(x2) + ε 
está incluído na designação de modelos lineares, mas o modelo 
y = β0 + β1 ( )02 xxe −β + ε 
não é linear (nos parâmetros). 
 Um modelo fornece uma estrutura teórica para um melhor entendimento de um 
fenômeno de interesse. Assim um modelo é uma construção matemática que nós 
acreditamos poder representar o mecanismo que gerou as observações que temos em 
mãos. O modelo postulado pode ser uma simplificação idealizada de uma situação 
real e complexa mas, em muitos desses casos, esses modelos empíricos fornecem 
aproximações úteis das relações entre as variáveis. Essas relações podem ser associa-
tivas ou causais. 
 Modelos de regressão tais como em (1.2) são usados para vários propósitos, in-
cluindo os seguintes: 
 1. Predição. Estimativas dos parâmetros individuais β0, β1, β2, …, βk são de 
menor importância para a predição que a influência total dos x’s sobre y. 
Entretanto, boas estimativas são necessárias para conseguirmos uma boa 
performance na predição. 
 2. Descrição ou Exploração dos Dados. O cientista ou engenheiro usa o modelo 
estimado para resumir ou descrever os dados observados. 
 3. Estimação dos Parâmetros. Os valores das estimativas dos parâmetros podem 
ter implicações teóricas para um modelo postulado. 
 4. Seleção de variáveis. A ênfase está na determinação da importância de cada 
variável preditora em modelar a variação em y. As variáveis preditoras que es-
tão associadas com uma importante quantidade de variação em y são mantidas; 
aquelas que contribuem pouco podem ser deletadas. 
 5. Controle da saída. Se uma relação de causa-efeito entre y e x é assumida, o 
modelo estimado deve então ser usado para controlar as saídas de um processo 
variando as entradas. Por experimentação sistemática, pode ser possível conse-
guir a saída ótima. 
 Existe uma diferença fundamental entre os propósitos 1 e 5. Para a predição, 
nós necessitamos somente que as mesmas correlações que prevaleceram quando os 
dados foram coletados, continuem no lugar quando as predições forem feitas. Mostrar 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
3
que existe uma relação significativa entre y e os x’s em (1.2) não necessariamente 
prova que a relação é causal. Para estabelecer causalidade a fim de controlar a saída, 
o pesquisador deve escolher os valores dos x’s no modelo e usar aleatorização para 
evitar os efeitos de outras possíveis variáveis não explicativas. Isto é, para verificar o 
efeito dos x’s sobre y quando os x’s são mudados, é necessário mudá-los. 
 Estimação e procedimentos inferenciais que contribuem para os cinco propósi-
tos apresentados anteriormente são discutidos nos Capítulos 7-10. 
 
1.3. MODELOS DE ANÁLISE DE VARIÂNCIA 
Em modelos de análise de variância, nós estamos interessados em comparar diversas 
populações ou comparar diversas condições em um experimento. Modelos de análise 
de variância podem ser expressos como modelos lineares de valores restritos de x. 
Freqüentemente os x’s são 0’s ou 1’s. Por exemplo, suponha que um pesquisador de-
seje comparar o rendimento de quatro catalisadores em um processo industrial. Se n 
observações são obtidas para cada catalisador, um modelo para as 4n observações 
pode ser expresso como: 
yij = µi + εij , i = 1, 2, 3, 4, j = 1, 2, …, n (1.3) 
onde µi é a média correspondente ao i-ésimo catalisador. Uma hipótese de interesse é 
H0: µ1 = µ2 = µ3 = µ4. O modelo em (1.3) pode ser expresso de uma forma alternativa 
como 
yij = µ + αi + εij , i = 1, 2, 3, 4, j = 1, 2, …, n (1.4) 
Nesta forma, αi é o efeito do i-ésimo catalisador e a hipótese de interesse pode ser 
expressa como H0: α1 = α2 = α3 = α4 = 0. 
 Suponha agora, que o pesquisador também deseje comparar o efeito de três ní-
veis de temperatura e que n observações são tomadas em cada uma das 12 combina-
ções catalisador-temperatura. Então o modelo pode ser expresso como 
yijk = µij + εijk = µ + αi + βj + γij + εijk (1.5) 
i = 1, 2, 3, 4, j = 1, 2, 3, k = 1, 2, …, n 
onde µij é a média da (ij)-ésima combinação catalisador-temperatura, αi é o efeito do 
i-ésimo catalisador, βj é o efeito do j-ésimo nível de temperatura, γij é a interação ou 
efeitoconjunto do i-ésimo catalisador e j-ésimo nível de temperatura. 
 Nos exemplos que conduzem aos modelos (1.3), (1.4) e (1.5), o pesquisador 
escolhe os tipos de catalisador ou os níveis de temperatura e assim aplica diferentes 
tratamentos aos objetos ou unidades experimentais sob estudo. Em outros ajustes, nós 
comparamos as médias de variáveis medidas em grupos naturais de unidades, por 
exemplo, machos e fêmeas de várias áreas geográficas. 
 Modelos de análise de variância podem ser tratados como um caso especial de 
modelos de regressão, mas é mais conveniente analisá-los separadamente. Isso é feito 
nos Capítulos 11-14. Tópicos relacionados, tais como análise de covariância e 
modelos mistos, serão cobertos nos Capítulos 15 e 16. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
4 
CAPÍTULO 2. ÁLGEBRA DE MATRIZES. 
 
2.1. MATRIZES E VETORES 
2.1.1. Matrizes, vetores e escalares. 
Uma matriz é um arranjo retangular de número ou de variáveis em linhas e colunas. 
Nesse texto estaremos considerando matrizes de números reais, que serão denotadas 
por letras maiúsculas em negrito. Os seus elementos serão agrupados entre colchetes. 
Por exemplo: 
A = 





3921
1210
; B = 





161413151210
111111
; X = 












101
101
011
011
 
Para representar os elementos da matriz X como variáveis, nós usamos: 
X = (xij) = 












434241
333231
232221
131211
xxx
xxx
xxx
xxx
 
A notação X = (xij) representa uma matriz por meio de um elemento típico. O 
primeiro índice indica a linha e o segundo índice identifica a coluna. Uma matriz 
genérica X tem n linhas e p colunas. A matriz X do Exemplo 1 tem n = 4 linhas e p = 
3 colunas e nós dizemos que X é 4x3, ou que a dimensão de X é 4x3. Para indicar a 
dimensão da matriz, podemos usar 34 X ou ( )3x4X . 
Um vetor é uma matriz com uma única coluna e é denotado por letras minús-
culas, em negrito. Os elementos de um vetor são muitas vezes identificados por um 
único índice, por exemplo, 
y = 










3
2
1
y
y
y
 
Geralmente o termo vetor está associado a um vetor coluna. Um vetor linha é expres-
so como o transposto do vetor coluna, como por exemplo, 
y’ = ty = [ ]321 ,, yyy = [ ]321 yyy 
(A transposta de uma matriz será definida mais adiante). 
Geometricamente, um vetor de n elementos está associado a um ponto no espa-
ço n-dimensional. Os elementos do vetor são as coordenadas do ponto. Em algumas 
situações, nós estaremos interessados em calcular: 
 (i) a distância da origem ao ponto (vetor), 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
5 
 (ii) a distância (d) entre dois pontos (vetores), ou 
(iii) o ângulo (θ) entre as linhas formadas da origem até os dois pontos. 
 
 
 No contexto de matrizes e vetores, um número real é chamado de um escalar. 
Assim, os números 2,5, -9 e 3,14 são escalares. Uma variável representando um esca-
lar será denotada por uma letra minúscula e sem negrito. Por exemplo: c = 3,14 indi-
ca um escalar. 
 
2.1.2. Igualdade de Matrizes 
Duas matrizes (ou dois vetores) são iguais se têm a mesma dimensão e se os elemen-
tos de posições correspondentes são iguais. Por exemplo: 





 −
731
423
 = 




 −
731
423
 
mas 






−
−
648
925
 ≠ 





−
−
648
935
 
 
 
2.1.3. Matriz Transposta 
Se nós trocarmos de posição as linhas e as colunas de uma matriz A, a matriz resul-
tante é conhecida como a transposta de A e é denotada por A’ ou tA . Formalmente, 
se nAp = (aij) então a sua transposta é dada por: 
np A' = 
tA = (aij)’ = (aji) (2.3) 
Por exemplo: Se A = 




 −
731
423
 ⇒ A’ = 










−
74
32
13
 é a sua transposta. 
A notação (aji) indica que o elemento da i-ésima linha e j-ésima coluna de A é encon-
trado na j-ésima linha e i-ésima coluna de A’. Se A é nxp então A’ é pxn. 
 
Teorema 2.1.A. Se A é uma matriz qualquer, então 
(A’)’ = A (2.4) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
6 
2.1.4 Alguns tipos especiais de matrizes 
Se a transposta de uma matriz A é a mesma da matriz original, isto é, se A’ = A ou, 
equivalentemente, (aji) = (aij), então dizemos que a matriz A é simétrica. Por exem-
plo, 
A = 










−
−
976
7102
623
 
é simétrica. É evidente que toda matriz simétrica é quadrada. 
 
A diagonal de uma matriz quadrada pAp= (aij) consiste dos elementos a11, a22, 
…, app, ou seja, diag(A) = (aii). No exemplo anterior, a diagonal da matriz A é forma-
da pelos elementos 3, 10 e 9. 
 
 Se a matriz nAn contém zeros em todas as posições fora da diagonal ela é uma 
matriz diagonal, como por exemplo, 
D = 














−
4000
0000
0030
0008
 
que também pode ser denotada como 
D = diag(8, –3, 0, 4) 
 
Nós usamos a notação diag(A) para indicar a matriz diagonal com os mesmos ele-
mentos da diagonal de A, como por exemplo, 
A = 










−
−
976
7102
623
 ⇒ diag(A) = 










900
0100
003
 
Uma matriz diagonal com o número 1 em cada posição da sua diagonal é cha-
mada de matriz identidade e é denotada por I, como por exemplo, 
I(3) = diag(1, 1, 1) = 










100
010
001
 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
7 
Uma matriz triangular superior é uma matriz quadrada com zeros abaixo da 
diagonal, como por exemplo, 
T = 












−
−
8000
1400
6200
5327
 
 
Um vetor de 1’s é denotado por j: 
j = 












1
1
1
M
 
 
Uma matriz quadrada de 1’s é denotada por J, como por exemplo, 
J(3x3) = 










111
111
111
 
 
Nós denotamos um vetor de zeros por 0 e uma matriz de zeros por Ο ou ΦΦΦΦ , 
por exemplo, 
0 = 










0
0
0
, Ο= ΦΦΦΦ = 










000
000
000
. 
 
 
2.2. OPERAÇÕES COM MATRIZES 
 
2.2.1 Adição de duas matrizes 
Se duas matrizes têm a mesma dimensão, sua soma é encontrada adicionando os ele-
mentos correspondentes. Assim, se A(nxp) e B(nxp), então C = A + B também é nxp e é 
encontrada como C = (cij) = (aij + bij). Por exemplo, 






−
−
582
437
 + 




 −
243
6511
 = 





−
−
3125
2218
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
8 
A diferença D = A – B entre as matrizes A e B é definida similarmente: D = (dij) = 
(aij – bij). Duas propriedades importantes da adição de matrizes são dadas a seguir: 
 
Teorema 2.2A. Se A e B são nxp, então: 
(i) A + B = B + A (2.9) 
(ii) (A + B)’ = A’ + B’ (2.10) 
 
 
2.2.2 Produto de duas matrizes 
Para que o produto AB de duas matrizes seja possível, o número de colunas da matriz 
A deve ser igual ao número de linhas de B. Neste caso, dizemos que as matrizes A e 
B são conformes. Então, o (ij)-ésimo elemento do produto C = AB é definido como: 
cij = ∑
k
kjikba (2.11) 
que é igual à soma dos produtos dos elementos da i-ésima linha de A pelos elementos 
da j-ésima coluna de B. Assim, nós multiplicamos todas as linhas de A por todas as 
colunas de B. Se A é (nxm) e B é (mxp) então C = AB é (nxp). Por exemplo, 
A(2x3) = 





564
312
 e B(3x2) = 









83
62
41
 
Então 
2A��B2 = 2C2 = 





++++
++++
)8)(5()6)(6()4)(4()3)(5()2)(6()1)(4(
)8)(3()6)(1()4)(2()3)(3()2)(1()1)(2(
 = 





9231
3813
 
3B��A3 = 3D3 = 










495138
363828
232518
 
 Se A é nxm e B é mxp, onde n ≠ p, então o produto AB é definido, mas BA não 
é definido. Se A é nxp e B é pxn, então AB é nxn e BA é pxp. Neste caso, certamen-
te, AB ≠ BA, como ilustrado no exemplo anterior. Se A e B são nxn então AB e BA 
têm o mesmo tamanho, mas, em geral: 
AB ≠ BA (2.12) 
A matriz identidade I(n) é o elemento neutro da multiplicação de matrizes. Isto 
quer dizer que, se A é n x n então AI = IA = A. 
A multiplicação de matrizes não é comutativa e algumas manipulações familia-
res com números reais não podem ser feitas com matrizes. Entretanto, a multiplicação 
de matrizes é distributiva em relação à soma ou subtração: 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
9 
A(B ± C) = AB ± AC (2.13) 
(A ± B)C = AC ± BC (2.14) 
 
Usando (2.13) e (2.14) nós podemos expandir produtos como (A – B)(C – D): 
 (A – B)(C – D) = (A – B)C – (A – B)D 
 = AC – BC – AD + BD (2.15) 
 
 A multiplicação envolvendo vetores segue as mesmas regras das matrizes. Su-
ponha A(nxp), b(px1), c(px1) e d(nx1). Então: 
• Ab é um vetor coluna nx1 
• d’A é um vetor linha de dimensão 1xp 
• b’c é um escalar correspondendo à soma de produtos 
• bc’ é uma matriz pxp 
• cd’ é uma matriz pxn 
 
Desde que b’c é uma soma de produtos (um escalar!) tem-se que b’c = c’b: 
b’c = b1c1 + b2c2 + … + bpcp 
c’b = c1b1 + c2b2 + … + cpbp 
⇒ b’c = c’b (2.16) 
 
A matriz cd’ é dada por 
cd’ = 












pc
c
c
M
2
1
[d1 d2 … dn] = 












nppp
n
n
dcdcdc
dcdcdc
dcdcdc
L
MOMM
L
L
21
22212
12111
 (2.17) 
Similarmente: 
b’b = [b1 b2 … bp]












pb
b
b
M
2
1
 = 
2
1b + 
2
2b + … + 
2
pb = ∑
=
p
b
1i
2
i (2.18) 
bb’ = 












pb
b
b
M
2
1
[b1 b2 … bp] = 














2
21
2
2
212
121
2
1
ppp
p
p
bbbbb
bbbbb
bbbbb
L
MOMM
L
L
 (2.19) 
Assim, b’b é uma soma de quadrados e bb’ é uma matriz quadrada e simétrica. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
10 
 A raiz quadrada da soma de quadrados dos elementos de um vetor bpx1 é igual à 
distância da origem ao ponto b e é referida como norma euclidiana, ou comprimento 
do vetor b: 
comprimento de b = || b || = bb' = ∑
=
p
i
ib
1
2
 (2.20) 
 
Se j é um vetor nx1 de 1’s como definido em (2.6), então por (2.18) e (2.19), 
nós temos que: 
j’j = n, jj’ = 












111
111
111
L
MOMM
L
L
 = J(nxn) (2.21) 
onde Jnxn é uma matriz quadrada de 1’s como ilustrada em (2.7), Se a é um vetor nx1 
e A é uma matriz nxp, então 
a’j = j’a = ∑
=
n
i
ia
1
 (2.22) 
j’A = [ ]∑∑∑ i ipi ii i aaa L21 e Aj = 














∑
∑
∑
j nj
j j
j j
a
a
a
M
2
1
 (2.23) 
Assim, a’j = j’a é a soma dos elementos em a, j’A contem as somas das colunas de A 
e Aj contem as somas das linhas de A. Note que em a’j, o vetor j é nx1; em j’A, o 
vetor j é nx1 e em Aj, o vetor j é px1. 
Exemplo: Seja a matriz A = 









 −
0452
4615
4321
 e o vetor a = 












8
1
5
2
 então: 
 i) j'A = [ ]111









 −
0452
4615
4321
 = [ ]81348 (totais das colunas de A) 
 ii) Aj = 









 −
0452
4615
4321












1
1
1
1
 = 










11
16
6
 (totais das linhas de A) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
11 
iii) a’j = [ ]8152












1
1
1
1
 = j’a = [ ]1111












8
1
5
2
 = 16 (total dos elementos de a) 
 
 O produto de um escalar por uma matriz é obtido multiplicando-se cada ele-
mento da matriz pelo escalar: 
cA = (caij) = 












nmnn
m
m
cacaca
cacaca
cacaca
L
MOMM
L
L
21
22221
11211
. (2.24) 
Desde que caij = aijc o produto de um escalar por uma matriz é comutativo: 
cA = Ac (2.25) 
 
 A transposta do produto de duas matrizes é igual ao produto das transpostas 
em ordem reversa. 
 
Teorema 2.2B. Se A é nxp e B é pxm, então: 
(AB)’ = B’A’ (2.26) 
Prova: Seja C = AB. Então por (2.11), temos que C = (cij) = 






∑
=
p
k
kjikba
1
 
Por (2.3), a transposta de C = AB é dada por: 
(AB)’ = C’ = (cij)’ = (cji) 
 = 







∑
=
p
k
kijkba
1
 = 







∑
=
p
k
jkkiab
1
 = B’A’. 
 
Para ilustrar os passos dessa prova, vamos usar as matrizes A2x3 e B3x2: 
 AB = 





232221
131211
aaa
aaa










3231
2221
1211
bb
bb
bb
 
= 





++++
++++
322322221221312321221121
321322121211311321121111
babababababa
babababababa
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
12 
 (AB)’ = 





++++
++++
322322221221321322121211
312321221121311321121111
babababababa
babababababa
 
 = 





++++
++++
233222222112133212221112
233122212111133112211111
abababababab
abababababab
 
 ⇒ (AB)’ = 





322212
312111
bbb
bbb










2313
2212
2111
aa
aa
aa
 = B’A’ 
 
Corolário 1. Se A, B e C são conformes, então (ABC)’ = C’B’A’. 
 
Exemplo: Seja y = [y1, y2, …, yn]’ um vetor de pesos de n frangos de corte. 
Para calcularmos a média e a variância dos pesos desses frangos, nós usamos: 
y = ∑
=
n
i
iy
n 1
1
 s
2
 = ( )∑
=
−
−
n
i
i yy
n 1
2
1
1
 
Matricialmente, a média pode ser calculada por y = 
n
1 j’y, onde j é um vetor nx1 de 
1’s e n = j’j. Para calcularmos a variância precisamos, primeiramente, calcular o 
vetor de desvios: 
y – y = y – y j = y – j
n
1 j’y = y – 
n
1 jj’y = y – 
n
1 Jy = 





− JI
n
1 y 
Onde I é a matriz identidade nxn e J é uma matriz nxn de 1’s. Para calcularmos a 
soma de quadrados de desvios fazemos: 
 ( )∑
=
−
n
i
i yy
1
2
 = 
t
n 










− yJI 1 





− JI
n
1 y 
= y’
t
n






− JI 1 





− JI
n
1 y = y’



− IJ II'
n
1
 – IJ'
n
1
 + 


JJ'2
1
n
y 
Mas J = J’, I’I = I, IJ = J; J’I = J’ = J e j’j = n, então: 
 ( )∑
=
−
n
i
i yy
1
2
 = y’



− J I
n
2
 + 


jj'jj'2
1
n
y = y’



− J I
n
2
 + 


j'j )(12 nn y 
 = y’



− J I
n
2
 + 


J
n
1 y = y’ 





− JI
n
1 y 
Então, a variância pode ser calculada por: 
s
2 
= ( )∑
=
−
−
n
i
i yy
n 1
2
1
1
 = 
1
1
−n
y J Iy' 





−n
1
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
13 
 Supondo que A é nxm e B é mxp, seja tia a i-ésima linha da matriz A e bj, a j-
ésima coluna
 
da matriz B, de tal forma que: 
A = 












nmnn
m
m
aaa
aaa
aaa
L
MOMM
L
L
21
22221
11211
 = 














t
n
t
t
a
a
a
M
2
1
, B = 












mpmm
p
p
bbb
bbb
bbb
L
MOMM
L
L
21
22221
11211
= [b1, b2, …, bp] 
Então, por definição, o (ij)-ésimo elemento de AB é tia bj: 
 AB = 














p
t
n
t
n
t
n
p
ttt
p
ttt
bababa
bababa
bababa
L
MOMM
L
L
21
22212
12111
 
= 














),,,(
),,,(
),,,(
21
212
211
p
t
n
p
t
p
t
b b ba
b b ba
b b ba
L
M
L
L
= 














Ba
Ba
Ba
t
n
t
t
M
2
1
 = 














t
n
t
t
a
a
a
M
2
1
B (2.27) 
A primeira coluna de AB pode ser expressa em termos de A como 














1
12
11
ba
ba
ba
t
n
t
t
M
 = 














t
n
t
t
a
a
a
M
2
1
b1 = Ab1 
De forma análoga, a segunda coluna de AB é Ab2 e assim por diante. Assim AB pode 
ser escrita em termos das colunas de B: 
AB = A[b1, b2, …, bp] = [Ab1, Ab2, …, Abp] (2.28) 
 
 Qualquer matriz A pode ser multiplicada pela sua transposta para formar A’A 
ou AA’. Algumas propriedades desses produtos são dadas no próximo Teorema. 
 
Teorema 2.2C. Seja A uma matriz nxp. Então A’A e AA’ têm as seguintes proprie-
dades: 
 (i) A’A é pxp e é obtida como produto das colunas de A. 
 (ii) AA’ é nxn e é obtida como produto das linhas de A. 
(iii) Ambas as matrizes A’A e AA’ são simétricas. 
(iv) Se A’A = ΦΦΦΦ então A = ΦΦΦΦ. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
14 
 Seja A uma matriz quadrada n x n e D = diag(d1, d2, … , dn). No produto DA, a 
i-ésima linha de A é multiplicada por di e em AD, a j-ésima coluna de A é multipli-
cada por dj. Por exemplo, se n = 3, nós temos: 
DA = 










3
2
1
00
00
00
d
d
d










333231
232221
131211
aaa
aaa
aaa
= 










333323313
232222212
131121111
adadad
adadad
adadad
 (2.29) 
AD = 










333231
232221
131211
aaa
aaa
aaa










3
2
1
00
00
00
d
d
d
 = 










333322311
233222211
133122111
adadad
adadad
adadad
 (2.30) 
DAD = 










33
2
332233113
233222
2
22112
1331122111
2
1
adaddadd
addadadd
addaddad
 (2.31) 
 
 Vale notar que DA ≠ AD. Entretanto, no caso especial onde a matriz diagonal é 
a matriz identidade, (2.29) e (2.30) temos: 
IA = AI = A (2.32) 
 
 
Se A é retangular, (2.32) continua valendo, mas as duas identidades são de di-
mensões diferentes. 
 
 Se A é uma matriz simétrica e y é um vetor, o produto: 
y’Ay = ∑
i
iii ya
2
 + 2∑
≠ ji
jiij yya (2.33) 
é chamado de forma quadrática. Se x é nx1, y é px1 e A é nxp, o produto: 
x’Ay = ∑
ij
jiij yxa (2.34) 
é chamado de forma bilinear. 
 
 
2.2.3. Soma Direta 
Dadas as matrizes A(mxn) e B(rxs) definimos a sua soma direta como 
A ⊕ B = 





B0
0A
 = C(m+r,n+s) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
15 
Algumas propriedades da soma direta de matrizes: 
 (i) A ⊕ (–A) ≠ ΦΦΦΦ 
 (ii) Se as dimensões são favoráveis, então: 
(A ⊕ B) + (C ⊕ D) = (A + C) ⊕ (B + D) 
(A ⊕ B)(C ⊕ D) = AC ⊕ BD 
 
Exemplo: Sejam as matrizes 
A = [ ]151110 , B = 





−14
53
, C = [ ]151110 −−− 
Então, 
A ⊕ B = 










−14000
53000
00151110
 
A ⊕ C = 





−−− 151110000
000151110
 ≠ ΦΦΦΦ (Perceba que A+C = ΦΦΦΦ) 
 
 
2.2.4. Produto direto ou de Kronecker 
Dadas as matrizes A(mxn) e B(rxs) definimos o produto direto ou produto de Kronecker 
de A por B como a matriz C(mr x ns) de tal forma que: 
C(mr x ns) = A ⊗ B = 












BBB
BBB
BBB
mn2m1m
n22221
n11211
aaa
aaa
aaa
L
MOMM
L
L
 
Algumas propriedades interessantes do produto direto de matrizes: 
 (i) A ⊗ B ≠ B ⊗ A , em geral 
 (ii) Se u e v são vetores, então u’ ⊗ v = v ⊗ u’ = vu’. 
(iii) Se D(n) é uma matriz diagonal e A é uma matriz qualquer, então: 
D ⊗ A = d11A ⊕ d22A ⊕ … ⊕ dnnA 
(iv) Se as dimensões são favoráveis 
(A ⊗ B)(C ⊗ D) = AC ⊗ BD 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
16 
Exemplo: Sejam as matrizes: 
A(2x2) = 





43
21
, B(2x3) = 





− 653
011
, y(3x1) = 










−
0
1
1
. 
Então 
A ⊗ B = 












−−
−−
24201218159
044033
12106653
022011
, B ⊗ A = 












−−
−−
24182015129
12610563
004343
002121
 
 
A ⊗ y = 


















−−
−−
00
43
43
00
21
21
 y ⊗ A = 


















−−
−−
00
00
43
21
43
21
 
 
 
2.2.5 Potência de matriz quadrada 
Dada uma matriz quadrada A e um número k ∈ Z (conjunto dos números inteiros e 
positivos), definimos a k-ésima potência da matriz A como: 
kA = 43421 L
k vezes
AAAA 
Em relação à sua segunda potência, uma matriz quadrada A, será chamada de: 
 (i) idempotente, se 2A = A. 
 (ii) nilpotente, se 2A = ΦΦΦΦ. 
(iii) unipotente, se 2A = I. 
 
Teorema. Se P(n) é uma matriz idempotente e se I(n) é a matriz identidade de ordem n, 
então a matriz I – P é idempotente. 
 
 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
17 
2.3. MATRIZES PARTICIONADAS 
Muitas vezes é conveniente particionar uma matriz em submatrizes. Por exemplo, 
uma partição de uma matriz A em quatro submatrizes (quadradas ou retangulares) de 
dimensões apropriadas, pode ser indicada simbolicamente como: 
A = 





2221
1211
AA
AA
 
Para ilustrar, seja a matriz A(4x5) particionada como: 
A = 












−
−
61213
25639
72043
48527
 = 





2221
1211
AA
AA
 
Onde: 
A11 = 





− 043
527
, A12 = 





72
48
, A21 = 





213
639
 e A22 = 




 −
61
25
 
 
 Se duas matrizes A e B são conformes, e se A e B são particionadas de tal for-
ma que as submatrizes sejam apropriadamente conformes, então o produto AB pode 
ser encontrado usando a maneira usual de multiplicação (linha-por-coluna) tendo as 
submatrizes como se fossem elementos únicos; por exemplo: 
 AB = 





2221
1211
AA
AA






2221
1211
BB
BB
 
= 





++
++
2222122121221121
2212121121121111
BABABABA
BABABABA
 (2.35) 
 
 Se B é trocadapor um vetor b particionado em dois conjuntos de elementos e 
se A é correspondentemente particionada em dois conjuntos de colunas, então (2.35) 
fica: 
Ab = [A1, A2] 





2
1
b
b
 = A1b1 + A2b2 (2.36) 
Onde o número de colunas de A1 é igual ao número de elementos de b1 e A2 e b2 são 
similarmente conformes. 
 
 A multiplicação particionada em (2.36) pode ser estendida para colunas indivi-
duais de A e elementos individuais de b: 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
18 
Ab = [a1, a2, …………, ap] 












pb
b
b
M
2
1
 = b1a1 + b2a2 + ………… + bpap (2.37) 
Assim, Ab pode ser expressa como uma combinação linear de colunas de A, na qual 
os coeficientes são os elementos de b. Nós ilustramos (2.37) no seguinte exemplo: 
 
Exemplo 2.3. Sejam: 
A = 









 −
234
012
326
, b = 










−1
2
4
 ⇒ Ab = 










20
10
17
 
Usando uma combinação linear de colunas de A como em (2.37), nós obtemos: 
 Ab = b1a1 + b2a2 + b3a3 
 = 4










4
2
6
 + 2









−
3
1
2
 + (–1)










2
0
3
 = 










16
8
24
 + 









−
6
2
4
 – 










2
0
3
 = 










20
10
17
 
 
 Por (2.28) e (2.29), as colunas do produto AB são combinações lineares das co-
lunas de A. Os coeficientes para a j-ésima coluna de AB são os elementos da j-ésima 
coluna de B. 
 
O produto de um vetor linha por uma matriz, a’B, pode ser expresso como uma 
combinação linear das linhas de B, na qual os coeficientes são os elementos de a’: 
a’B = [a1, a2, …, an]














t
n
t
t
b
b
b
M
2
1
 = a1
t
1b + a2
t
2b + … + an
t
nb (2.38) 
Por (2.27) e (2.38), as linhas do produto AB são combinações lineares das linhas de 
B. Os coeficientes da i-ésima linha de AB são os elementos da i-ésima linha de A. 
 
Finalmente, notamos que se uma matriz A é particionada como A = [A1, A2], então: 
A’ = [A1, A2]’ = 





t
t
2
1
A
A
 (2.39) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
19 
2.4 POSTO (RANK) DE UMA MATRIZ 
Antes de definirmos o posto (ou rank) de uma matriz, nós introduziremos a noção de 
independência linear e dependência. Um conjunto de vetores {a1, a2, …………, ap} é dito 
linearmente dependente (l.d.) se pudermos encontrar um conjunto de escalares c1, c2, 
…, cp (nem todos nulos) de tal forma que: 
c1a1 + c2a2 + ………… + cpap = 0 (2.40) 
Se não encontrarmos um conjunto de escalares c1, c2, …, cp (nem todos nulos) que sa-
tisfaçam (2.40), o conjunto de vetores {a1, a2, …………, ap} é dito linearmente independente 
(l.i.). Por (2.37), podemos reescrever essa definição da seguinte forma: 
“As colunas de A são linearmente independentes se Ac = 0 implica em c = 0”. 
Observe que se um conjunto de vetores inclui um vetor nulo, o conjunto de vetores é 
linearmente dependente. 
 Se (2.40) é satisfeita, então existe pelo menos um vetor ai que pode ser expres-
so como uma combinação linear dos outros vetores do conjunto. Entre vetores linear-
mente independentes não existem redundâncias desse tipo. 
 
Definição: O posto (rank) de qualquer matriz A (quadrada ou retangular) é definido 
como o número de colunas (linhas) linearmente independentes de A 
 
Pode-se mostrar que o número de colunas l.i. de qualquer matriz é igual ao número de 
linhas l.i. dessa matriz. 
Se a matriz A tem um único elemento diferente de zero, com todos os demais 
elementos iguais a zero, então rank(A) = 1. O vetor 0 e a matriz ΦΦΦΦ têm posto zero. 
 Se a matriz retangular A(nxp) de posto p, onde p < n, então A tem o maior posto 
possível e é dito ter posto coluna completo. 
Em geral, o maior posto possível de uma matriz A(nxp) é o min(n, p). Assim, em 
uma matriz retangular, as linhas, as colunas ou ambas são linearmente dependentes. 
Nós ilustramos esse fato no próximo exemplo. 
 
Exemplo 2.4(a). A matriz 
A = 




 −
425
321
 
tem posto 2, porque as duas linhas são linearmente independentes, pois nenhuma 
linha é múltipla da outra. Conseqüentemente, pela definição de posto, o número de 
colunas l.i. também é 2. Portanto, as três colunas de A são l.d. e por (2.40) existem 
constantes c1, c2 e c3 (nem todas nulas) tais que: 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
20 
c1 





5
1
 + c2 




−
2
2
 + c3 





4
3
 = 





0
0
 (2.41) 
Por (2.37) nós escrevemos (2.41) na forma 





 −
425
321
 










3
2
1
c
c
c
 = 





0
0
 ou Ac = 0 (2.42) 
A solução (não trivial) para (2.42) é dada por qualquer múltiplo de c = 










−
−
12
11
14
. Neste 
caso o produto Ac = 0, mesmo com A ≠ 0 e c ≠ 0. Isso só é possível por causa da de-
pendência linear dos vetores-colunas de A. 
 
 Nem sempre é fácil perceber que uma linha (ou coluna) é uma combinação li-
near de outras linhas (ou colunas). Nesses casos pode ser difícil “calcular” o posto de 
uma matriz. Entretanto, se conseguirmos obter a forma escalonada canônica (f.e.c.) 
da matriz, o seu posto corresponderá ao número de linhas (ou colunas) que tenham o 
número 1 como líder. A obtenção da f.e.c. de uma matriz é feita através de operações 
elementares em suas linhas (ou colunas). 
 
Definição: São chamadas de operações elementares nas linhas da matriz A (e de 
modo similar nas suas colunas): 
 (i) trocar a posição de duas linhas da matriz. 
 (ii) multiplicar uma linha da matriz por um escalar k ≠ 0 (li = kli). 
(iii) somar a uma linha da matriz um múltiplo de outra linha (li = li + klj). 
 
Teorema: Uma matriz A é equivalente por linhas a uma matriz B se B pode ser obti-
da de A aplicando-se uma seqüência de operações elementares sobre as suas linhas. 
 
Definição: Dizemos que uma matriz A(nxm) está na sua forma escalonada canônica ou 
reduzida se ocorrer simultaneamente que: 
(a) o primeiro elemento não nulo de cada linha não nula é o número 1 (pivô); 
(b) toda coluna que tem um pivô, tem todos os outros elementos nulos; 
(c) o pivô da linha i +1 ocorre à direita do pivô da linha i (i = 1, 2, …, n–1). 
(d) todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das 
linhas não nulas. 
 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
21 
Definição: Dizemos que uma matriz está na forma escalonada se ela satisfaz as pro-
priedades (c) e (d), mas não necessariamente as propriedades (a) e (b). 
 
Das matrizes apresentadas a seguir, B não está na forma escalonada, A e C es-
tão nas suas formas escalonadas canônicas e D, na forma escalonada. 
A =










000
010
001
, B = 












0010
0100
1000
0001
, C = 





0000
2121
, D = 










100
030
304
 
 
 
Teorema. Dada uma matriz real A(nxp) é sempre possível obtermos a sua forma esca-
lonada canônica (f.e.c.) através de operações elementares. 
 
Assim, calcular o posto da matriz A é o mesmo que calcular o posto da f.e.c. de A, 
pois são equivalentes. Portanto, calcular o posto da f.e.c. de A é o mesmo que contar 
o seu número de 1’s pivôs.Exemplo. Vamos obter a f.e.c. da matriz A do Exemplo 2.4(a): 
A = 




 −
425
321
 
 (i) Fazendo l2 = l2 – 5l1, nós obtemos: 





 −
425
321
 ~ 





−
−
11120
321
. 
 (ii) Fazendo l2 = l2 /12, nós obtemos: 






−
−
11120
321
 ~ 





−
−
12/1110
321
. 
(iii) Fazendo l1 = l1 + 2l2, obtemos: 






−
−
12/1110
321
 ~ 





− 12/1110
6/701
 
Então a f.e.c. de A é a matriz 





− 12/1110
6/701
 e o rank(A) = 2. 
 
Definição: Dizemos que uma matriz quadrada está na forma de Hermite (Graybill 
1969, p.120) se satisfaz as seguintes condições: 
(a) é uma matriz triangular superior; 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
22 
(b) tem apenas valores zero ou um na sua diagonal; 
(c) se tem o valor zero na diagonal, os elementos restantes na linha são zeros; 
(d) se tem o valor um na diagonal, os elementos restantes da coluna em que apare-
ce o número um, são nulos. 
 
Definição: Dizemos que uma matriz quadrada está na forma de Echelon (Graybill, 
1969, p.286) se ela satisfaz as condições de uma forma de Hermite e apresenta as 
linhas de zeros abaixo das linhas que não são nulas. 
 
 Nós podemos estender (2.42) para produtos de matrizes. É possível encontrar 
matrizes A ≠ 0 e B ≠ 0, tais que: 
AB = 0, (2.43) 
Por exemplo, 






42
21






−− 31
62
 = 





00
00
. 
 
Nós também podemos explorar a dependência linear das linhas ou colunas de 
uma matriz para criar expressões tais como AB = CB, onde A ≠ C. Assim em uma 
equação matricial, nós não podemos, em geral, cancelar uma matriz de ambos os 
lados da equação. Uma exceção a essa regra ocorre quando as matrizes envolvidas 
são quadradas e B é uma matriz não-singular (será definida na Seção 2.5). 
 
 
Exemplo 2.4(b). Nós ilustramos a existência de matrizes A, B e C tais que AB = CB, 
onde A ≠ C. Sejam as matrizes: 
A = 





−102
231
, B = 










01
10
21
, C = 





−− 465
112
 ⇒ AB = CB = 





41
53
. 
O teorema seguinte dá um caso geral e dois casos especiais para o posto do produto 
de duas matrizes. 
 
Teorema 2.4A. 
 (i) Se as matrizes A e B são conformes, então rank(AB) ≤ rank(A) e rank(AB) ≤ 
rank(B). 
 (ii) A multiplicação por uma matriz não-singular (ver Seção 2.5) não altera o posto 
da matriz, isto é, se B e C são não-singulares⇒ rank(AB) = rank(CA) = rank(A). 
(iii) Para qualquer matriz A, rank(A’A) = rank(AA’) = rank(A’) = rank(A). 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
23 
Prova: 
(i) Todas as colunas de AB são combinações lineares das colunas de A (ver um co-
mentário no Exemplo 2.3) conseqüentemente, o número de colunas l.i. de AB é 
menor ou igual ao número de colunas l.i. de A, e rank(AB) ≤ rank(A). Similar-
mente, todas as linhas de AB são combinações lineares das linhas de B [ver 
comentário em (2.38)] e daí, rank(AB) ≤ rank(B). 
(ii) Se B é não singular, existe uma matriz -1B tal que B -1B = I [ver (2.45) a seguir]. 
Então, de (i) nós temos que: 
rank(A) = rank(AB -1B ) ≤ rank(AB) ≤ rank(A). 
 Assim ambas as desigualdades tornam-se igualdades e rank(A) = rank(AB). Simi-
larmente, rank(A) = rank(CA) para C não-singular. 
 
 
2.5. INVERSA DE UMA MATRIZ 
Uma matriz quadrada de posto completo é dita não-singular. Uma matriz A, 
não-singular, tem inversa única, denotada por A–1, com a propriedade que: 
A A–1 = A–1A = I (2.45) 
 
Um algoritmo simples (mas trabalhoso se a dimensão da matriz é grande!) para 
obtenção da inversa de uma matriz consiste em justapor à matriz A uma matriz iden-
tidade de mesma ordem. Opera-se simultaneamente sobre as linhas das duas matrizes 
até que no lugar da matriz A apareça a sua f.e.c. (neste caso, uma matriz identidade). 
Nesse momento, no lugar da matriz identidade estará a inversa A–1 de A. Ou seja: 
[A | I ] ~ … ~ [I | A–1] 
 
Exemplo 2.5. Seja a matriz quadrada: 
A = 





62
74
. 
(1) Fazendo l2 = l2 – (1/2) l1: 






1062
0174
 ~ 





− 12/12/50
0174
 
(2) Fazendo l2 = (2/5)l2: 






− 12/12/50
0174
 ~ 





− 5/25/110
0174
 
(3) Fazendo l1 = l1 + (–7) l2: 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
24 






− 5/25/110
0174
 ~ 





−
−
5/25/110
5/145/1204
 
(4) Fazendo l1 = (1/4) l1: 






−
−
5/25/110
5/145/1204
 ~ 





−
−
5/25/110
10/75/301
 
 
Então 






1062
0174
 ~ … ~ 





−
−
5/25/110
10/75/301
 ⇒ A–1 = 





−
−
4.02.0
7.06.0
 
 
Se a matriz B é não-singular e AB = CB, então nós podemos multiplicar à direita por 
B–1 os dois lados da igualdade, obtendo: 
AB = CB ⇒ ABB–1 = CBB–1 ⇒ A = C 
 
Importante: Se a matriz B é singular ou retangular, ela não pode ser cancelada nos 
dois lados da igualdade AB = CB. 
 
 Similarmente, se A é não-singular então o sistema Ax = c tem a solução única: 
x = A–1c (2.47) 
 
Teorema 2.5A. Se A é não singular, então A’ é não singular e a sua inversa pode ser 
encontrada como: 
(A’) –1 = (A–1)’ (2.48) 
 
 
Teorema 2.5B. Se A e B são matrizes não singulares de mesma dimensão, então AB 
é não-singular e 
(AB)–1 = B–1A–1 (2.49) 
 
Se a matriz A é simétrica, não-singular e particionada como: 
A = 





2221
1211
AA
AA
 
e se B = A22 – A21(A11)–1A12, então supondo que (A11)–1 e B–1 existem, a inversa de A 
é dada por 
A–1 = 





−
−−
−−
−−
11-
1121
1
1
12
1-
11
1-
1121
1
12
1-
11
1-
11
BAAB
BAAAABAAA
 (2.50) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
25 
Como um caso especial de (2.50), consideremos a matriz não singular: 
A = ( ) 




2212
1211
a
t
a
aA
 
onde A11 é quadrada, a22 é um escalar e a12 é um vetor. Então se (A11)–1 existe, a 
inversa de A pode ser expressa como: 
A–1 = 
b
1






−
−+
1)(
)(
1-
1112
12
1-
11
1-
111212
1-
11
1-
11
Aa
aAAaaAA
t
tb
 (2.51) 
onde b = a22 – (a12)t(A11)–1a12. Como um outro caso especial de (2.50) nós temos: 
A = 





22
11
A
A
ΦΦΦΦ
ΦΦΦΦ
 
que tem a inversa 
A–1 = 





−
−
1
22
1
11
A
A
ΦΦΦΦ
ΦΦΦΦ
 (2.52) 
 
 Se uma matriz quadrada da forma B + cc’ é não singular, onde c é um vetor e B 
é uma matriz não singular, então: 
(B + cc’)–1 = B–1 – 
cBc'
Bcc'B
1
11
1 −
−−
+
 (2.53) 
 
 
2.6 MATRIZES POSITIVAS DEFINIDAS 
Formas quadráticas foram introduzidas em (2.33). Por exemplo, a forma quadrática 
3 21y + 
2
2y + 2
2
3y + 4 1y 2y + 5 1y 3y – 6 2y 3y pode ser expressa como: 
3 21y + 
2
2y + 2
2
3y + 4 1y 2y + 5 1y 3y – 6 2y 3y = y’Ay 
onde 
y = 










3
2
1
y
y
y
, A = 










−
200
610
543
. 
Entretanto, essa forma quadrática pode ser expressa em termos da matriz simétrica: 
2
1 (A + A’) = 










−
−
232/5
312
2/523
. 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
26 
Em geral, qualquer forma quadrática y’Ay pode ser expressa como: 
y’Ay= y’ 




 +
2
A'A y (2.54) 
Assim a matriz-núcleo da forma quadrática pode sempre ser escolhida como uma 
matriz simétrica (e única!). 
 
Exemplo. A variância definida como s2 = 
1
1
−n
y J Iy' 





−
n
1
 = y’Ay é uma 
forma quadrática e a sua matriz núcleo é simétrica: 
A = 
1
1
−n


























−−−
−





−−
−−





−
nnn
nnn
nnn
1111
1111
1111
L
MMM
L
L
 = 
( ) ( )
( ) ( )
( ) ( ) 
























−
−
−
−
−
−






−
−
−
−
−
−






nnnnn
nnnnn
nnnnn
1
1
1
1
1
1
11
1
1
1
1
1
11
L
MMM
L
L
 
 
 As somas de quadrados encontradas na análise de regressão (Capítulos 6 a 10) 
e análise de variância (Capítulos 11 a 14) podem ser expressas na forma y’Ay, onde y 
é um vetor de observações. Tais formas quadráticas são positivas (ou no mínimo não-
negativas) para todos os valores de y. 
 
Se a matriz simétrica A tem a propriedade de y’Ay > 0 para todos os possíveis 
vetores de observações y, com exceção de y = 0, então a forma quadrática y’Ay é dita 
positiva definida e A é dita matriz positiva definida. 
 
Similarmente, se y’Ay ≥ 0 para todos os possíveis vetores de observações y, 
com exceção de y = 0, então a forma quadrática y’Ay é dita positiva semidefinida e A 
é dita matriz positiva semidefinida. 
 
Exemplo 2.6. Para ilustrar uma matriz positiva definida, considere: 
A = 





−
−
31
12
 
A forma quadrática associada 
y’Ay = 2 21y – 2 1y 2y + 3
2
2y = 2( 1y – 0,5 2y )2 + (5/2) 22y 
que é claramente positiva a menos que 1y e 2y sejam ambos iguais a zero. 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
27 
Para ilustrar uma matriz positiva semidefinida, considere: 
(2 1y – 2y )2 + (3 1y – 3y )2 + (3 2y – 2 3y )2 
que pode ser expresso como y’Ay, com 
A = 










−−
−−
−−
563
6102
3213
 
Se 2 1y = 2y , 3 1y = 3y e 3 2y = 2 3y , então (2 1y – 2y )2 + (3 1y – 3y )2 + (3 2y – 2 3y )2 
= 0. Assim y’Ay = 0 para qualquer múltiplo de y = [1, 2, 3]’. Para todos os outros 
casos, y’Ay > 0 (com exceção de y = 0). 
 
Teorema 2.6A. 
 (i) Se A é positiva definida, então todos os elementos aii da sua diagonal são posi-
tivos. 
 (ii) Se A é positiva semidefinida, então todos aii ≥ 0. 
(Ver prova na página 23 do livro do Rencher) 
 
Teorema 2.6B. Seja P uma matriz não-singular. 
 (i) Se A é positiva definida, então P’AP é positiva definida. 
 (ii) Se A é positiva semidefinida, então P’AP é positiva semidefinida. 
(Ver prova na página 23 do livro do Rencher) 
 
Corolário 1. Seja A(pxp) uma matriz positiva definida e seja a matriz B(kxp) de posto 
k ≤ p. Então a matriz BAB’ é positiva definida. 
 
Corolário 2. Seja A(pxp) uma matriz positiva definida e seja a matriz B(kxp). Se k > p 
ou se rank(B) = r, onde r < k e r < p, então a matriz BAB’ é positiva semidefinida. 
 
Teorema 2.6C. Uma matriz simétrica A é positiva definida se e somente se existe 
uma matriz não singular P tal que A = P’P. 
(Ver prova na página 23 do livro do Rencher) 
 
 
Corolário 1. Uma matriz positiva definida é não-singular. 
 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
28 
 Um método de fatorar uma matriz positiva definida A em um produto P’P é 
chamado de decomposição de Cholesky [ver Seber (1977, pág.304-305)], pelo qual A 
pode ser fatorado de modo único em A = T’T, onde T é uma matriz não singular e 
triangular superior. 
 
 Para qualquer matriz quadrada ou retangular B, a matriz B’B é positiva defi-
nida ou positiva semidefinida. 
 
Teorema 2.6D. Seja a matriz B(nxp). 
 (i) Se rank(B) = p, então B’B é positiva definida. 
 (ii) Se rank(B) < p, então B’B é positiva semidefinida. 
Prova: 
 (i) Para mostrar que y’B’By > 0 para y ≠ 0, nós notamos que y’B’By = (By)’(By) é 
uma soma de quadrados e portanto, é positiva definida, a menos que By = 0. Por 
(2.37) nós podemos expressar By na forma: 
By = y1b1 + y2b2 + … + ypbp 
 Essa combinação linear não é igual a 0 (para qualquer y ≠ 0) porque rank(B) = p 
e as colunas de B são l.i. 
 (ii) Se rank(B) < p, então nós podemos encontrar y ≠ 0 tal que 
By = y1b1 + y2b2 + … + ypbp = 0 
 porque as colunas de B são l.d. [ver (2.40)]. Daí, y’B’By ≥ 0. 
 
Note que se B é uma matriz quadrada, a matriz B2 = BB não é necessariamente 
positiva semidefinida. Por exemplo, seja a matriz: 
B = 





−
−
21
21
 
Então: 
B2 = 





−
−
21
21
, B’B = 





−
−
84
42
 
Neste caso, B2 não é positiva semidefinida, mas B’B é positiva semidefinida, porque 
y’B’By = 2(y1 – 2y2)2 ≥ 0. 
 
 
Teorema 2.6E. Se A é positiva definida, então A–1 é positiva definida. 
Prova: Pelo Teorema 2.6C, A = P’P, onde P é não singular. Pelos Teoremas 2.5A e 
2.5B, A–1 = (P’P)–1 = P–1(P’)–1 = P–1(P–1)’, que é positiva definida pelo Teore-
ma 2.6C. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
29 
Teorema 2.6F. Se A é positiva definida e é particionada na forma 
A = 





2221
1211
AA
AA
 
onde A11 e A22 são quadradas, então A11 e A22 são positivas definidas. 
Prova: Nós podemos escrever A11 como A11 = [I, 0] A 





0
I
, onde I tem a mesma di-
mensão de A11. Então, pelo Corolário 1 do Teorema 2.6B, A11 é positiva defi-
nida. 
 
 
2.7 SISTEMAS DE EQUAÇÕES 
O sistema de equações de n equações (lineares) e p incógnitas 
a11x1 + a12x2 + … + a1pxp = c1 
a21x1 + a22x2 + … + a2pxp = c2 
… (2.55) 
an1x1 + an2x2 + … + anpxp = cn 
pode ser escrito na forma matricial como 
Ax = c (2.56) 
onde A é nxp, x é px1 e c é nx1. 
Note que: 
• Se n ≠ p então os vetores x e c são de tamanhos diferentes. 
• Se n = p e A é não-singular, então por (2.47), existe um único vetor solução x = 
A–1c. 
• Se n > p, tal que A tenha mais linhas que colunas (mais equações do que incógni-
tas), então, geralmente, o sistema Ax = c não tem solução. 
• Se n < p, tal que A tenha menos linhas que colunas, então o sistema Ax = c tem 
um número infinito de soluções. 
• Se o sistema (2.56) tem uma ou mais vetores soluções, ele é chamado de sistema 
consistente. Se não tem solução, ele é chamado de sistema inconsistente. 
 
 Para ilustrar a estrutura de um sistema consistente, suponha que A seja pxp 
tenha posto r < p. Então as linhas de A são linearmente dependentes e existe algum b 
tal que [ver (2.38)]: 
b’A = b1 t1a + b2 t2a + … + bp
t
pa = 0’ 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
30 
Então, nós também podemos ter b’c = b1c1 + b2 c2+ … + bp cp = 0, porque a multipli-
cação de Ax = c por b’ (de ambos os lados) dá: 
b’Ax = b’c ou 0’x = b’c. 
Por outro lado, se b’c ≠ 0, não existe x tal que Ax = c. Portanto, para que Ax = c seja 
consistente, a mesma relação (qualquer que seja) que existe entre as linhas de A deve 
existir entre os elementos (linhas) de c. Isso é formalizado comparando o posto de A 
com o posto da matriz aumentada [A, c]. A notação [A, c] indica que c foi justaposta 
à matriz A como uma coluna adicional. 
 
Teorema 2.7A O sistema de equações Ax = c é consistente (tem no mínimo uma 
solução) se e somente se rank(A) = rank[A, c]. 
Prova: Suponha que rank(A) = rank[A, c], de tal forma que justapor não altera o 
posto da matriz A. Então c é uma combinação linear das colunas de A; isto é, 
existe pelo

Continue navegando