Buscar

Resumo Teórico Áreas 1 e 2

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 3 páginas

Prévia do material em texto

1 / 3 
 
www.gustavoviegas.com 
 
 
PROF. GUSTAVO VIEGAS 
MATEMÁTICA 
 
RESUMO TEÓRICO 
 
Álgebra Linear 
 
Sistemas possíveis e impossíveis 
Sistema possível e determinado 
Possui apenas uma solução. 
A matriz dos coeficientes possui pivô em cada coluna. 
 
Sistema possível e indeterminado 
Possui infinitas soluções. 
É possível e a matriz dos coeficientes não possui pivô em 
cada coluna. 
 
Sistema impossível 
Não possui solução. 
A matriz completa possui alguma linha [0 .. 0 c], c  0. 
 
Combinações lineares 
Dizemos que é combinação linear de { , ..., } se 
existem números , ..., tais que + ... + = . 
 
Sistemas homogêneos 
Um sistema do tipo A = sempre é possível. 
 
Independência linear 
Dizemos que um conjunto { , ..., } é linearmente 
independente (LI) se + ...+ = tem por solução 
apenas = ... = = 0. Caso contrário, o conjunto é 
linearmente dependente (LD). 
 
Assim, um conjunto { , ..., } é LI se a matriz [ ... ] 
possui um pivô em cada coluna. 
 
Transformações lineares 
Dizemos que uma função T é uma transformação linear se 
 T( ) = T( ) 
T( + ) = T( ) + T( ) 
 
Se T:  é uma transformação linear, então existe 
uma matriz A tal que T( ) = A . 
 
Base canônica 
No , = 
 
 
 , = 
 
 
 . 
 
No , = 
 
 
 
 , = 
 
 
 
 , = 
 
 
 
 . 
 
 
 
Na base canônica, a matriz da transformação linear chama-
se matriz canônica e é dada por 
 A = [T( ) ... T( )] 
 
Uma transformação linear T:  é injetora se 
  implica T( )  T( ). 
Na prática, a matriz canônica possui pivô em cada coluna. 
 
Uma transformação linear T:  é sobrejetora se 
para cada  existe tal que T( ) = . 
Na prática, matriz canônica possui pivô em cada linha. 
 
Matriz inversa 
Duas matrizes são inversas se A. = , lembrando que 
  = 
 
 
 é a identidade de ordem 2 
 
  = 
 
 
 
 é a identidade de ordem 3 
 
Para determinar a inversa de A, consideramos a matriz [A 
] e a escalonamos até obter [ ]. 
 
No caso A = 
 
 
 vale 
 
 
 
 
 . 
 
Bases 
Uma base do é um conjunto LI de dois vetores do com 
duas componentes 
 
 
 
 
 , 
 
 
 
 
Uma base do é um conjunto LI de três vetores com três 
componentes 
 
 
 
 
 , 
 
 
 
 , 
 
 
 
 
 
Span H e Col(A) 
Dado um conjunto de vetores H = { , ..., }, Span H é o 
conjunto de todas as combinações lineares desses vetores, 
ou seja, Span H= { + ... + ;  }. 
 
Se os mesmos vetores estiverem dispostos em matriz 
A = [ ... ], chamamos esse conjunto de espaço das 
colunas da matriz, Col(A). A base de Col(A) é formada pelos 
vetores de A que possuem pivô na forma escalonada. 
 2 / 3 
 
www.gustavoviegas.com 
Nul(A) 
O espaço nulo ou núcleo de uma matriz é o conjunto 
 { ; A = } 
 
Para encontrar a base de Nul(A), resolvemos A = . 
 
Lin(A) 
O espaço das linhas de uma matriz A é o conjunto de todas 
as combinações lineares das linhas de A. 
 
Seja B uma forma escalonada de A. As linhas não nulas de B 
formam uma base para Lin(A). 
 
Teorema do posto 
dim Col A = número de pivôs de A = posto de A 
dim Nul A = número de variáveis livres de A = 
 
(Posto de A) + (dim Nul A) = número de colunas 
 
Autovalores e autovetores 
 
Definição 
Um vetor  é autovetor de uma matriz se A =  . 
 
O número  é chamado autovalor de A associado a . Como 
 A =  
 (A – ) = 
 
temos um sistema homogêneo com solução não trivial 
  . Logo 
 
a) os autovalores de A são as raízes do polinômio 
característico det(A – ) = 0, 
b) os autovetores associados a  são determinados pelo 
sistema homogêneo (A – ) = . 
 
Observações 
a) Os autovalores de uma matriz triangular são os 
elementos de sua diagonal principal. 
b) Uma matriz A é invertível se, e somente se, 0 não é 
autovalor de A. De outra forma, det(A) = 0, se, e somente 
se,  = 0 é autovalor. 
 
Diagonalização A = PD 
 
Se um autovalor  é raiz vezes do polinômio 
característico det(A – ) = 0, dizemos que  tem 
multiplicidade algébrica . 
 
Se um autovalor  é tal que a matriz (A – ) possui 
variáveis livres, dizemos que  tem multiplicidade 
geométrica . A dimensão do auto-espaço associado a  
é . 
 
Teorema 
Uma matriz é diagonalizável se, e somente se, a soma 
das multiplicidades geométricas de seus autovalores é n. 
 
Podemos enunciar esse teorema de outras maneiras: 
 
Uma matriz é diagonalizável se, e somente se, 
 = para todos os autovalores de A. 
 
Uma matriz é diagonalizável se, e somente se, possui 
uma base de autovetores. 
 
 
Cálculo da diagonalização A = PD 
1º) Calculamos os autovalores e os autovetores de A. 
2º) A matriz D é formada pelo autovalores, dispostos na 
diagonal principal e com os demais elementos nulos. 
3º) A matriz P é formada pelos autovetores, mantendo a 
ordem em que seus respectivos autovalores foram 
dispostos em D. 
4º) Calculamos . 
 
Conjuntos ortogonais 
Produto escalar e norma de vetores 
Sejam = 
 
 
 
 e = 
 
 
 
 . 
 
O produto escalar de por é = + + . 
Dizemos que e são ortogonais se = 0. 
 
A norma do vetor é = 
 
 
 . 
 
Normalizar um vetor torná-lo unitário. 
 
 
 
 
Conjunto ortogonal 
Dizemos que um conjunto { , ,..., } é ortogonal se os 
vetores forem ortogonais dois a dois. 
 
Se W = { , ,..., } é um conjunto ortogonal e 
  Span (W), então com 
 
 
 
 
 
Projeção ortogonal 
A projeção ortogonal de sobre é 
 
 
 
 
 
 
A componente de ortogonal a é 
 = . 
 
Se { , , } é um conjunto ortogonal, a projeção 
ortogonal de sobre W = Span{ , , } é a projeção de 
 sobre cada vetor da base. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 3 / 3 
 
www.gustavoviegas.com 
Processo de Gram-Schmidt 
Seja { , , } uma base para um subespaço W. Então os 
vetores { , , } formam uma base ortogonal para W. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Teorema 
Dizemos que A é ortogonal se possui colunas ortogonais e 
unitários (ortonormais). 
 
Se A é uma matriz ortogonal, então . 
 
Fatoração QR 
Seja uma matriz A. 
 
1º ) Aplicamos Gram-Schmidt nas colunas da matriz A. 
2º) Normalizamos cada vetor obtido. 
3º) A matriz Q é formada pelos vetores obtidos na etapa 
anterior. 
4º) R = A 
 
Problema de mínimos quadráticos 
Sejam uma matriz A e um vetor . O problema de mínimos 
quadráticos consiste em encontrar um vetor tal que o 
erro seja o menor possível. Para encontrar tal , 
resolvemos o sistema 
 A = . 
 
Reta de mínimos quadráticos 
Dados os pontos ( , ), ( , ), ..., ( , ), o problema 
de encontrar a reta y = + x que melhor se ajusta a 
esses pontos é um problema de mínimos quadráticos 
 = 
 
 
 com 
 A =e = 
 
 
 
 
 
 
Matrizes simétricas 
 
Uma matriz é simétrica se = A, ou seja, . 
 
Teorema 
Seja uma matriz simétrica. 
a) Todos os seus autovalores são reais. 
b) Autovetores associados a autovalores distintos são 
ortogonais. 
c) Sempre é diagonalizável. 
 
Teorema 
Dizemos que uma diagonalização é ortogonal se a matriz P 
é ortogonal, ou seja, A = . 
Uma matriz é simétrica se, e somente se, possui 
diagonalização ortogonal. 
 
Diagonalização A = 
 
Seja uma matriz simétrica. 
 
1º ) Calculamos os autovalores e os autovetores de A. 
2º) A matriz D é formada pelos autovalores, dispostos na 
diagonal principal e com os demais elementos nulos. 
3º) Se algum autovalor tem mais do que um autovetor, 
aplicamos Gram-Schmidt neles e, em seguida, os 
normalizamos. São normalizados, também, os demais 
autovalores da matriz. 
4º) A matriz P é formada pelos vetores ortonormais obtidos 
na etapa anterior, mantendo a ordem em que seus 
respectivos autovalores foram dispostos em D. 
5º) Calculamos . 
 
Formas Quadráticas 
Uma forma quadrática Q é uma função do tipo 
Q = 
 + + 
 + + 
 + 
 
A matriz associada à forma Q(x) é 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Sejam  ,  e  os autovalores da matriz simétrica A e P a 
matriz da diagonalização A = . A forma quadrática 
Q(y) sem os termos mistos é 
 Q(y) =  
 +  
 + 
 
 
A matriz mudança de variáveis que transforma Q(x) em 
uma forma sem termos mistos Q(y) é P. 
 
Classificação das formas quadráticas 
 
Uma forma quadrática é 
a) Positiva definida se todos os autovalores são positivos. 
b) Positiva semi-definida se alguns autovalores são nulos e 
outros são positivos. 
c) Negativa definida se todos os autovalores são 
negativos. 
d) Negativa semi-definida se alguns autovalores são nulos 
e outros são negativos. 
e) Indefinida se possui autovalores positivos e negativos. 
 
Máximos e mínimos sujeitos a vetores unitários 
O máximo de uma forma quadrática restrito a vetores de 
norma 1 é o maior autovalor de A e ocorre na direção do 
autovetor associado a esse autovalor. 
 
 O mínimo de uma forma quadrática restrito a vetores de 
norma 1 é o menor autovalor de A e ocorre na direção do 
autovetor associado a esse autovalor.

Continue navegando