Buscar

Álgebra Linear

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 7 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 7 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Eliminação Gaussiana
· Propriedades de uma Matriz na forma escalonada reduzida por linhas:
· Se uma linha não consistir inteiramente em zeros, então o primeiro número não nulo da linha é um 1 e é chamado de pivô.
· Se existirem linhas compostas somente por zeros, então elas serão agrupadas nas linhas inferiores da matriz.
· Em quaisquer duas linhas que não consistem só em zeros, o pivô da linha inferior ocorre mais à direta do que o pivô da linha superior.
· Cada coluna que contém um pivô tem zeros nas demais entradas.
OBS.: uma matriz que contém somente as três primeiras propriedades está somente escalonada.
OBS.: as incógnitas representadas pelos pivôs são variáveis líderes, enquanto as demais são variáveis livres. Assim, deve-se colocar as variáveis líderes em função das livres.
· Definição 1: se um sistema linear tem uma infinidade de soluções, então um conjunto de equações paramétricas é denominado uma solução geral do sistema se, a partir dessas equações, puderem ser obtidas todas as soluções pela substituição dos parâmetros por vetores. 
· Métodos de Eliminação: utilizado para reduzir a matriz à forma escalonada reduzida por linhas;
· Localizamos a coluna mais à esquerda que não seja constituída inteiramente de zeros.
· Permutados a primeiras linha com uma outra linha, se necessários, para obter uma entrada não nula ao topo da coluna encontrada no passo 1.
· Se a entrada que agora está no topo da coluna encontrada no passo 1 é “a”, multiplicamos a primeira linha inteira por (1/a) para introduzir um pivô.
· Somamos múltiplos convenientes da primeira linha às linhas inferiores para obter zeros em todas as entradas abaixo do pivô.
· Isolamos a primeira linha e realizamos os mesmos passos anteriores ao restante da matriz até que toda a matriz esteja em forma escalonada.
· Começando com a última linha não nula e trabalhando para cima, somamos múltiplos convenientes de cada linha às linhas superiores para introduzir zeros acima dos líderes.
Matrizes Elementares e um método para encontrar A-1
· Matriz identidade: matriz diagonal cujos elementos da diagonal são iguais a 1.
· Operações Elementares:
· 
· Multiplicar uma linha por uma constante não nula c.
· Trocar duas linhas entre si.
· Somar uma constante c vezes uma linha a uma outra linha.
· 
· Definição1: dizemos que as matrizes A e B são equivalentes por linhas se uma delas (portanto, ambas) pode ser obtida a partir da outra por uma sequência de operações elementares com linhas.
· Definição2: uma matriz nXn que pode ser obtida da matriz identidade In de tamanho nXn efetuando uma única operação elementar sobre linhas é denominada matriz elementar. 
· Teorema: qualquer matriz elementar é invertível, e a inversa também é uma matriz elementar.
· Teorema: Se A for uma matriz nXn, então as seguintes afirmações são equivalentes, ou seja, são todas verdadeiras ou todas falsas:
· 
· A é invertível.
· Ax = 0 tem somente a solução trivial.
· A forma escalonada reduzida por linhas de A é In.
· A pode ser expressa como um produto de matrizes elementares.
· Encontrando a matriz inversa: para determinar a matriz inversa A-1 de A, basta realizar as operações elementares que foram aplicadas a A para encontrar a matriz escalonada reduzida por linhas em uma matriz identidade. 
Modelos Econômicos de Leontief: considere uma economia aberta (que contém setores que não produzem produtos) simples com um setor aberto e três setores produtivos: manufatura agricultura e serviços. A tabela mostra os insumos (em unidades monetárias) requeridos em cada setor para produzir uma unidade monetária de valor de produto, estando os fornecedores na primeira coluna.
	
	Manuf.
	Agri.
	Serv.
	Manuf.
	$ 0,50
	$ 0,10
	$ 0,10
	Agri.
	$ 0,20
	$ 0,50
	$ 0,30
	Serv.
	$ 0,10
	$ 0,30
	$ 0,40
Essa tabela é expressa por uma matriz consumo (c) em que os vetores coluna (consumo) listam os insumos necessários para os setores produzirem $1,00.
 
Supondo uma demanda d1, d2 e d3 unidades de, respectivamente, manufaturados, agricultura e serviços, o vetor d que contém esses valores é denominado vetor demanda externa. Haja vista que cada setor consome um pouco do seu próprio produto, a sua produção deve supri suas próprias necessidades mais a demanda externa. Assim, teremos x1, x2 e x3 como os valores de produção necessários para cada setor, manufaturados, agricultura e serviços, respectivamente, atender às suas próprias necessidades e à demanda externa. Portanto, o vetor x, que contém esses valores, é denominado vetor de produção e é dado por:
O vetor é denominado vetor demanda intermediária. Uma vez atendida a demanda intermediária, a porção da produção que resta para satisfazer as necessidades da demanda externa é . Assim, ser o vetor demanda externa for d, então x deve satisfazer , a equação de Leontief, onde a matriz é denominada a matriz de Leontief.
· Generalizando para n setores produtivos:
,
onde todas as entradas são não negativas e:
· : valor do produto do i-ésimo setor que é necessário para o j-ésimo setor produzir um produto no valor de uma unidade monetária.
· : valor do produto do i-ésimo setor.
· : valor do produto do i-ésimo setor necessário para atender a demanda do setor aberto.
OBS.: o j-ésimo vetor coluna de C contém os valores monetários que o j-ésimo setor necessita dos outros setores para produzir um produto no valor de uma unidade monetária. O i-ésimo valor linha de C contém os valores monetários exigidos do i-ésimo setor pelos outros setores para que cada um deles possa produzir um produto no valor de uma unidade monetária. 
OBS.: Se a matriz for invertível, então a equação tem solução única para cada vetor demanda . Contudo, para x ser um vetor de produção válido, ele deve ter entradas não negativas, de modo que o problema de importância na Economia é determinar condições sob as quais a equação de Leontief tem uma solução com entradas não negativas. 
No caso em que for invertível, é evidente por que se tem entradas não negativas, então, para cada vetor demanda , o vetor correspondente tem entradas não negativas e, portanto, é um vetor de produção válido na economia. As economias nas quais tem entradas não negativas são produtivas, ou seja, as demandas são sempre atendidas. 
· Teorema: Se for a matriz de consumo de uma economia aberta e se todas as somas das colunas forem menores do que 1, então a matriz é invertível, as entradas de são não negativas e a economia é produtiva. 
OBS.: a soma das entradas da j-ésima coluna de representa o valor total de insumo em unidades monetárias que é necessário para o j-ésimo setor produzir $1 de produto, de modo que se a soma das entradas da j-ésima coluna for menor do que 1, então o j-ésimo setor é rentável. Se todos os setores forem rentáveis, a economia será produtiva. Assim, uma economia aberta será rentável se ou a soma das entradas das colunas de C for menor que 1 ou se a soma das entradas das linhas de C for menor que 1
Decomposição LU: o primeiro objetivo é mostras como resolver um sistema linear de n equações em n incógnitas fatorando a matriz A num produto , em que é uma matriz triangular inferior e uma superior. Tendo obtido a fatoração , podemos resolver o sistema linear pela decomposição .
· Decomposição LU:
· Reescreva o sistema como .
· Defina uma nova matriz de tamanho n X 1 tal que .
· Use para reescrever como e resolva esse sistema em .
· Substitua em e resolva em .
· Encontrando decomposições LU: se uma matriz quadrada A pode ser reduzida à forma escalonada por linhas U com eliminação gaussiana sem permuta de linhas, então A pode ser fatorada como A = LU, em que L é uma matriz triangular inferior dada pelo produto das matrizes elementares inversas que resultaram em U. Ou seja,
Sabendo que e , temos que .
· Método rápido de se obter L: a diagonal principal de L é dada pelo inverso dos multiplicadores que resultaram nos pivôs de U. Os números abaixo da diagonal são dados pelo negativo do multiplicador da operação que introduziu o zero naquela posição em U.
· Decomposição LDU: se for preferívelque L tenha as entradas diagonais iguais a , basta empurras as entradas na diagonal de L para uma matriz diagonal D e escrever L como L = L’ D, onde L’ é uma matriz triangular inferior com as entradas da diagonal principal iguais a 1. Exemplo:
Lecture 1 - Espaços Vetoriais, coordenadas, bases e dimensão - Rorres, 4.1 a 4.5 . 
Espaço Vetorial: pode ser entendido como um conjunto munido de duas operações: soma e um produto por escalar. Um espaço vetorial tem que ser “fechado” com relação a essas operações e essas operações têm que atender a certas propriedades. Seja V um conjunto não-vazio qualquer com as operações de adição e multiplicação por escalar definidas. Por adição entendemos uma regra que associa a cada par de objetos u e v em V um objeto u+v, denominado soma de u com v; por multiplicação por escalar entendemos uma regra que associa a cada escalar a e cada objeto u em V um objeto au, denominado múltiplo escalar de u por a. Se os axiomas a seguir estiverem satisfeitos para todos os elementos u, v e w de V e para quaisquer escalares k e l, então V é um espaço vetorial e os seus elementos são vetores.
· Axiomas:
1. 
2. Se u e v são objetos em V, então u + v é um objeto em V. Refere-se ao espaço vetorial estar fechado em relação à soma.
3. .
4. .
5. Existem um objeto 0 em V, denominado vetor nulo de V, ou vetor zero, tal que , com qualquer u em V.
6. Dado qualquer u em V, existe algum objeto -u, denominado negativo de u, tal que .
7. Se a for qualquer escalar e u um objeto em V, então au é um objeto em V. Refere-se ao espaço vetorial estar fechado em relação à multiplicação por escalar.
8. 
9. 
10. 
11. 
· Teorema: sejam V um espaço vetorial, u um vetor em V e a um escalar. Então,
1. 
2. .
3. .
4. .
5. Se , então ou .
Subespaços: um espaço vetorial contido em outro.
· Definição1: Um subconjunto W de um espaço vetorial V é chamado de subespaço vetorial de V se W é um espaço vetorial em relação às operações de adição e multiplicação por escalar definidas em V.
Em geral, é necessário verificar os dez axiomas de espaço vetorial para mostrar que um conjunto W com duas operações forma um espaço vetorial. Contudo, se W for parte de um espaço vetorial V conhecido, então certos axiomas não precisam ser verificados, pois eles são “herdados” de V. Por exemplo, não é necessário conferir o axioma (2), pois ele vale para todos os vetores de V, inclusive W. Por outro lado, é necessário verificar os axiomas (1) e (6) para W, já que é possível que a soma de dois vetores em W ou a multiplicação de um vetor em W por algum escalar pode produzir um vetor V que esteja fora de W. Sabendo disso, os axiomas (1), (4), (5) e (6) sempre devem ser verificados, pois não são herdados por W. Contudo, se (1) e (6) valerem para W, (4) e (5) também valem, e não precisam ser verificados. 
· Teorema: se W for um conjunto de um ou mais vetores num espaço vetorial V, então W é um subespaço de V se, e somente se, as condições a seguir forem válidas:
· Se u e v forem vetores de W, então u+y está em W.
· Se “a” for um escalar qualquer e u algum vetor de W, então au está em W.
Para encontrar o menor subespaço de um espaço vetorial V que contenha todos os vetores de algum conjunto que nos interesse, devemos seguir a seguinte definição:
· Definição2: Dizemos que um vetor w num espaço vetorial V é uma combinação linear do vetores em V se w puder ser expresso na forma em que são escalares denominados coeficientes da combinação linear.
· Teorema: Seja um conjunto não vazio de vetores num espaço vetorial V.
· O conjunto W de todas as combinações lineares possíveis de vetores em S é subespaço de V.
· O conjunto W de todas as combinações lineares possíveis de vetores em S é o “menor” subespaço de V que contém todos os vetores de S, no sentido de que qualquer outro subespaço de V que contenha todos aqueles vetores contém W.
· Definição3: dizemos que o subespaço de um espaço vetorial V que é formado com todas as combinações lineares possíveis de vetores de um conjunto não vazio S é gerado por S, e dizemos que os vetores em S geram esse subespaço. Se , denotamos o espaço gerado de S por ou .
· Teorema: se e são conjuntos não vazios de vetores num espaço vetorial V, então se, e só se, cada vetor em S for uma combinação linear dos vetores em S’, e vice versa. 
Independência Linear: os termos linearmente dependente e linearmente independente pretendem indicar se os vetores de um dado conjunto estão inter-relacionados de alguma maneira, ou não. 
· Definição: se for um conjunto não vazio de vetores num espaço vetorial V, então a equação tem, pelo menos, a solução . Se esta solução é única, então S é um conjunto linearmente independente (LI). Se existem outras soluções, então S é um conjunto linearmente dependente (LD).
· Teorema: Um conjunto S de dois ou mais vetores é:
· Linearmente Dependente se, e somente se, pelo menos um dos vetores de S pode ser expresso como uma combinação linear dos outros vetores em S.
· Linearmente Independente se, e somente se, nenhum vetor em S pode ser expresso como uma combinação linear dos outros vetores em S.
· Teorema:
· Um conjunto finito que contenha 0 é linearmente dependente.
· Um conjunto de um vetor é linearmente independente se, e só se, esse vetor não é 0.
· Um conjunto de exatamente dois vetores é linearmente independente se, e só se, nenhum dos dois vetores for um múltiplo escalar do outro.
· Teorema: seja um conjunto de vetores em Rn. Se r>n, S é LD.
Coordenadas e Bases:
· Definição1: se V for um espaço vetorial qualquer e for um conjunto finito de vetores em V, dizemos que S é uma base de V se S for linearmente independente e se S gera V.
· Teorema – Unicidade da representação em base: se for uma base de um espaço vetorial V, então cada vetor em V pode ser expresso na forma de exatamente uma única maneira.
· Definição2: se for uma base de um espaço vetorial V e se é a expressão de um vetor v em termos da base S, então os escalares são denominados coordenadas de v em relação à base S. O vetor () em Rn construído com essas coordenadas é denominado vetor de coordenadas de v em relação a S e é denotada por .
Dimensão:
· Definição – Espaço Vetorial de dimensão finita: um espaço vetorial não-nulo V é de dimensão finita se contém um conjunto finito que constitui uma base.
· Teorema - Dimensão de um espaço vetorial: seja V um espaço vetorial de dimensão finita e uma base qualquer de V.
· Um conjunto com mais de n vetores é linearmente dependente.
· Um conjunto com menos de n vetores não gera V.
· Definição1: a dimensão de um espaço vetorial de dimensão finita V é denotada por dim(V) e é definida como o número de vetores de uma base de V. Além disso, definimos o espaço vetorial nulo como tendo dimensão zero.
Espaço Linha, Espaço Coluna, Espaço Nulo: 
· Definição1: para uma matriz A nXn
,
os vetores
 em Rn formados pelas linhas de A são denominados vetores linha de A, e os vetores
em Rn formados pelas colunas de A são denominados vetores coluna de A.
· 
· Definição2: se A for uma matriz mXn, então o subespaço de Rn gerados pelos vetores linha de A é denominado espaço linha de A, e o subespaço de Rm gerado pelos vetores coluna de A é denominado espaço coluna de A. O espaço solução do sistema homogêneo de equações , que é um subespaço de Rn, é denominado espaço nulo de A.
· Teorema: um sistema de equações lineares é consistente se, e só se, b está no espaço coluna de A. Ou seja, o sistema pode ser expresso como a soma dos produtos entre as entradas de x e os vetores coluna de A. Ou seja, tendo como vetores coluna de A e como as entradas da matriz x, temos .
· Teorema: se denotar uma solução qualquer de um sistema linear consistente e se for uma base do espaço nulo de A, então cada solução de pode ser expressa na forma . Reciprocamente, com qualquer escolha dos escalares , o vetor x dessa fórmula é uma solução de . A solução geral de um sistema linear consistente pode ser expressa como a soma de uma solução particular daquele sistema com a solução geral dosistema homogêneo correspondente.
· Teorema: se uma matriz R está em forma escalonada por linhas, então os vetores linha com os pivôs (ou seja, vetores linha não nulos) formam uma base do espaço linha de R, e os vetores coluna com os pivôs vetores linha formam uma base do espaço coluna de R.
· Teorema: sejam A e B matrizes equivalentes por linhas,
· Um conjunto qualquer de vetores coluna A é linearmente independente se, e só se, o conjunto de vetores coluna correspondente de B é linearmente independente.
· Um conjunto qualquer de vetores coluna de A forma uma base do espaço coluna de A se, e só se, o conjunto de vetores coluna correspondente de B forma uma base do espaço coluna de B.
· Problema: dado um conjunto de vetores Rn, encontre um subconjunto desses vetores que forme uma base de ger(S) e expresse os vetores que não estejam na base como combinação lineares dos vetores da base.
· Formamos a matriz A com vetores em como vetores coluna.
· Reduzimos a matriz A a uma forma escalonada reduzida por linhas R.
· Dentamos os vetores coluna de R por .
· Identificamos as colunas de R com pivôs. Os vetores coluna de A correspondentes formam uma base de ger(S).
· Obtemos um conjunto de equações de dependência expressando cada vetor coluna de R que não tem pivô como uma combinação linear de vetores coluna precedentes que tenham pivôs.
· Substituímos os vetores coluna de R que apareceram nas equações de dependência pelos vetores coluna de A correspondentes. 
Posto, nulidade e os espaços matriciais fundamentais:
· 
· Teorema: os espaços linha e coluna de uma matriz têm a mesma dimensão.
· Definição1: a dimensão comum do espaço linha e do espaço coluna de uma matriz A é denominada posto de A e denotada por pos(A). A dimensão do espaço nulo de A é denominada nulidade de A e denotada por nul(A). 
· Teorema – Dimensão para matrizes: se A for uma matriz com n colunas, então 
.
· Teorema: se A for uma matriz mXn, então
· 
· 
· 
· Definição1: se um sistema linear contém mais restrições do que incógnitas, ele é um sistema sobredeterminado. Se um sistema linear contém mais incógnitas do que restrições, ele é um sistema subdeterminado. 
· Teorema: se for um sistema linear consistente de m equações em n incógnitas e se A tiver posto r, então a solução geral do sistema contém parâmetros.
· Teorema: seja A uma matriz nXn:
· Caso Sobredeterminado: Se , então o sistema é inconsistente com pelo menos um vetor b em Rn
· Caso Subdeterminado: Se , então, dado qualquer vetor b em Rn, o sistema é inconsistente ou tem uma infinidade de soluções. 
· Teorema: se A for uma matriz qualquer, entçao . Isso tem várias implicações:
· .
· Se , então
1. 
2. .
3. 
4. 
5. .
Essas quatro formulas estabelecem uma relação algébrica entre os tamanhos da matriz e as dimensões de seus espaços fundamentais.
· Definição2: se W for um subespaço de Rn, então o conjunto de todos os vetores de Rn ortogonais a cada vetor W é denominado complemento ortogonal de W e denotado por W⊥.
· Teorema: seja W um subespaço de Rn,
· W⊥ é um subespaço de Rn.
· O único vetor comum entre W e W⊥ é 0.
· O complemento ortogonal de W⊥ é W.
· Teorema: seja A uma matriz mXn,
· O espaço nulo de A e o espaço linha de A são complementos ortogonais em Rn.
· O espaço nulo de At e o espaço linha de A são complementos ortogonais em Rn.
· Teorema – Afirmações Equivalentes: se A for uma matriz nXn, então as seguintes afirmações são equivalentes:
· 
· A é invertível.
· tem somente a solução trivial.
· A forma escalonada reduzida por linhas de A é In.
· A pode ser expressa como um produto de matrizes elementares.
· é consistente com cada matriz b de tamanho nX1.
· tem exatamente uma solução com cada matriz b de tamanho nX1.
· .
· Os vetores coluna de A são linearmente independentes.
· Os vetores linha de A são linearmente independentes.
· Os vetores coluna de A geram Rn.
· Os vetores linha de A geram Rn.
· Os vetores coluna de A formam uma base de Rn.
· Os vetores linha de A formam uma base de Rn.
· A tem posto n.
· A tem nulidade 0.
· O complemento ortogonal do espaço nulo de A é Rn.
· O complemento ortogonal do espaço linha de A é .
Lecture 2 - Transformações lineares e suas propriedades Rorres, 4.9, 4.10 e 8.1
Reflexão da luz no plano e no espaço - Rorres, 4.6 e 4.9 a 4.11
Lecture 3 - Autovalores e autovetores e diagonalização - Rorres, 5.1 e 5.2

Continue navegando