Baixe o app para aproveitar ainda mais
Prévia do material em texto
Eliminação Gaussiana · Propriedades de uma Matriz na forma escalonada reduzida por linhas: · Se uma linha não consistir inteiramente em zeros, então o primeiro número não nulo da linha é um 1 e é chamado de pivô. · Se existirem linhas compostas somente por zeros, então elas serão agrupadas nas linhas inferiores da matriz. · Em quaisquer duas linhas que não consistem só em zeros, o pivô da linha inferior ocorre mais à direta do que o pivô da linha superior. · Cada coluna que contém um pivô tem zeros nas demais entradas. OBS.: uma matriz que contém somente as três primeiras propriedades está somente escalonada. OBS.: as incógnitas representadas pelos pivôs são variáveis líderes, enquanto as demais são variáveis livres. Assim, deve-se colocar as variáveis líderes em função das livres. · Definição 1: se um sistema linear tem uma infinidade de soluções, então um conjunto de equações paramétricas é denominado uma solução geral do sistema se, a partir dessas equações, puderem ser obtidas todas as soluções pela substituição dos parâmetros por vetores. · Métodos de Eliminação: utilizado para reduzir a matriz à forma escalonada reduzida por linhas; · Localizamos a coluna mais à esquerda que não seja constituída inteiramente de zeros. · Permutados a primeiras linha com uma outra linha, se necessários, para obter uma entrada não nula ao topo da coluna encontrada no passo 1. · Se a entrada que agora está no topo da coluna encontrada no passo 1 é “a”, multiplicamos a primeira linha inteira por (1/a) para introduzir um pivô. · Somamos múltiplos convenientes da primeira linha às linhas inferiores para obter zeros em todas as entradas abaixo do pivô. · Isolamos a primeira linha e realizamos os mesmos passos anteriores ao restante da matriz até que toda a matriz esteja em forma escalonada. · Começando com a última linha não nula e trabalhando para cima, somamos múltiplos convenientes de cada linha às linhas superiores para introduzir zeros acima dos líderes. Matrizes Elementares e um método para encontrar A-1 · Matriz identidade: matriz diagonal cujos elementos da diagonal são iguais a 1. · Operações Elementares: · · Multiplicar uma linha por uma constante não nula c. · Trocar duas linhas entre si. · Somar uma constante c vezes uma linha a uma outra linha. · · Definição1: dizemos que as matrizes A e B são equivalentes por linhas se uma delas (portanto, ambas) pode ser obtida a partir da outra por uma sequência de operações elementares com linhas. · Definição2: uma matriz nXn que pode ser obtida da matriz identidade In de tamanho nXn efetuando uma única operação elementar sobre linhas é denominada matriz elementar. · Teorema: qualquer matriz elementar é invertível, e a inversa também é uma matriz elementar. · Teorema: Se A for uma matriz nXn, então as seguintes afirmações são equivalentes, ou seja, são todas verdadeiras ou todas falsas: · · A é invertível. · Ax = 0 tem somente a solução trivial. · A forma escalonada reduzida por linhas de A é In. · A pode ser expressa como um produto de matrizes elementares. · Encontrando a matriz inversa: para determinar a matriz inversa A-1 de A, basta realizar as operações elementares que foram aplicadas a A para encontrar a matriz escalonada reduzida por linhas em uma matriz identidade. Modelos Econômicos de Leontief: considere uma economia aberta (que contém setores que não produzem produtos) simples com um setor aberto e três setores produtivos: manufatura agricultura e serviços. A tabela mostra os insumos (em unidades monetárias) requeridos em cada setor para produzir uma unidade monetária de valor de produto, estando os fornecedores na primeira coluna. Manuf. Agri. Serv. Manuf. $ 0,50 $ 0,10 $ 0,10 Agri. $ 0,20 $ 0,50 $ 0,30 Serv. $ 0,10 $ 0,30 $ 0,40 Essa tabela é expressa por uma matriz consumo (c) em que os vetores coluna (consumo) listam os insumos necessários para os setores produzirem $1,00. Supondo uma demanda d1, d2 e d3 unidades de, respectivamente, manufaturados, agricultura e serviços, o vetor d que contém esses valores é denominado vetor demanda externa. Haja vista que cada setor consome um pouco do seu próprio produto, a sua produção deve supri suas próprias necessidades mais a demanda externa. Assim, teremos x1, x2 e x3 como os valores de produção necessários para cada setor, manufaturados, agricultura e serviços, respectivamente, atender às suas próprias necessidades e à demanda externa. Portanto, o vetor x, que contém esses valores, é denominado vetor de produção e é dado por: O vetor é denominado vetor demanda intermediária. Uma vez atendida a demanda intermediária, a porção da produção que resta para satisfazer as necessidades da demanda externa é . Assim, ser o vetor demanda externa for d, então x deve satisfazer , a equação de Leontief, onde a matriz é denominada a matriz de Leontief. · Generalizando para n setores produtivos: , onde todas as entradas são não negativas e: · : valor do produto do i-ésimo setor que é necessário para o j-ésimo setor produzir um produto no valor de uma unidade monetária. · : valor do produto do i-ésimo setor. · : valor do produto do i-ésimo setor necessário para atender a demanda do setor aberto. OBS.: o j-ésimo vetor coluna de C contém os valores monetários que o j-ésimo setor necessita dos outros setores para produzir um produto no valor de uma unidade monetária. O i-ésimo valor linha de C contém os valores monetários exigidos do i-ésimo setor pelos outros setores para que cada um deles possa produzir um produto no valor de uma unidade monetária. OBS.: Se a matriz for invertível, então a equação tem solução única para cada vetor demanda . Contudo, para x ser um vetor de produção válido, ele deve ter entradas não negativas, de modo que o problema de importância na Economia é determinar condições sob as quais a equação de Leontief tem uma solução com entradas não negativas. No caso em que for invertível, é evidente por que se tem entradas não negativas, então, para cada vetor demanda , o vetor correspondente tem entradas não negativas e, portanto, é um vetor de produção válido na economia. As economias nas quais tem entradas não negativas são produtivas, ou seja, as demandas são sempre atendidas. · Teorema: Se for a matriz de consumo de uma economia aberta e se todas as somas das colunas forem menores do que 1, então a matriz é invertível, as entradas de são não negativas e a economia é produtiva. OBS.: a soma das entradas da j-ésima coluna de representa o valor total de insumo em unidades monetárias que é necessário para o j-ésimo setor produzir $1 de produto, de modo que se a soma das entradas da j-ésima coluna for menor do que 1, então o j-ésimo setor é rentável. Se todos os setores forem rentáveis, a economia será produtiva. Assim, uma economia aberta será rentável se ou a soma das entradas das colunas de C for menor que 1 ou se a soma das entradas das linhas de C for menor que 1 Decomposição LU: o primeiro objetivo é mostras como resolver um sistema linear de n equações em n incógnitas fatorando a matriz A num produto , em que é uma matriz triangular inferior e uma superior. Tendo obtido a fatoração , podemos resolver o sistema linear pela decomposição . · Decomposição LU: · Reescreva o sistema como . · Defina uma nova matriz de tamanho n X 1 tal que . · Use para reescrever como e resolva esse sistema em . · Substitua em e resolva em . · Encontrando decomposições LU: se uma matriz quadrada A pode ser reduzida à forma escalonada por linhas U com eliminação gaussiana sem permuta de linhas, então A pode ser fatorada como A = LU, em que L é uma matriz triangular inferior dada pelo produto das matrizes elementares inversas que resultaram em U. Ou seja, Sabendo que e , temos que . · Método rápido de se obter L: a diagonal principal de L é dada pelo inverso dos multiplicadores que resultaram nos pivôs de U. Os números abaixo da diagonal são dados pelo negativo do multiplicador da operação que introduziu o zero naquela posição em U. · Decomposição LDU: se for preferívelque L tenha as entradas diagonais iguais a , basta empurras as entradas na diagonal de L para uma matriz diagonal D e escrever L como L = L’ D, onde L’ é uma matriz triangular inferior com as entradas da diagonal principal iguais a 1. Exemplo: Lecture 1 - Espaços Vetoriais, coordenadas, bases e dimensão - Rorres, 4.1 a 4.5 . Espaço Vetorial: pode ser entendido como um conjunto munido de duas operações: soma e um produto por escalar. Um espaço vetorial tem que ser “fechado” com relação a essas operações e essas operações têm que atender a certas propriedades. Seja V um conjunto não-vazio qualquer com as operações de adição e multiplicação por escalar definidas. Por adição entendemos uma regra que associa a cada par de objetos u e v em V um objeto u+v, denominado soma de u com v; por multiplicação por escalar entendemos uma regra que associa a cada escalar a e cada objeto u em V um objeto au, denominado múltiplo escalar de u por a. Se os axiomas a seguir estiverem satisfeitos para todos os elementos u, v e w de V e para quaisquer escalares k e l, então V é um espaço vetorial e os seus elementos são vetores. · Axiomas: 1. 2. Se u e v são objetos em V, então u + v é um objeto em V. Refere-se ao espaço vetorial estar fechado em relação à soma. 3. . 4. . 5. Existem um objeto 0 em V, denominado vetor nulo de V, ou vetor zero, tal que , com qualquer u em V. 6. Dado qualquer u em V, existe algum objeto -u, denominado negativo de u, tal que . 7. Se a for qualquer escalar e u um objeto em V, então au é um objeto em V. Refere-se ao espaço vetorial estar fechado em relação à multiplicação por escalar. 8. 9. 10. 11. · Teorema: sejam V um espaço vetorial, u um vetor em V e a um escalar. Então, 1. 2. . 3. . 4. . 5. Se , então ou . Subespaços: um espaço vetorial contido em outro. · Definição1: Um subconjunto W de um espaço vetorial V é chamado de subespaço vetorial de V se W é um espaço vetorial em relação às operações de adição e multiplicação por escalar definidas em V. Em geral, é necessário verificar os dez axiomas de espaço vetorial para mostrar que um conjunto W com duas operações forma um espaço vetorial. Contudo, se W for parte de um espaço vetorial V conhecido, então certos axiomas não precisam ser verificados, pois eles são “herdados” de V. Por exemplo, não é necessário conferir o axioma (2), pois ele vale para todos os vetores de V, inclusive W. Por outro lado, é necessário verificar os axiomas (1) e (6) para W, já que é possível que a soma de dois vetores em W ou a multiplicação de um vetor em W por algum escalar pode produzir um vetor V que esteja fora de W. Sabendo disso, os axiomas (1), (4), (5) e (6) sempre devem ser verificados, pois não são herdados por W. Contudo, se (1) e (6) valerem para W, (4) e (5) também valem, e não precisam ser verificados. · Teorema: se W for um conjunto de um ou mais vetores num espaço vetorial V, então W é um subespaço de V se, e somente se, as condições a seguir forem válidas: · Se u e v forem vetores de W, então u+y está em W. · Se “a” for um escalar qualquer e u algum vetor de W, então au está em W. Para encontrar o menor subespaço de um espaço vetorial V que contenha todos os vetores de algum conjunto que nos interesse, devemos seguir a seguinte definição: · Definição2: Dizemos que um vetor w num espaço vetorial V é uma combinação linear do vetores em V se w puder ser expresso na forma em que são escalares denominados coeficientes da combinação linear. · Teorema: Seja um conjunto não vazio de vetores num espaço vetorial V. · O conjunto W de todas as combinações lineares possíveis de vetores em S é subespaço de V. · O conjunto W de todas as combinações lineares possíveis de vetores em S é o “menor” subespaço de V que contém todos os vetores de S, no sentido de que qualquer outro subespaço de V que contenha todos aqueles vetores contém W. · Definição3: dizemos que o subespaço de um espaço vetorial V que é formado com todas as combinações lineares possíveis de vetores de um conjunto não vazio S é gerado por S, e dizemos que os vetores em S geram esse subespaço. Se , denotamos o espaço gerado de S por ou . · Teorema: se e são conjuntos não vazios de vetores num espaço vetorial V, então se, e só se, cada vetor em S for uma combinação linear dos vetores em S’, e vice versa. Independência Linear: os termos linearmente dependente e linearmente independente pretendem indicar se os vetores de um dado conjunto estão inter-relacionados de alguma maneira, ou não. · Definição: se for um conjunto não vazio de vetores num espaço vetorial V, então a equação tem, pelo menos, a solução . Se esta solução é única, então S é um conjunto linearmente independente (LI). Se existem outras soluções, então S é um conjunto linearmente dependente (LD). · Teorema: Um conjunto S de dois ou mais vetores é: · Linearmente Dependente se, e somente se, pelo menos um dos vetores de S pode ser expresso como uma combinação linear dos outros vetores em S. · Linearmente Independente se, e somente se, nenhum vetor em S pode ser expresso como uma combinação linear dos outros vetores em S. · Teorema: · Um conjunto finito que contenha 0 é linearmente dependente. · Um conjunto de um vetor é linearmente independente se, e só se, esse vetor não é 0. · Um conjunto de exatamente dois vetores é linearmente independente se, e só se, nenhum dos dois vetores for um múltiplo escalar do outro. · Teorema: seja um conjunto de vetores em Rn. Se r>n, S é LD. Coordenadas e Bases: · Definição1: se V for um espaço vetorial qualquer e for um conjunto finito de vetores em V, dizemos que S é uma base de V se S for linearmente independente e se S gera V. · Teorema – Unicidade da representação em base: se for uma base de um espaço vetorial V, então cada vetor em V pode ser expresso na forma de exatamente uma única maneira. · Definição2: se for uma base de um espaço vetorial V e se é a expressão de um vetor v em termos da base S, então os escalares são denominados coordenadas de v em relação à base S. O vetor () em Rn construído com essas coordenadas é denominado vetor de coordenadas de v em relação a S e é denotada por . Dimensão: · Definição – Espaço Vetorial de dimensão finita: um espaço vetorial não-nulo V é de dimensão finita se contém um conjunto finito que constitui uma base. · Teorema - Dimensão de um espaço vetorial: seja V um espaço vetorial de dimensão finita e uma base qualquer de V. · Um conjunto com mais de n vetores é linearmente dependente. · Um conjunto com menos de n vetores não gera V. · Definição1: a dimensão de um espaço vetorial de dimensão finita V é denotada por dim(V) e é definida como o número de vetores de uma base de V. Além disso, definimos o espaço vetorial nulo como tendo dimensão zero. Espaço Linha, Espaço Coluna, Espaço Nulo: · Definição1: para uma matriz A nXn , os vetores em Rn formados pelas linhas de A são denominados vetores linha de A, e os vetores em Rn formados pelas colunas de A são denominados vetores coluna de A. · · Definição2: se A for uma matriz mXn, então o subespaço de Rn gerados pelos vetores linha de A é denominado espaço linha de A, e o subespaço de Rm gerado pelos vetores coluna de A é denominado espaço coluna de A. O espaço solução do sistema homogêneo de equações , que é um subespaço de Rn, é denominado espaço nulo de A. · Teorema: um sistema de equações lineares é consistente se, e só se, b está no espaço coluna de A. Ou seja, o sistema pode ser expresso como a soma dos produtos entre as entradas de x e os vetores coluna de A. Ou seja, tendo como vetores coluna de A e como as entradas da matriz x, temos . · Teorema: se denotar uma solução qualquer de um sistema linear consistente e se for uma base do espaço nulo de A, então cada solução de pode ser expressa na forma . Reciprocamente, com qualquer escolha dos escalares , o vetor x dessa fórmula é uma solução de . A solução geral de um sistema linear consistente pode ser expressa como a soma de uma solução particular daquele sistema com a solução geral dosistema homogêneo correspondente. · Teorema: se uma matriz R está em forma escalonada por linhas, então os vetores linha com os pivôs (ou seja, vetores linha não nulos) formam uma base do espaço linha de R, e os vetores coluna com os pivôs vetores linha formam uma base do espaço coluna de R. · Teorema: sejam A e B matrizes equivalentes por linhas, · Um conjunto qualquer de vetores coluna A é linearmente independente se, e só se, o conjunto de vetores coluna correspondente de B é linearmente independente. · Um conjunto qualquer de vetores coluna de A forma uma base do espaço coluna de A se, e só se, o conjunto de vetores coluna correspondente de B forma uma base do espaço coluna de B. · Problema: dado um conjunto de vetores Rn, encontre um subconjunto desses vetores que forme uma base de ger(S) e expresse os vetores que não estejam na base como combinação lineares dos vetores da base. · Formamos a matriz A com vetores em como vetores coluna. · Reduzimos a matriz A a uma forma escalonada reduzida por linhas R. · Dentamos os vetores coluna de R por . · Identificamos as colunas de R com pivôs. Os vetores coluna de A correspondentes formam uma base de ger(S). · Obtemos um conjunto de equações de dependência expressando cada vetor coluna de R que não tem pivô como uma combinação linear de vetores coluna precedentes que tenham pivôs. · Substituímos os vetores coluna de R que apareceram nas equações de dependência pelos vetores coluna de A correspondentes. Posto, nulidade e os espaços matriciais fundamentais: · · Teorema: os espaços linha e coluna de uma matriz têm a mesma dimensão. · Definição1: a dimensão comum do espaço linha e do espaço coluna de uma matriz A é denominada posto de A e denotada por pos(A). A dimensão do espaço nulo de A é denominada nulidade de A e denotada por nul(A). · Teorema – Dimensão para matrizes: se A for uma matriz com n colunas, então . · Teorema: se A for uma matriz mXn, então · · · · Definição1: se um sistema linear contém mais restrições do que incógnitas, ele é um sistema sobredeterminado. Se um sistema linear contém mais incógnitas do que restrições, ele é um sistema subdeterminado. · Teorema: se for um sistema linear consistente de m equações em n incógnitas e se A tiver posto r, então a solução geral do sistema contém parâmetros. · Teorema: seja A uma matriz nXn: · Caso Sobredeterminado: Se , então o sistema é inconsistente com pelo menos um vetor b em Rn · Caso Subdeterminado: Se , então, dado qualquer vetor b em Rn, o sistema é inconsistente ou tem uma infinidade de soluções. · Teorema: se A for uma matriz qualquer, entçao . Isso tem várias implicações: · . · Se , então 1. 2. . 3. 4. 5. . Essas quatro formulas estabelecem uma relação algébrica entre os tamanhos da matriz e as dimensões de seus espaços fundamentais. · Definição2: se W for um subespaço de Rn, então o conjunto de todos os vetores de Rn ortogonais a cada vetor W é denominado complemento ortogonal de W e denotado por W⊥. · Teorema: seja W um subespaço de Rn, · W⊥ é um subespaço de Rn. · O único vetor comum entre W e W⊥ é 0. · O complemento ortogonal de W⊥ é W. · Teorema: seja A uma matriz mXn, · O espaço nulo de A e o espaço linha de A são complementos ortogonais em Rn. · O espaço nulo de At e o espaço linha de A são complementos ortogonais em Rn. · Teorema – Afirmações Equivalentes: se A for uma matriz nXn, então as seguintes afirmações são equivalentes: · · A é invertível. · tem somente a solução trivial. · A forma escalonada reduzida por linhas de A é In. · A pode ser expressa como um produto de matrizes elementares. · é consistente com cada matriz b de tamanho nX1. · tem exatamente uma solução com cada matriz b de tamanho nX1. · . · Os vetores coluna de A são linearmente independentes. · Os vetores linha de A são linearmente independentes. · Os vetores coluna de A geram Rn. · Os vetores linha de A geram Rn. · Os vetores coluna de A formam uma base de Rn. · Os vetores linha de A formam uma base de Rn. · A tem posto n. · A tem nulidade 0. · O complemento ortogonal do espaço nulo de A é Rn. · O complemento ortogonal do espaço linha de A é . Lecture 2 - Transformações lineares e suas propriedades Rorres, 4.9, 4.10 e 8.1 Reflexão da luz no plano e no espaço - Rorres, 4.6 e 4.9 a 4.11 Lecture 3 - Autovalores e autovetores e diagonalização - Rorres, 5.1 e 5.2
Compartilhar