Buscar

Algebra Linear Anton Rorres

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 11 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 11 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 11 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Eliminação Gaussiana (1.2):
· Propriedades de uma matiz escalonada reduzida por linhas:
· Se uma linha não consistir inteiramente de zeros, então o primeiro número não nulo da linha é um 1 e é chamado de pivô.
· Se existirem linhas constituídas inteiramente de zeros, então elas são agrupadas nas linhas inferiores da matriz.
· Em quaisquer duas linhas sucessivas que não consistem só em zeros, o pivô da linha inferior ocorre mais à direita do que o pivô da linha superior.
· Cada coluna que contém um pivô tem zeros nas demais entradas. 
· Exemplo Importante: Sistemas lineares em três incógnitas
a) A última equação () torna o sistema inconsistente, pois ela não é satisfeita por nenhum valor de ou .
b) Como a última equação () não impõe restrição alguma, temos que os sistema linear corresponde apenas às equações e . Tendo em vista que e são os pivôs da matriz, eles são as variáveis líderes, sedo a variável livre. Assim, podemos resolver o sistema para as variáveis líderes, em função das livres: e . Como é tido como um parâmetro nessas equações, podemos atribuir um valor arbitrário a ele. Dessa forma, teremos as seguintes equações paramétricas (soluções do sistema): , e . Para qualquer valor de haverá uma solução.
c) Omitindo as equações nulas (2 e 3), temos que o sistema linear em questão corresponde apenas à equação . Como é o pivô, podemos converter tal equação para a equação paramétrica . Atribuindo os valores e aos parâmetros e , respectivamente, teremos o seguinte conjunto solução: e .
Definição: “se um sistema linear tem uma infinidade de soluções, então um conjunto de equações paramétricas é denominado uma solução geral do sistema se, a partir dessas equações, puderem ser obtidas todas as soluções pela substituição dos parâmetros por valores numéricos”.
· Método de Eliminação de Gauss-Jordan: 
1. Localizamos a coluna mais à esquerda que não seja constituída inteiramente de zeros.
2. Permutamos a primeira linha com uma outra linha, se necessário, para obter uma entrada nula ao todo da coluna encontrada no passo 1.
3. Se a entrada que agora está no topo da coluna encontrada no passo 1 é , multiplicamos a primeira linha inteira por para introduzir um pivô.
4. Somamos múltiplos convenientes da primeira linha às linhas inferiores para obter zeros em todas as entradas abaixo do pivô.
5. Agora, desconsideramos a primeira linha da matriz e repetimos o processo para a matriz resultante. Fazemos isso até a matriz ficar na forma escalonada. 
6. Após a matriz chegar a forma escalonada, tomamos a última linha não nula da matriz e somamos múltiplos convenientes de cada linha às linhas superiores para introduzir zeros acima dos líderes. A matriz resultante estará na forma escalonada reduzida por linhas. 
· Sistema Homogêneo: um sistema é dito homogêneo se os termos constantes são todos zero, ou seja, 
Cada sistema de equações lineares homogêneo é consistente, por todos esses sistemas têm como uma solução. Essa solução é denominada solução trivial ou solução nula. Quaisquer outras soluções são ditas não triviais. Como um sistema homogêneo sempre contém a solução trivial, há apenas duas possibilidades de solução:
1. O sistema possui apenas a solução trivial.
2. O sistema tem uma infinidade de soluções além da solução trivial. Para garantir que um sistema homogêneo tenha infinitas soluções, basta haver mais incógnitas do que equações.
· Aspectos importantes sobre a resolução de sistemas lineares homogêneos:
1. Nenhuma operação elementar com as linhas altera uma coluna de zeros de uma matriz. Assim, a forma escalonada reduzida por linha da matriz aumentada de um sistema homogêneo tem uma coluna final de zeros, o que implica que o sistema linear correspondente à forma escalonada reduzida é homogêneo, exatamente como o original.
2. Quando construímos um sistema linear homogêneo correspondente à matriz aumentada, ignoramos a linha de zeros, pois a equação correspondente não impõe condição alguma sobre as incógnitas. Assim, dependendo da forma escalonada reduzida por linhas da matriz aumentada de um sistema linear homogêneo ter ou não alguma linha de zeros, o número de equações no sistema correspondente à forma escalonada reduzida é menor do que, ou igual a, o número de equações do sistema original. 
Teorema das variáveis livres de sistemas homogêneos: se um sistema linear homogêneo tiver incógnitas e se a forma escalonada reduzida de sua matriz aumentada tiver linhas não nulas, então o sistema tem variáveis líderes e variáveis livres.
Teorema: um sistema linear homogêneo com mais incógnitas que equações tem uma infinidade de soluções.
· Eliminação Gaussiana e Retrossubstituição: utilizada para resolver sistemas muito grandes. Uma vez obtida a matriz escalonada por linhas através da eliminação gaussiana, deve-se seguir os seguintes passos:
1. Resolva as equações para as variáveis líderes.
2. Começando com a equação de baixo e trabalhando para cima, substitua sucessivamente cada equação em todas as equações acima dela.
3. Atribua valores arbitrários às variáveis livres, se houver.
· Fatos sobre matrizes escalonadas e escalonadas reduzidas:
1. Toda matriz tem uma única forma escalonada reduzida por linhas; ou seja, independentemente de utilizar eliminação de Gauss-Jordan ou uma outra sequência qualquer de operações elementares, no final sempre chegamos à mesma forma escalonada reduzida por linhas.
2. As formas escalonadas por linhas não são únicas, ou seja, diferentes sequências de operações com linhas podem resultar em formas escalonadas diferentes.
3. Embora as formas escalonadas por linhas não sejam únicas, todas as formas escalonadas por linhas de uma matriz A têm o mesmo número de linhas nulas, e os pivôs sempre ocorrem na mesma posição das formas escalonadas por linhas de A. Essas posições são denominadas posições pivô de A. Dizemos que uma coluna que contenha uma posição de pivô é uma coluna de pivô de A.
Matrizes Elementares e um método para encontrar A-1 (1.5):
· Operações elementares com as linhas de uma matriz:
· Multiplicar um linha par uma constante não nula .
· Trocar duas linhas entre si.
· Somar uma constante vezes uma linha a uma outra linha.
Definição: dizemos que as matrizes A e B são equivalentes por linhas se uma delas (portanto, ambas) pode ser obtida a partir de outra sequência de operações elementares com linhas.
Definição: uma matriz que pode ser obtida da matriz identidade de tamanho efetuando uma única operação elementar sobre linhas é denominada matriz elementar.
· Operações com linhas por multiplicação matricial: se a matriz E é o resultado de efetuar uma certa operação com as linhas de e se A é uma matriz , então o produto EA é a matriz que resulta quando essa mesma operação com linhas é efetuada em A.
· Operações Elementares com Linhas:
	Operações com linhas de que produzem E
	Operações com linhas de E que produzem 
	Multiplicar a linha por 0
	Multiplicar a linha por 
	Trocar entre si as linhas e 
	Trocar entre si as linhas e 
	Somar vezes a linha à linha 
	Somar vezes a linha à linha 
Teorema: Qualquer matriz elementar é invertível, e a inversa também é uma matriz elementar.
· Algoritmo da Inversão: para encontrar a inversa de uma matriz invertível A, encontre uma sequência de operações elementares com linhas que reduza A à identidade e depois efetue essa mesma sequência de operações em para obter . ([)
OBS.: se em algum momento da aplicação do algoritmo de inversão aparecer uma linha de zeros do lado esquerdo das matrizes juntadas (na matriz A), então a matriz não é invertível. 
Modelos Econômicos de Leontief (1.9): 
· Definições necessárias:
· Setores Abertos: setores de uma economia que não produzem produtos, apenas consomem.
· Economias Fechadas: economias que não possuem setores abertos.
· Economias Abertas: economias que possuem setores abertos.
· Exemplo para explicar a matriz de Leontief e a equação de Leontief: considere uma economia aberta, com um setor aberto e três setores fechados: manufatura, agricultura e serviços.A tabela abaixo retrata os as quantidades (em unidades monetárias) necessárias de insumos de cada setor para se produzir uma unidade monetárias de um dado insumo. Em seguida, convertemos essa tabela em uma matriz, chamada matriz consumo, e suprimimos as legendas.
	
	Insumo Requerido para produzir 1$
	
	Manufatura
	Agricultura
	Serviços
	
Fornecedor
	Manufatura
	$ 0,50
	$ 0,10
	$ 0,10
	
	Agricultura
	$ 0,20
	$ 0,50
	$ 0,30
	
	Serviços
	$ 0,10
	$ 0,30
	$ 0,40
Os vetores coluna de , que representam as quantidades demandadas de cada insumo por cada setor, são chamados de vetores de consumo.
	Agora, vamos descrever a quantidade de insumos demandada pelo setor aberto de cada setor produtivo. Assim, vamos considerar que represente as unidades monetárias de bens manufaturados demandadas pelo setor aberto, , de produtos agrícolas e , de serviços. O vetor coluna que contém esses números é denominado vetor demanda externa. 
	Como os setores produtivos consomem alguns de seus próprios produtos, o valor em unidades monetárias de seus produtor precisa cobrir suas próprias necessidades mais a demanda externa. Assim, chamaremos de os valores necessários para cobrir as demandas de bens manufaturados, , de produtos agrícolas e, , de serviços. Assim, o vetor coluna é denominado vetor de produção da economia. Dessa forma, temos:
,
onde representa as frações consumidas pela manufatura, , pela agricultura e, , pelos serviços.
	Com isso, o vetor é denominado vetor demanda intermediária da economia. Uma vez atendida a demanda intermediária, a porção da produção que resta para satisfazer as necessidades da demanda externa é . Assim, tendo como o vetor demanda externa, deve satisfazer
,
onde representa a quantidade produzida e a demanda intermediária. Dessa forma, temos
,
onde é a matriz de Leontief e é a equação de Leontief.
· Generalizando o exemplo: considerando n setores produtivos:
Sabendo que nenhuma das entradas são não negativas e
 valor monetário do produto do -ésimo setor que é necessário para o -ésimo setor produzir um produto no valor de uma unidade monetárias.
	 valor monetário do produto do -ésimo setor.
 valro monetário do produto do -ésimo setor que é necessário para atender a demanda do setor aberto.
OBS.: o -ésimo vetor coluna de contém os valores monetários que o -ésimo setor necessita dos outros setores para produzir um produto no valor de uma unidade monetária, e que o -ésimo vetor linha de contém os valores monetários exigidos do -ésimo setor pelos outros setores para que cada um deles possa produzir um produto no valor de uma unidade monetária.
· Teorema: Se for a matriz de consumo de uma economia aberta e se todas as somas das entradas de colunas forem menores do que 1, então a matriz é invertível, as entradas de são não negativas e a economia é produtiva.
Decomposição LU (9.1): método de resolução de sistemas lineares de n equações e n incógnitas que tem por base a fatoração da matriz de coeficientes num produto de uma matriz triangular inferior (L) e uma superior (U).
· Método da Decomposição LU: 
1. Reescreva o sistema como .
2. Defina uma nova matriz de tamanho n x 1 como .
3. Use para reescrever como e resolva esse sistema em .
4. Substitua em e resolva em .
· Teorema: se uma matriz pode ser reduzida à forma escalonada por linhas com eliminação gaussiana sim permuta de linhas, então pode ser fatorada como , em que é uma matriz triangular inferior.
Prova: Se for possível reduzir uma matriz quadrada à forma escalonada reduzida por linhas com eliminação gaussiana, sem permuta de linhas, então possui decomposição , não necessariamente única. Para observar isso, consideremos uma matriz quadrada que tenha sido reduzida por operações elementares com as linhas, e sem permutas de linhas, à forma escalonada por linhas . Essas operações podem ser efetuadas pela multiplicação à esquerda de uma sequência apropriada de matrizes elementares tais que , que é o mesmo que . Tomando , temos que . Note que, por ser uma matriz escalonada por linhas, é uma matriz triangular superior. Por outro lado, é uma matriz triangular inferior, haja vista que ela é dada pelo produto de matrizes elementares que foram obtidas sem permutação de linhas, onde cada resulta da soma de um múltiplo escalar de uma linha de uma matriz identidade a uma linha inferior, ou da multiplicação de uma linha de uma matriz identidade por um escalar não nulo, o que faz com que, em ambos os casos, a matriz resultante seja triangular inferior e, portanto, também, e, portanto, também. 
· Procedimento para construir uma decomposição :
1. Reduza à forma escalonada pro linhas por eliminação gaussiana sem troca de linhas, mantendo armazenados os multiplicadores utilizados para introduzir os zeros debaixo dos pivôs.
2. Em cada posição ao longo da diagonal principal de , coloque o recíproco do multiplicador que introduziu o pivô naquela posição em .
3. Em cada posição abaixo da diagonal principal de , coloque o negativo do multiplicador utilizado para introduzir o zero naquela posição em .
4. Forme a decomposição .
· Decomposição : caso haja necessidade de haver simetria entre as matrizes triangulares inferior e superior, ou seja, de a matriz triangular superior possuir entradas iguais a 1 na sua diagonal principal, basta “deslocar” as entradas da diagonal principal de para uma matriz diagonal e escrever como , onde é uma matriz triangular inferior de diagonal principal composta por números 1 e é uma matriz diagonal com a diagonal principal contendo os valores iniciais da diagonal principal de .
Como fazer isso:
Assim, podemos decompor a matriz como , onde é a matriz triangular inferior de diagonal principal composta por números 1, é uma matriz diagonal e é uma matriz triangular superior de diagonal principal composta por números 1. 
· Decomposição : para ser possível decompor uma matriz quadrada em realizando o trocas de linhas no processo de escalonamento, basta pré-processar a matriz por uma matriz , tal que é produto das matrizes elementares que produzem as permutações de linhas de . Assim, o produto pode ser decomposto como . Como a matriz é invertível, temos que . Tendo , temos que .
Espaços Vetoriais (4.1): para que exista um espaço vetorial, um grupo de objetos deve atender aos dez axiomas abaixo.
· Axiomas: seja um conjunto não vazio qualquer de objetos no qual estejam definidas duas operações, a adição e a multiplicação por escalares. Por adição entendemos uma regra que associa para cada par de objetos e em um objeto , denominado soma de com ; por multiplicação por escalar entendemos uma regra que associa a cada escalar e cada objeto em um objeto , denominado múltiplo escalar de por . Se os axiomas seguintes forem satisfeitos por todos os objetos , e em e quaisquer escalares e , diremos que é um espaço vetorial e que os objetos de são vetores.
1. 
2. Se e são objetos em , então é um objeto em .
3. 
4. 
5. Existe um objeto em , denominado vetor nulo de , ou vetor zero, tal que
, com qualquer em .
6. Dado qualquer em , existe algum objeto , denominado negativo de , tal que .
7. Se dor qualquer escalar e um objeto em , então é um objeto em .
8. 
9. 
10. 
11. 
· 
· Demonstração de que um conjunto com duas operações é um espaço vetorial:
1. Identifique o conjunto de objetos que serão os vetores.
2. Identifique as operações de adição e multiplicação por escalar.
3. Verifique a validade dos Axiomas 1 e 6; ou seja, que a soma de dois vetores em produz um vetor em , e que a multiplicação de um vetor em por um escalar também produz um vetor em . O axioma 1 é denominado fechamento na adição e, o 6, fechamento no produto escalar.
4. Confirme que valem os outros 8 axiomas. 
· Teorema: sejam um espaço vetorial, um vetor em e um escalar, então
1. 
2. 
3. 
4. 
5. Se , então ou .
Subespaços (4.2): um subconjunto de um espaço vetorial é denominado subespçao de se for um espaço vetorial por si só com as operações de adição e multiplicação por escalardefinidas em .
· Teorema: se for um conjunto de um ou mais vatores num espaço vetorial , então é um subespçao de se, e só se, as condições seguintes forem válidas:
1. Se e forem vetores em , então está em .
2. Se for um escalar qualquer e algum vetor de , então está em .
Prova: se for um subespaço de , então todos os axiomas de espaço vetorial são satisfeitos, inclusive os axiomas 1 e 6. Reciprocamente, suponha que valham as condições 1 e 2 (acima). Como estas são os axiomas 1 e 6 e como os axiomas 2, 3, 7, 8, 9 e 10 são herdados de , basta mostrar que os axiomas 4 e 5 valem para . Para isso, seja um vetor qualquer em . Da condição 2, segue que, dado qualquer escalar , o vetor está em . Em particular, e estão em , mostrando que os axiomas 4 e 5 valem em .
· Teorema - Como criar subespaços a partir de subespaços conhecidos: se forem subespaços de um espaço vetorial , então a interseção desses subespaços também será um subespaço de .
Prova: Seja a interseção dos subespaços . Esse conjunto não é vazio por que, como cada um desses subespaços contém o vetor nulo de , também sua interseção tem o vetor nulo. Assim, falta mostrar que é fechado na adição e na multiplicação por escalar.
	Para provar o fechamento na adição, sejam e vetores em . Como é a intersecção de , segue que e também estão em cada um desses subespaços. Como esses subespaços são fechados na adição, todos contêm o vetor e, portanto, sua interseção também contém esse vetor. Isso prova que é fechado na adição. De forma análoga podemos provar o fechamento na multiplicação por escalar.
· Definição: dizemos que um vetor num espaço vetorial é uma combinação linear dos vetores em se puder ser expresso na forma em que são escalares. Esses escalares são denominados coeficientes da combinação linear. 
· Teorema: seja um conjunto não vazio de vetores num espaço vetorial .
1. O conjunto de todas as combinação lineares possíveis de vetores em é um sibespaço de .
2. O conjunto da parte 1 é o “menor” subespaço de que contém todos os vetores de , no sentido que qualquer outro subespaço de que contenha todos aqueles vetores contém .
Prova: 
1. Seja o conjunto de todas as combinações lineares possíveis de vetores em . Devemos mostrar que é fechado na adição e na multiplicação por escalar. Para provar o fechamento na adição, sejam e dois vetores em . Segue que sua soma pode ser escrita como que é uma combinação linear dos vetores em . Assim, é fechado na adição. De maneira análoga pode-se provar o fechamento na multiplicação por escalar.
2. Seja um subespaço qualquer de que contenha os vetores em . Como é fechado na adição e na multiplicação por escalar, contém todas as combinações lineares de vetores em e, portanto, contém .
· Definição: dizemos que o subespaço de um espaço vetorial que é formado como todas as combinações lineares possíveis de vetores de um conjunto não vazio é gerado por , e dizemos que os vetores em geram esse subespaço. Assim, se , denotamos o gerado de por ou .
· Teorema - Espaços de soluções de sistemas homogêneos: as soluções de um sistema linear homogêneo em incógnitas é um subespaço de .
Prova: seja o conjunto de soluções do sistema. O conjunto não é vazio porque contém pelo menos a solução trivial . Para mostrar que é um subespaço de , precisamos mostrar que é fechado na adição e na multiplicação por escalar. Para isso, sejam e dois vetores em . Como esses vetores são soluções de , temos e . Segue dessas equações e da propriedade distributiva da multiplicação matricial, que , de modo que é fechado na adição. Analogamente, se for um escalar qualquer, então , de modo que ´w fechado na multiplicação por escalar. 
OBS.: enquanto um conjunto das soluções de cada sistema homogêneo de equações e incógnitas é um subespaço de , nunca é verdade que o conjunto das soluções de um sistema não homogêneo de equações e incógnitas seja um subespaço de . Há dois cenários possíveis: primeiro, o sistema pode não ter quaisquer soluções; e segundo, se houver soluções, então o conjunto de soluções não será fechado nem na adição, nem na multiplicação por escalar.
· Teorema: se e são conjuntos não vazio de vetores num espaço vetorial , então se, e só se, cada vetor em é uma combinação linear dos vetores em , e cada vetor em é uma combinação linear dos vetores em .
Independência Linear (4.3): é necessário descobrir se um determinado vetor é independente linearmente pois a sua não independência linear causa diversas complicações. Assim, temos a seguinte definição: 
· Definição: se for um conjunto não vazio de vetores num espaço vetorial , então a equação vetorial tem pelo menos uma solução, a trivial (). Assim, se essa for a única solução, é um conjunto linearmente independente. Se existirem outras soluções além da trivial, é um conjunto linearmente dependente.
· Teorema: um conjunto de dois ou mais vetores é
1. Linearmente dependente se, e só se, pelo menos um dos vetores de pode ser expresso como uma combinação linear dos outros vetores em .
2. Linearmente independente se, e só se, nenhum vetor em pode ser expresso como uma combinação linear dos outros vetores em .
Prova: Seja um conjunto com dois ou mais vetores.
1. Supondo que seja linearmente dependente, existem escalares , não todos nulos, tais que . Mais especificamente, supondo , temos , que expressa como uma combinação linear dos outros vetores em . Analogamente, se com algum , então pode ser escrito como uma combinação linear dos outros vetores em . Reciprocamente, suponha que pelo menos um dos vetores em possa ser expresso como uma combinação linear dos outros vetores.
2. Supondo que seja linearmente independente, a equação pode ser satisfeita apenas se os escalares forem todos nulos, pois, apenas desta maneira não é possível escrever um vetor em função de outro, como no item anterior. 
· Teorema: 
1. Um conjunto finito que contenha é linearmente dependente.
2. Um conjunto de exatamente um vetor é linearmente independente se, e só se, esse vetor não é .
3. Um conjunto de exatamente dois vetores é linearmente independente se, e só se, nenhum dos dois vetores é um múltiplo escalar do outro. 
· Teorema: seja um conjunto de vetores em . Se , ou seja, os vetores têm menos componentes que o número total de vetores, então é linearmente dependente.
Prova: suponha que , , e considere a equação . Expressando ambos os lados dessa equação em termos dos componentes e igualando os componentes correspondentes, obtemos o sistema
Isso é um sistema homogêneo de equações nas incógnitas . Como , segue que o sistema tem soluções não triviais. Portanto, é linearmente dependente.
· Definição Importante: se forem funções vezes deriváveis no intervalo (), então o determinante
é denominado wronskiano de .
· Teorema: se as funções tiverem derivadas contínuas no intervalo (), e se o wronskiano dessas funções não for identicamente zero em (), ou seja, se houver alguma situação em que o wronskiano não se iguala a zero, então essas funções formam um conjunto linearmente independente de vetores em .
Coordenadas e Bases (4.4): 
· Definição: se for um espaço vetorial qualquer e for um conjunto finito de vetores em , dizemos que é uma base de se valerem duas condições:
1. é linearmente dependente.
2. gera .
· Teorema – Unicidade da representação em base: se for uma base de um espaço vetorial , então cada vetor em pode ser expresso na forma de exatamente uma única maneira.
Prova: Como gera , segue da definição de conjunto gerador que cada vetor de pode ser expresso como uma combinação linear dos vetores em . Para ver que só existe uma maneira de expressar um vetor como uma combinação linear dos vetores em , suponha que um certo vetor possa ser escrito como e também como . Subtraindo a segunda equação da primeira, temos . Como o lado direto dessa equação é uma combinação linear dos vetores em , a independência linear de implica , , ..., , ou seja, , , ..., . Assim, as duas expressões para são a mesma.· Definição: se for uma base de um espaço vetorial e se é a expressão de um vetor em termos da base , então os escalares são denominados coordenadas de em relação à base . O vetor em construído com essas coordenadas é denominado vetor de coordenadas de em relação a e é denotado por .
Dimensão (4.5): 
· Teorema: todas as bases de um espaço vetorial de dimensão finita têm o mesmo número de vetores.
· Teorema: sejam um espaço vetorial de dimensão finita e uma base qualquer de .
1. Um conjunto com mais de vetores é linearmente dependente.
2. Um conjunto com menos de vetores não gera .
Prova: 
1. Seja um conjunto qualquer de vetores em , com . Queremos mostrar que é linearmente dependente. Como é uma base, cada pode ser expresso como uma combinação linear dos vetores m em , digamos, 
Para mostrar que é linearmente dependente, devemos encontrar escalares não todos zero, tais que . Dessa forma, temos . Como essa equação apresenta mais incógnitas do que equações, a prova está completa, pois há soluções não triviais.
2. Seja um conjunto qualquer de vetores em , com . Queremos mostrar que não gera . Faremos isso mostrando que a suposição de que gere leva a uma contradição da independência linear de . Se gera , então cada vetor em é uma combinação linear dos vetores em . Em particular, cada vetor da base é uma combinação linear dos vetores em , digamos, 
Para obter nossa contradição mostraremos que existem escalares não todos zero, tais que . No entanto, se notarmos as duas equações deste item e as duas do intem anterior, perceberemos que elas se assemelham. Assim, 
Esse sistema tem mais incógnitas do que equações e, portanto, tem soluções não triviais.
· Definição: a dimensão de um espaço vetorial de dimensão finita é denotada por e é definida como o número de vetores numa base de . Além disso, definimos o espaço vetorial nulo como tendo dimensão zero.
· Teorema – mais/menos: seja um conjunto não vazio de vetores num espaço vetorial .
1. Se for um conjunto linearmente independente e se for um vetor em que está fora do , então o conjunto que resulta do acréscimo de a ainda é linearmente independente.
2. Se for um vetor em que pode ser expresso como combinação linear dos outros vetores de , e se denotar o conjunto obtido removendo de , então e geram o mesmo espaço, ou seja, .
Prova:
1. Suponha que seja um conjunto linearmente independente de vetores em , e que seja um vetor em que está fora do . Para mostrar que é um conjunto linearmente independente, devemos mostrar que os únicos escalares que satisfazem a equação são . Mas certamente temos , pois, caso contrário, poderíamos resolver tal equação em como uma combinação linear , contradizendo a nossa suposição de que está fora do . Assim, podemos simplificar a equação para , o que implica, pela independência linear de , que .
2. Suponha que seja um conjunto de vetores em e suponha que é uma combinação linear de , digamos, . Queremos mostrar que se for removido de , então o conjunto restante ainda gera , ou seja, devemos mostrar que cada vetor em pode ser expresso como uma combinação linear de . Mas se for um vetor em , então pode ser expresso na forma ou, então, , o que dá como uma combinação linear de .
· Teorema: sejam um espaço vetorial de dimensão e um conjunto em com exatamente vetores. Então é uma base de se, e só se, gera ou é linearmente independente. 
Prova: suponha que tenha exatamente vetores e que gere . Para provar que é uma base, devemos mostrar que é um conjunto linearmente independente. Se esse não for o caso, então algum vetor em é uma combinação linear dos demais vetores. Removendo esse vetor de , o conjunto restante de vetores ainda gera . Mas isso é impossível, pois nenhum conjunto com menos do que vetores pode gerar um espaço vetorial de dimensão . Assim, é linearmente independente. Suponha que tenha exatamente vetores e que seja um conjunto linearmente independente. Para provar que é uma base, devemos mostrar que gera . Se esse não for o caso, então existe algum vetor de que não está no . Acrescentando esse vetor a , o conjunto resultante de vetores ainda é linearmente independente. Mas isso é impossível, pois nenhum conjunto com mais de vetores em um espaço vetorial de dimensão pode ser linearmente independente. Assim, gera .
· Teorema: Seja um conjunto finito de vetores num espaço vetorial de dimensão finita.
1. Se gera , mas não for uma base de , então pode ser reduzido a uma base de removendo vetores apropriados de .
2. Se for um conjunto linearmente independente, mas não for uma base de , então pode ser ampliado a uma base d e acrescentando vetores apropriados a .
Prova: 
1. Se for um conjunto de vetores que gera , mas não é uma base de , entçao é um conjunto linearmente dependente. Assim, algum vetor em pode ser expresso como uma combinação linear dos demais vetores em . Pelo teorema mais/menos podemos remover de e o conjunto resultante ainda gera . Se for linearmente independente, então é uma base de e podemos parar. Se for linearmente dependente, então podemos remover algum vetor apropriado de para obter o conjunto que ainda gera . Podemos continuar removendo vetores dessa maneira até chegar, finalmente, num conjunto de vetores em que é linearmente independente e que gera . Esse subconjunto de é uma base de .
2. Suponha que . Se é um conjunto linearmente independente que ainda não é uma base de , então não gera e, portanto, existe algum vetor em que não está no . Pelo teorema mais/menos, podemos acrescentar a e o conjunto resultante ainda é linearmente independente. Se gerar , então é uma base de e podemos parar. Se não gerar , então podemos acrescentar algum vetor apropriado a para obter um conjunto que ainda é linearmente independente. Podemos continuar acrescentando vetores dessa maneira até chegar num conjunto de vetores linearmente independentes em . Esse conjunto será uma base de pelo teorema anterior.
· Teorema: se for um subespaço de um espaço vetorial de dimensão finita, então
1. tem dimensão finita.
2. .
3. se, e só se, .
Prova: 
1. Como está inserido em um conjunto finito, logo, ele também é finito.
2. O item 1 mostra que possui dimensão finita, de modo que possui uma base . Ou também é uma base de ou não. Se for, então , o que significa que . Se não for, como é um conjunto linearmente independente, pode ser ampliado a uma base de pela parte 2 do teorema anterior, o que implica que . Assim, em ambos casos, mostramos que .
3. Suponha que e que seja uma base de . Se não fosse também uma base de , então, por ser linearmente independente, poderia ser ampliado a uma base de pelo item 2 do teorema anterior. Mas isso significaria que , contradizendo nossa hipótese. Assim, deve ser também uma base de , o que significa que .
Afirmações Equivalentes: se for uma matriz , então as seguintes afirmações são equivalentes, ou seja, são todas verdadeiras ou todas falsas.
1. é invertível.
2. tem somente a solução trivial.
3. A forma escalonada reduzida por linhas de é .
4. pode ser expressa como um produto de matrizes elementares.
Prova:
1. → 2. Suponha que seja invertível e que seja uma solução qualquer de . Multiplicando ambos os lados dessa equação pela matriz , dá , ou , ou , ou seja, . Assim, tem somente a solução trivial.
2. → 3. Seja a forma matricial do sistema
e suponha que o sistema só admita a solução trivial. Resolvendo por eliminação de Gauss-Jordan, o sistema escalonado reduzido por linhas será
Assim, a matriz aumentada 
Pode ser reduzida à matriz aumentada
por uma sequência de operações elementares com linhas. Desconsiderando a última coluna (de zeros) em cada uma dessas matrizes, poderemos concluir que a forma escalonada reduzida por linhas de é .
3. → 4. Suponha que a forma escalonada reduzida por linhas de seja , de modo que pode ser reduzida a por uma sequência finita de operações elementares com linhas. Como cadauma dessa operações pode ser efetuada por uma matriz elementar apropriada, adotando as matrizes elementares tais que . Sabendo que as matrizes são invertíveis, podemos multiplicar ambos os lados da equação por , obtemos
,
Que expressa como uma multiplicação de matrizes elementares.
4. → 1. Se for um produto de matrizes elementares, então a matriz é um produto de matrizes invertíveis e, portanto, é invertível.

Continue navegando