Baixe o app para aproveitar ainda mais
Prévia do material em texto
Ca´lculo Nume´rico Teoria da Aproximac¸a˜o Me´todo dos Mı´nimos Quadrados Joa˜o Paulo Gois Universidade Federal do ABC 1 1 Apresentac¸a˜o baseada nos slides do prof. John Carroll, Dublin City University, nos Livros Ana´lise Nume´rica (Burden & Faires) e Ca´lculo Nume´rico (Neide B. Franco) e nas notas de Aula do prof. Claudio Meneses (UFABC) Ajuste de curvas Considere o problema de aproximar uma func¸a˜o f(x) : R→ R por uma func¸a˜o F (x) : R→ R, usando func¸o˜es conhecidas. Formalmente, desejamos determinar os valores (nos reais) de a0, a1, . . . , am de forma que f(x) ∼= a0g0(x) + a1g1(x) + · · ·+ amgm(x) = F (x) (1) onde ‖f(x)− F (x)‖ seja m´ınimo. OBS.: ‖ · ‖ e´ uma norma. Ajuste de curvas Considere o problema de aproximar uma func¸a˜o f(x) : R→ R por uma func¸a˜o F (x) : R→ R, usando func¸o˜es conhecidas. Formalmente, desejamos determinar os valores (nos reais) de a0, a1, . . . , am de forma que f(x) ∼= a0g0(x) + a1g1(x) + · · ·+ amgm(x) = F (x) (1) onde ‖f(x)− F (x)‖ seja m´ınimo. OBS.: ‖ · ‖ e´ uma norma. Ajuste de curvas Considere o problema de aproximar uma func¸a˜o f(x) : R→ R por uma func¸a˜o F (x) : R→ R, usando func¸o˜es conhecidas. Formalmente, desejamos determinar os valores (nos reais) de a0, a1, . . . , am de forma que f(x) ∼= a0g0(x) + a1g1(x) + · · ·+ amgm(x) = F (x) (1) onde ‖f(x)− F (x)‖ seja m´ınimo. OBS.: ‖ · ‖ e´ uma norma. Exemplo Aproximar f(x) = x4−5x, x ∈ [−1, 1] por um polinoˆnio do segundo grau. Ha´ va´rios me´todos que podem ser usados para tentar aproximar F (x) de f(x) Vimos me´todos de interpolac¸a˜o polinomial em aulas passadas Uma outra abordagem e´ pelo Me´todo dos Mı´nimos Quadrados, que usa o conceito de projec¸o˜es ortogonais de pontos em espac¸os vetoriais. Ha´ va´rios me´todos que podem ser usados para tentar aproximar F (x) de f(x) Vimos me´todos de interpolac¸a˜o polinomial em aulas passadas Uma outra abordagem e´ pelo Me´todo dos Mı´nimos Quadrados, que usa o conceito de projec¸o˜es ortogonais de pontos em espac¸os vetoriais. Ha´ va´rios me´todos que podem ser usados para tentar aproximar F (x) de f(x) Vimos me´todos de interpolac¸a˜o polinomial em aulas passadas Uma outra abordagem e´ pelo Me´todo dos Mı´nimos Quadrados, que usa o conceito de projec¸o˜es ortogonais de pontos em espac¸os vetoriais. Ha´ va´rios me´todos que podem ser usados para tentar aproximar F (x) de f(x) Vimos me´todos de interpolac¸a˜o polinomial em aulas passadas Uma outra abordagem e´ pelo Me´todo dos Mı´nimos Quadrados, que usa o conceito de projec¸o˜es ortogonais de pontos em espac¸os vetoriais. Conceitos ba´sicos Definic¸a˜o Seja E um espac¸o vetorial real. Sejam x, y ∈ E. Chama-se produto escalar (ou produto interno) de x por y – em s´ımbolo 〈x, y〉 – e´ qualquer func¸a˜o definida em E×E com valores em R, satisfazendo as seguintes propriedades: (P1) 〈x, y〉 = 〈y, x〉 ∀x, y ∈ E; (P2) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 ∀x, y, z ∈ E; (P3) 〈λx, y〉 = λ〈x, y〉 ∀λ ∈ R,∀x, y ∈ E; (P4) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se e somente se x = 0 (vetor nulo). Exemplo de Produto Escalar Produto escalar usual em Rn 〈x, y〉 = n∑ i=1 xiyi Conceitos ba´sicos Definic¸a˜o Seja E um espac¸o vetorial real. Sejam x, y ∈ E. Chama-se produto escalar (ou produto interno) de x por y – em s´ımbolo 〈x, y〉 – e´ qualquer func¸a˜o definida em E×E com valores em R, satisfazendo as seguintes propriedades: (P1) 〈x, y〉 = 〈y, x〉 ∀x, y ∈ E; (P2) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 ∀x, y, z ∈ E; (P3) 〈λx, y〉 = λ〈x, y〉 ∀λ ∈ R,∀x, y ∈ E; (P4) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se e somente se x = 0 (vetor nulo). Exemplo de Produto Escalar Produto escalar usual em Rn 〈x, y〉 = n∑ i=1 xiyi Conceitos ba´sicos Definic¸a˜o Seja E um espac¸o vetorial real. Sejam x, y ∈ E. Chama-se produto escalar (ou produto interno) de x por y – em s´ımbolo 〈x, y〉 – e´ qualquer func¸a˜o definida em E×E com valores em R, satisfazendo as seguintes propriedades: (P1) 〈x, y〉 = 〈y, x〉 ∀x, y ∈ E; (P2) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 ∀x, y, z ∈ E; (P3) 〈λx, y〉 = λ〈x, y〉 ∀λ ∈ R,∀x, y ∈ E; (P4) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se e somente se x = 0 (vetor nulo). Exemplo de Produto Escalar Produto escalar usual em Rn 〈x, y〉 = n∑ i=1 xiyi Conceitos ba´sicos Definic¸a˜o Seja E um espac¸o vetorial real. Sejam x, y ∈ E. Chama-se produto escalar (ou produto interno) de x por y – em s´ımbolo 〈x, y〉 – e´ qualquer func¸a˜o definida em E×E com valores em R, satisfazendo as seguintes propriedades: (P1) 〈x, y〉 = 〈y, x〉 ∀x, y ∈ E; (P2) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 ∀x, y, z ∈ E; (P3) 〈λx, y〉 = λ〈x, y〉 ∀λ ∈ R, ∀x, y ∈ E; (P4) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se e somente se x = 0 (vetor nulo). Exemplo de Produto Escalar Produto escalar usual em Rn 〈x, y〉 = n∑ i=1 xiyi Conceitos ba´sicos Definic¸a˜o Seja E um espac¸o vetorial real. Sejam x, y ∈ E. Chama-se produto escalar (ou produto interno) de x por y – em s´ımbolo 〈x, y〉 – e´ qualquer func¸a˜o definida em E×E com valores em R, satisfazendo as seguintes propriedades: (P1) 〈x, y〉 = 〈y, x〉 ∀x, y ∈ E; (P2) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 ∀x, y, z ∈ E; (P3) 〈λx, y〉 = λ〈x, y〉 ∀λ ∈ R, ∀x, y ∈ E; (P4) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se e somente se x = 0 (vetor nulo). Exemplo de Produto Escalar Produto escalar usual em Rn 〈x, y〉 = n∑ i=1 xiyi Conceitos ba´sicos Definic¸a˜o Seja E um espac¸o vetorial. Dados os vetores x, y ∈ E, denomina-se distaˆncia entre x e y - em s´ımbolo dist(x, y) - o comprimento do vetor x− y. Isto e´, dist(x, y) = ‖x− y‖ = √ 〈x− y, x− y〉 Conceitos ba´sicos Projec¸a˜o ortogonal de um vetor sobre outro vetor: Sejam x, y dois vetores na˜o nulos e λ ∈ R tal que λy e´ ortogonal a x− λy. CAPI´TULO 1. CONCEITOS BA´SICOS 18 Assim P0(x), P1(x), P2(x) sa˜o dois a dois ortogonais. Observe que sempre que desejarmos obter uma sequeˆncia de polinoˆmios ortogonais sobre um determi- nado intervalo, podemos tomar a sequeˆncia 1, x, x2, . . . como sendo a sequeˆncia original e ortogonaliza´-la. Exerc´ıcios 1.19 - Usando o processo de Gram-Schmidt e o produto escalar usual do IR3, ortonormalizar a base: e1 = (1, 1, 1) t , e2 = (1, �1, 1)t , e3 = (�1, 0, 1)t . 1.20 - Os vetores {(0, 2, 1, 0)t, (1, �1, 0, 0)t, (1, 2, 0, �1)t, (1, 0, 0, 1)t} constituem uma base na˜o ortonormal do IR4. Construir a partir desses vetores, uma base ortonormal para o IR4, usando o processo de Gram-Schmidt. 1.21 - Ortonormalize a sequeˆncia de polinoˆmios obtida no exemplo 1.16. 1.22 - Usando o produto escalar usual em C[1, 2] e o processo de Gram-Schmidt construa uma sequeˆncia de polinoˆmios ortonormais. 1.4 Projec¸a˜o Ortogonal Veremos aqui a projec¸a˜o ortogonal de um vetor sobre outro bem como a projec¸a˜o ortogonal de um vetor sobre um sub-espac¸o. Esse u´ltimo sera´ utilizado no estudo de aproximac¸o˜es de func¸o˜es pelo me´todo dos mı´nimos quadrados. Projec¸a˜o Ortogonal de um Vetor sobre Outro Sejam x e y vetores na˜o nulos. Escolhemos um nu´mero real � tal que � y seja ortogonal a x � � y, como sugere a Figura 1.2, no caso em que E = IR2. x� � y � y x y 6* - - Figura 1.2 De � y ? (x� � y), conclu´ımos que (� y, x� � y) = 0. Portanto, aplicando P3, segue que: �(y, x)� �2(y, y) = 0 ! � = (x, y) (y, y) . Assim, obtemos a seguinte definic¸a˜o. Definic¸a˜o 1.14 - Num espac¸o euclidiano real, chama-se projec¸a˜o ortogonal de x sobre y, y 6= ✓, o vetor z definido por: z = (projec¸a˜o de x sobre y) = (x, y) (y, y) y. De λy ⊥ (x− λy) segue que 〈λy, x− λy〉 = 0 e portanto λ〈y, x〉 − λ2〈y, y〉 = 0 ⇒ λ = 〈x, y〉〈y, y〉 Conceitos ba´sicos Projec¸a˜o ortogonal de um vetor sobre outro vetor: Sejam x, y dois vetores na˜o nulos e λ ∈ R tal que λy e´ ortogonal a x− λy. CAPI´TULO 1. CONCEITOS BA´SICOS 18 Assim P0(x), P1(x), P2(x) sa˜o dois a doisortogonais. Observe que sempre que desejarmos obter uma sequeˆncia de polinoˆmios ortogonais sobre um determi- nado intervalo, podemos tomar a sequeˆncia 1, x, x2, . . . como sendo a sequeˆncia original e ortogonaliza´-la. Exerc´ıcios 1.19 - Usando o processo de Gram-Schmidt e o produto escalar usual do IR3, ortonormalizar a base: e1 = (1, 1, 1) t , e2 = (1, �1, 1)t , e3 = (�1, 0, 1)t . 1.20 - Os vetores {(0, 2, 1, 0)t, (1, �1, 0, 0)t, (1, 2, 0, �1)t, (1, 0, 0, 1)t} constituem uma base na˜o ortonormal do IR4. Construir a partir desses vetores, uma base ortonormal para o IR4, usando o processo de Gram-Schmidt. 1.21 - Ortonormalize a sequeˆncia de polinoˆmios obtida no exemplo 1.16. 1.22 - Usando o produto escalar usual em C[1, 2] e o processo de Gram-Schmidt construa uma sequeˆncia de polinoˆmios ortonormais. 1.4 Projec¸a˜o Ortogonal Veremos aqui a projec¸a˜o ortogonal de um vetor sobre outro bem como a projec¸a˜o ortogonal de um vetor sobre um sub-espac¸o. Esse u´ltimo sera´ utilizado no estudo de aproximac¸o˜es de func¸o˜es pelo me´todo dos mı´nimos quadrados. Projec¸a˜o Ortogonal de um Vetor sobre Outro Sejam x e y vetores na˜o nulos. Escolhemos um nu´mero real � tal que � y seja ortogonal a x � � y, como sugere a Figura 1.2, no caso em que E = IR2. x� � y � y x y 6* - - Figura 1.2 De � y ? (x� � y), conclu´ımos que (� y, x� � y) = 0. Portanto, aplicando P3, segue que: �(y, x)� �2(y, y) = 0 ! � = (x, y) (y, y) . Assim, obtemos a seguinte definic¸a˜o. Definic¸a˜o 1.14 - Num espac¸o euclidiano real, chama-se projec¸a˜o ortogonal de x sobre y, y 6= ✓, o vetor z definido por: z = (projec¸a˜o de x sobre y) = (x, y) (y, y) y. De λy ⊥ (x− λy) segue que 〈λy, x− λy〉 = 0 e portanto λ〈y, x〉 − λ2〈y, y〉 = 0 ⇒ λ = 〈x, y〉〈y, y〉 Conceitos ba´sicos Projec¸a˜o ortogonal de um vetor sobre outro vetor: Sejam x, y dois vetores na˜o nulos e λ ∈ R tal que λy e´ ortogonal a x− λy. CAPI´TULO 1. CONCEITOS BA´SICOS 18 Assim P0(x), P1(x), P2(x) sa˜o dois a dois ortogonais. Observe que sempre que desejarmos obter uma sequeˆncia de polinoˆmios ortogonais sobre um determi- nado intervalo, podemos tomar a sequeˆncia 1, x, x2, . . . como sendo a sequeˆncia original e ortogonaliza´-la. Exerc´ıcios 1.19 - Usando o processo de Gram-Schmidt e o produto escalar usual do IR3, ortonormalizar a base: e1 = (1, 1, 1) t , e2 = (1, �1, 1)t , e3 = (�1, 0, 1)t . 1.20 - Os vetores {(0, 2, 1, 0)t, (1, �1, 0, 0)t, (1, 2, 0, �1)t, (1, 0, 0, 1)t} constituem uma base na˜o ortonormal do IR4. Construir a partir desses vetores, uma base ortonormal para o IR4, usando o processo de Gram-Schmidt. 1.21 - Ortonormalize a sequeˆncia de polinoˆmios obtida no exemplo 1.16. 1.22 - Usando o produto escalar usual em C[1, 2] e o processo de Gram-Schmidt construa uma sequeˆncia de polinoˆmios ortonormais. 1.4 Projec¸a˜o Ortogonal Veremos aqui a projec¸a˜o ortogonal de um vetor sobre outro bem como a projec¸a˜o ortogonal de um vetor sobre um sub-espac¸o. Esse u´ltimo sera´ utilizado no estudo de aproximac¸o˜es de func¸o˜es pelo me´todo dos mı´nimos quadrados. Projec¸a˜o Ortogonal de um Vetor sobre Outro Sejam x e y vetores na˜o nulos. Escolhemos um nu´mero real � tal que � y seja ortogonal a x � � y, como sugere a Figura 1.2, no caso em que E = IR2. x� � y � y x y 6* - - Figura 1.2 De � y ? (x� � y), conclu´ımos que (� y, x� � y) = 0. Portanto, aplicando P3, segue que: �(y, x)� �2(y, y) = 0 ! � = (x, y) (y, y) . Assim, obtemos a seguinte definic¸a˜o. Definic¸a˜o 1.14 - Num espac¸o euclidiano real, chama-se projec¸a˜o ortogonal de x sobre y, y 6= ✓, o vetor z definido por: z = (projec¸a˜o de x sobre y) = (x, y) (y, y) y. De λy ⊥ (x− λy) segue que 〈λy, x− λy〉 = 0 e portanto λ〈y, x〉 − λ2〈y, y〉 = 0 ⇒ λ = 〈x, y〉〈y, y〉 Conceitos ba´sicos Projec¸a˜o ortogonal de um vetor sobre outro vetor: Assim obtemos a seguinte definic¸a˜o: Definic¸a˜o Em um espac¸o euclidiano real, denota-se projec¸a˜o ortogonal de um vetor x sobre um vetor y, y 6= 0 (vetor nulo), o vetor z dado por: z = projec¸a˜o de x sobre y = 〈x, y〉 〈y, y〉y. Conceitos ba´sicos Exemplo Projete o vetor x = (1, 2, 3) na reta sobre o vetor y = (1, 1, 1). λ = 〈x, y〉 〈y, y〉 = 6 3 = 2 A projec¸a˜o e´ z = 2y. Projec¸a˜o de um vetor sobre um sub-espac¸o Seja E o espac¸o euclidiano e E′, de dimensa˜o finita n, um sub- espac¸o de E. Suponha v ∈ E e v 6∈ E′. Considere o seguinte problema: obter v0 ∈ E′ com v− v0 ortogonal a todo vetor de E′. CAPI´TULO 1. CONCEITOS BA´SICOS 19 Se k y k= 1, enta˜o a projec¸a˜o de x sobre y e´ dada por (x, y) y. Projec¸a˜o Ortogonal de um Vetor sobre um Sub-Espac¸o Seja E um espac¸o euclidiano e seja E0, de dimensa˜o finita n, um sub-espac¸o de E. Seja v um vetor de E na˜o pertencente a E0. O problema que desejamos resolver agora e´ o de obter um vetor v0 2 E0 tal que v� v0 seja ortogonal a todo vetor de E0. (A Figura 1.3 ilustra o problema, para o caso em que E = IR3 e E0 = IR2). e1 e2 v � v0 v0 v R 6✓ 6 -- Figura 1.3 Seja {e1, e2, . . . , en} uma base de E0. Como v0 2 E0, v0 pode ser escrito como combinac¸a˜o linear dos vetores da base de E0, isto e´: v0 = �1 e1 + �2 e2 + . . .+ �n en . (1.17) O nosso problema consiste em determinar, caso poss´ıvel, as coordenadas �1, �2, . . . , �n de v0. Sabemos que se v� v0 deve ser ortogonal a todo vetor de E0 enta˜o e´ necessa´rio e suficiente que v� v0 seja ortogonal a todo vetor de uma base de E0 (Teorema 1.2). Enta˜o, devemos ter: (v � v0, ej) = 0 para j = 1, 2, . . . , n ; ou seja : (v � (�1 e1 + �2 e2 + . . .+ �n en) , ej) = 0 , j = 1, 2, . . . , n. A aplicac¸a˜o de P2 e P3, fornece: �1 (e1, ej) + �2 (e2, ej) + . . .+ �n (en, ej) = (v, ej) , j = 1, . . . , n . Tais equac¸o˜es sa˜o conhecidas por equac¸o˜es normais. Assim, para obtermos as coordenadas de v0 na base {e1, e2, . . . , en}, devemos resolver o sistema de equac¸o˜es lineares: 0BB@ (e1, e1) (e2, e1) . . . (en, e1) (e1, e2) (e2, e2) . . . (en, e2) . . . (e1, en) (e2, en) . . . (en, en) 1CCA 0BBB@ �1 �2 ... �n 1CCCA = 0BBB@ (v, e1) (v, e2) ... (v, en) 1CCCA , (1.18) cuja matriz dos coeficientes e´ sime´trica. Mostremos agora que o sistema (1.18) tem uma e uma so´ soluc¸a˜o, isto e´, que o problema de deter- minac¸a˜o do vetor v0 2 E0, tal que v � v0 seja ortogonal a todo vetor de E0, tem soluc¸a˜o u´nica. Projec¸a˜o de um vetor sobre um sub-espac¸o Seja E o espac¸o euclidiano e E′, de dimensa˜o finita n, um sub- espac¸o de E. Suponha v ∈ E e v 6∈ E′. Considere o seguinte problema: obter v0 ∈ E′ com v− v0 ortogonal a todo vetor de E′. CAPI´TULO 1. CONCEITOS BA´SICOS 19 Se k y k= 1, enta˜o a projec¸a˜o de x sobre y e´ dada por (x, y) y. Projec¸a˜o Ortogonal de um Vetor sobre um Sub-Espac¸o Seja E um espac¸o euclidiano e seja E0, de dimensa˜o finita n, um sub-espac¸o de E. Seja v um vetor de E na˜o pertencente a E0. O problema que desejamos resolver agora e´ o de obter um vetor v0 2 E0 tal que v� v0 seja ortogonal a todo vetor de E0. (A Figura 1.3 ilustra o problema, para o caso em que E = IR3 e E0 = IR2). e1 e2 v � v0 v0 v R 6✓ 6 -- Figura 1.3 Seja {e1, e2, . . . , en} uma base de E0. Como v0 2 E0, v0 pode ser escrito como combinac¸a˜o linear dos vetores da base de E0, isto e´: v0 = �1 e1 + �2 e2 + . . .+ �n en . (1.17) O nosso problema consiste em determinar, caso poss´ıvel, as coordenadas �1, �2, . . . , �n de v0. Sabemos que se v� v0 deve ser ortogonal a todo vetor de E0 enta˜o e´ necessa´rio e suficiente que v� v0 seja ortogonal a todo vetor de uma base de E0 (Teorema 1.2). Enta˜o, devemos ter: (v � v0, ej) = 0 para j = 1, 2, . . . , n ; ou seja : (v � (�1 e1 + �2 e2 + . . .+ �n en) , ej) = 0 , j = 1, 2, . . . , n.A aplicac¸a˜o de P2 e P3, fornece: �1 (e1, ej) + �2 (e2, ej) + . . .+ �n (en, ej) = (v, ej) , j = 1, . . . , n . Tais equac¸o˜es sa˜o conhecidas por equac¸o˜es normais. Assim, para obtermos as coordenadas de v0 na base {e1, e2, . . . , en}, devemos resolver o sistema de equac¸o˜es lineares: 0BB@ (e1, e1) (e2, e1) . . . (en, e1) (e1, e2) (e2, e2) . . . (en, e2) . . . (e1, en) (e2, en) . . . (en, en) 1CCA 0BBB@ �1 �2 ... �n 1CCCA = 0BBB@ (v, e1) (v, e2) ... (v, en) 1CCCA , (1.18) cuja matriz dos coeficientes e´ sime´trica. Mostremos agora que o sistema (1.18) tem uma e uma so´ soluc¸a˜o, isto e´, que o problema de deter- minac¸a˜o do vetor v0 2 E0, tal que v � v0 seja ortogonal a todo vetor de E0, tem soluc¸a˜o u´nica. Projec¸a˜o de um vetor sobre um sub-espac¸o Seja {e1, . . . , en} uma base de E′. Como v0 ∈ E′, v0 pode ser escrito como uma combinac¸a˜o linear dos vetores da base de E′, isto e´, v0 = a1e1 + . . .+ anen Projec¸a˜o de um vetor sobre um sub-espac¸o O problema consiste em determinar a1, . . . , an, (caso seja poss´ıvel). Note que estes valores sa˜o as coordenadas de v0. Como v−v0 deve ser ortogonal a todo vetor de E′, enta˜o e´ necessa´rio e suficiente que v − v0 seja ortogonal a todo vetor de uma base de E′. Assim, 〈v − v0, ej〉 = 0 j = 1, . . . , n que implica em 〈v − (a1e1 + . . .+ anen), ej〉 = 0 j = 1, . . . , n Projec¸a˜o de um vetor sobre um sub-espac¸o O problema consiste em determinar a1, . . . , an, (caso seja poss´ıvel). Note que estes valores sa˜o as coordenadas de v0. Como v−v0 deve ser ortogonal a todo vetor de E′, enta˜o e´ necessa´rio e suficiente que v − v0 seja ortogonal a todo vetor de uma base de E′. Assim, 〈v − v0, ej〉 = 0 j = 1, . . . , n que implica em 〈v − (a1e1 + . . .+ anen), ej〉 = 0 j = 1, . . . , n Projec¸a˜o de um vetor sobre um sub-espac¸o Portanto, 〈v − a1e1 − a2e2 − a3e3 − · · · − anen, ej〉 = 0 j = 1, . . . , n Aplicando (P2) e (P3), propriedades do produto escalar, temos 〈v, ej〉 = a1〈e1, ej〉+ a2〈e2, ej〉+ · · ·+ an〈en, ej〉 j = 1, . . . , n Estas equac¸o˜es sa˜o conhecidas como equac¸o˜es normais. Projec¸a˜o de um vetor sobre um sub-espac¸o Portanto, 〈v − a1e1 − a2e2 − a3e3 − · · · − anen, ej〉 = 0 j = 1, . . . , n Aplicando (P2) e (P3), propriedades do produto escalar, temos 〈v, ej〉 = a1〈e1, ej〉+ a2〈e2, ej〉+ · · ·+ an〈en, ej〉 j = 1, . . . , n Estas equac¸o˜es sa˜o conhecidas como equac¸o˜es normais. Conceitos ba´sicos Para obtermos as coordenadas de v0 na base {e1, . . . , en}, precisamos resolver o sistema de equac¸o˜es lineares: 〈e1, e1〉 〈e2, e1〉 · · · 〈en, e1〉 〈e1, e2〉 〈e2, e2〉 · · · 〈en, e2〉 ... ... . . . ... 〈e1, en〉 〈e2, en〉 · · · 〈en, en〉 a1 a2 ... an = 〈v, e1〉 〈v, e2〉 ... 〈v, en〉 Este sistema e´ chamado de sistema linear normal. Note que a matriz de coeficientes e´ sime´trica. Este sistema tem soluc¸a˜o u´nica e o vetor v0 e´ denominado projec¸a˜o ortogonal de v sobre o sub-espac¸o E′. Conceitos ba´sicos Para obtermos as coordenadas de v0 na base {e1, . . . , en}, precisamos resolver o sistema de equac¸o˜es lineares: 〈e1, e1〉 〈e2, e1〉 · · · 〈en, e1〉 〈e1, e2〉 〈e2, e2〉 · · · 〈en, e2〉 ... ... . . . ... 〈e1, en〉 〈e2, en〉 · · · 〈en, en〉 a1 a2 ... an = 〈v, e1〉 〈v, e2〉 ... 〈v, en〉 Este sistema e´ chamado de sistema linear normal. Note que a matriz de coeficientes e´ sime´trica. Este sistema tem soluc¸a˜o u´nica e o vetor v0 e´ denominado projec¸a˜o ortogonal de v sobre o sub-espac¸o E′. Conceitos ba´sicos Para obtermos as coordenadas de v0 na base {e1, . . . , en}, precisamos resolver o sistema de equac¸o˜es lineares: 〈e1, e1〉 〈e2, e1〉 · · · 〈en, e1〉 〈e1, e2〉 〈e2, e2〉 · · · 〈en, e2〉 ... ... . . . ... 〈e1, en〉 〈e2, en〉 · · · 〈en, en〉 a1 a2 ... an = 〈v, e1〉 〈v, e2〉 ... 〈v, en〉 Este sistema e´ chamado de sistema linear normal. Note que a matriz de coeficientes e´ sime´trica. Este sistema tem soluc¸a˜o u´nica e o vetor v0 e´ denominado projec¸a˜o ortogonal de v sobre o sub-espac¸o E′. Alguns resultados sobre projec¸a˜o ortogonal: (a) Na geometria euclidiana plana: dados uma reta r e um ponto v fora da reta, o ponto na reta r mais pro´ximo do ponto v e´ o u´nico ponto u tal que o segmento de reta vu e´ ortogonal a r. (b) Na geometria euclidiana so´lida: dados um plano α e um ponto v fora do plano, o ponto no plano α mais pro´ximo do ponto v e´ o pe´ da reta perpendicular trac¸ada de v a α. (c) Em um espac¸o vetorial euclidiano E qualquer: dados um vetor v ∈ E e um sub-espac¸o E′, de dimensa˜o finita n de E. O u´nico vetor u ∈ E′ que e´ mais pro´ximo do vetor v e´ o a projec¸a˜o ortogonal de v sobre E′. Isto e´ o mesmo que dizer que o ponto u tem a propriedade ||v − u|| < ||v − y|| ∀ y ∈ E′, y 6= u (c) Em um espac¸o vetorial euclidiano E qualquer: dados um vetor v ∈ E e um sub-espac¸o E′, de dimensa˜o finita n de E. O u´nico vetor u ∈ E′ que e´ mais pro´ximo do vetor v e´ o a projec¸a˜o ortogonal de v sobre E′. Isto e´ o mesmo que dizer que o ponto u tem a propriedade ||v − u|| < ||v − y|| ∀ y ∈ E′, y 6= u (c) Em um espac¸o vetorial euclidiano E qualquer: dados um vetor v ∈ E e um sub-espac¸o E′, de dimensa˜o finita n de E. O u´nico vetor u ∈ E′ que e´ mais pro´ximo do vetor v e´ o a projec¸a˜o ortogonal de v sobre E′. Isto e´ o mesmo que dizer que o ponto u tem a propriedade ||v − u|| < ||v − y|| ∀ y ∈ E′, y 6= u Me´todo dos mı´nimos quadrados O Me´todo dos m´ınimos quadrados basea-se na projec¸a˜o ortogonal de um vetor sobre um sub-espac¸o. No problema de aproximar uma func¸a˜o f(x) de E por uma F (x) de E′ desejamos que dist(f(x), F (x)) seja m´ınima Pela definic¸a˜o de distaˆncia entre dois vetores, temos dist(f(x), F (x)) = ||f(x)−F (x)|| = [(f(x)−F (x), f(x)−F (x))] 12 Na verdade, desejamos obter Q = ||f(x)− F (x)||2 = m´ınimo Me´todo dos mı´nimos quadrados O Me´todo dos m´ınimos quadrados basea-se na projec¸a˜o ortogonal de um vetor sobre um sub-espac¸o. No problema de aproximar uma func¸a˜o f(x) de E por uma F (x) de E′ desejamos que dist(f(x), F (x)) seja m´ınima Pela definic¸a˜o de distaˆncia entre dois vetores, temos dist(f(x), F (x)) = ||f(x)−F (x)|| = [(f(x)−F (x), f(x)−F (x))] 12 Na verdade, desejamos obter Q = ||f(x)− F (x)||2 = m´ınimo Me´todo dos mı´nimos quadrados O Me´todo dos m´ınimos quadrados basea-se na projec¸a˜o ortogonal de um vetor sobre um sub-espac¸o. No problema de aproximar uma func¸a˜o f(x) de E por uma F (x) de E′ desejamos que dist(f(x), F (x)) seja m´ınima Pela definic¸a˜o de distaˆncia entre dois vetores, temos dist(f(x), F (x)) = ||f(x)−F (x)|| = [(f(x)−F (x), f(x)−F (x))] 12 Na verdade, desejamos obter Q = ||f(x)− F (x)||2 = m´ınimo Me´todo dos mı´nimos quadrados O Me´todo dos m´ınimos quadrados basea-se na projec¸a˜o ortogonal de um vetor sobre um sub-espac¸o. No problema de aproximar uma func¸a˜o f(x) de E por uma F (x) de E′ desejamos que dist(f(x), F (x)) seja m´ınima Pela definic¸a˜o de distaˆncia entre dois vetores, temos dist(f(x), F (x)) = ||f(x)−F (x)|| = [(f(x)−F (x), f(x)−F (x))] 12 Na verdade, desejamos obter Q = ||f(x)− F (x)||2 = m´ınimo Aproximac¸a˜o polinomial Consideramos o problema de aproximar uma func¸a˜o f(x) ∈ E por um polinoˆmio de grau ≤ m, Pm(x) = F (x) ∈ E′ nos seguintes dois casos. Caso cont´ınuo: f(x) e´ uma expressa˜o anal´ıtica em C[a, b]; C[a, b] e´ o espac¸o vetorial das func¸o˜es cont´ınuas reais, dotado de um produto escalar e uma norma, definidos no intervalo fechado e limitado [a, b]. Caso discreto: f(x) e´ dada por um nu´mero finito de pares de pontos. Aproximac¸a˜opolinomial Consideramos o problema de aproximar uma func¸a˜o f(x) ∈ E por um polinoˆmio de grau ≤ m, Pm(x) = F (x) ∈ E′ nos seguintes dois casos. Caso cont´ınuo: f(x) e´ uma expressa˜o anal´ıtica em C[a, b]; C[a, b] e´ o espac¸o vetorial das func¸o˜es cont´ınuas reais, dotado de um produto escalar e uma norma, definidos no intervalo fechado e limitado [a, b]. Caso discreto: f(x) e´ dada por um nu´mero finito de pares de pontos. Aproximac¸a˜o polinomial Consideramos o problema de aproximar uma func¸a˜o f(x) ∈ E por um polinoˆmio de grau ≤ m, Pm(x) = F (x) ∈ E′ nos seguintes dois casos. Caso cont´ınuo: f(x) e´ uma expressa˜o anal´ıtica em C[a, b]; C[a, b] e´ o espac¸o vetorial das func¸o˜es cont´ınuas reais, dotado de um produto escalar e uma norma, definidos no intervalo fechado e limitado [a, b]. Caso discreto: f(x) e´ dada por um nu´mero finito de pares de pontos. Aproximac¸a˜o polinomial: caso cont´ınuo Considere que desejamos aproximar uma func¸a˜o f(x), x ∈ [a, b] por um polinoˆmio de grau menor ou igual a m, Pm(x) ∈ E′ = Km(x). Formalmente, queremos determinar a0, a1, . . . , am tal que f(x) ∼= a0 + a1x+ · · ·+ amxm = Pm(x) (2) e a distaˆncia de f(x) para Pm(x) seja m´ınima. Comparando as equac¸o˜es (1) e (2) vemos que g0(x) = 1, g1(x) = x, . . . , gm(x) = x m. Aproximac¸a˜o polinomial: caso cont´ınuo Considere que desejamos aproximar uma func¸a˜o f(x), x ∈ [a, b] por um polinoˆmio de grau menor ou igual a m, Pm(x) ∈ E′ = Km(x). Formalmente, queremos determinar a0, a1, . . . , am tal que f(x) ∼= a0 + a1x+ · · ·+ amxm = Pm(x) (2) e a distaˆncia de f(x) para Pm(x) seja m´ınima. Comparando as equac¸o˜es (1) e (2) vemos que g0(x) = 1, g1(x) = x, . . . , gm(x) = x m. Aproximac¸a˜o polinomial: caso cont´ınuo Considere que desejamos aproximar uma func¸a˜o f(x), x ∈ [a, b] por um polinoˆmio de grau menor ou igual a m, Pm(x) ∈ E′ = Km(x). Formalmente, queremos determinar a0, a1, . . . , am tal que f(x) ∼= a0 + a1x+ · · ·+ amxm = Pm(x) (2) e a distaˆncia de f(x) para Pm(x) seja m´ınima. Comparando as equac¸o˜es (1) e (2) vemos que g0(x) = 1, g1(x) = x, . . . , gm(x) = x m. Aproximac¸a˜o polinomial: caso cont´ınuo Observe que g0(x) = 1, g1(x) = x, . . . , gm(x) = x m formam a base canoˆnica de Km(x), que e´ o vetorial dos polinoˆmios de graus menores ou iguais a m. O problema torna-se enta˜o: determinar um polinoˆmio de grau menor ou igual a m que minimiza ||f(x)− Pm(x)||2 = ∫ b a (f(x)− F (x))2dx Considere que 〈f(x)− Pm(x), f(x)− Pm(x)〉 = ∫ b a (f(x)− Pm(x))2dx Aproximac¸a˜o polinomial: caso cont´ınuo Observe que g0(x) = 1, g1(x) = x, . . . , gm(x) = x m formam a base canoˆnica de Km(x), que e´ o vetorial dos polinoˆmios de graus menores ou iguais a m. O problema torna-se enta˜o: determinar um polinoˆmio de grau menor ou igual a m que minimiza ||f(x)− Pm(x)||2 = ∫ b a (f(x)− F (x))2dx Considere que 〈f(x)− Pm(x), f(x)− Pm(x)〉 = ∫ b a (f(x)− Pm(x))2dx Aproximac¸a˜o polinomial: caso cont´ınuo Sabemos que: Os polinoˆmios de graus no ma´ximo m constituem um espac¸o vetorial Km(x) gerado pela base canoˆnica {1, x, . . . , xm}; Km(x), para x ∈ [a, b], e´ um sub-espac¸o de C[a, b] Assim, o problema de encontrar um polinoˆmio Pm(x) que mais se aproxima de f(x) pode ser resolvido usando a teoria de projec¸a˜o ortogonal de um vetor sobre um sub-espac¸o, onde a distaˆncia de f e Pm e´ minimizada quando Pm for a projec¸a˜o ortogonal de f sobre Km(x). Aproximac¸a˜o polinomial: caso cont´ınuo Sabemos que: Os polinoˆmios de graus no ma´ximo m constituem um espac¸o vetorial Km(x) gerado pela base canoˆnica {1, x, . . . , xm}; Km(x), para x ∈ [a, b], e´ um sub-espac¸o de C[a, b] Assim, o problema de encontrar um polinoˆmio Pm(x) que mais se aproxima de f(x) pode ser resolvido usando a teoria de projec¸a˜o ortogonal de um vetor sobre um sub-espac¸o, onde a distaˆncia de f e Pm e´ minimizada quando Pm for a projec¸a˜o ortogonal de f sobre Km(x). Aproximac¸a˜o polinomial: caso cont´ınuo Fazendo E = C[a, b] e E′ = Km(x), onde x ∈ [a, b], precisamos encontrar os coeficientes a0, a1, . . . , am de Pm(x) tal que 〈1, 1〉 〈x, 1〉 · · · 〈xm, 1〉 〈1, x〉 〈x, x〉 · · · 〈xm, x〉 ... ... . . . ... 〈1, xm〉 〈x, xm〉 · · · 〈xm, xm〉 a0 a1 ... am = 〈f, 1〉 〈f, x〉 ... 〈f, xm〉 Considerando que f, g ∈ C[a, b], assuma que o produto escalar (ou produto interno) entre f e g e´ dado por 〈f, g〉 = ∫ b a f(x)g(x)dx. Aproximac¸a˜o polinomial: caso cont´ınuo Fazendo E = C[a, b] e E′ = Km(x), onde x ∈ [a, b], precisamos encontrar os coeficientes a0, a1, . . . , am de Pm(x) tal que 〈1, 1〉 〈x, 1〉 · · · 〈xm, 1〉 〈1, x〉 〈x, x〉 · · · 〈xm, x〉 ... ... . . . ... 〈1, xm〉 〈x, xm〉 · · · 〈xm, xm〉 a0 a1 ... am = 〈f, 1〉 〈f, x〉 ... 〈f, xm〉 Considerando que f, g ∈ C[a, b], assuma que o produto escalar (ou produto interno) entre f e g e´ dado por 〈f, g〉 = ∫ b a f(x)g(x)dx. Aproximac¸a˜o polinomial: caso cont´ınuo Fazendo E = C[a, b] e E′ = Km(x), onde x ∈ [a, b], precisamos encontrar os coeficientes a0, a1, . . . , am de Pm(x) tal que 〈1, 1〉 〈x, 1〉 · · · 〈xm, 1〉 〈1, x〉 〈x, x〉 · · · 〈xm, x〉 ... ... . . . ... 〈1, xm〉 〈x, xm〉 · · · 〈xm, xm〉 a0 a1 ... am = 〈f, 1〉 〈f, x〉 ... 〈f, xm〉 Considerando que f, g ∈ C[a, b], assuma que o produto escalar (ou produto interno) entre f e g e´ dado por 〈f, g〉 = ∫ b a f(x)g(x)dx. Aproximac¸a˜o polinomial: caso cont´ınuo Exemplo Aproximar f(x) = x4−5x, x ∈ [−1, 1] por um polinoˆmio do segundo grau usando me´todo dos m´ınimos quadrados. Soluc¸a˜o Note que: f(x) ∈ C[−1, 1], x ∈ [−1, 1] e K2(x) e´ um sub-espac¸o de C[−1, 1]. Queremos determinar os valores de a0, a1 e a2 nos reais tal que f(x) ∼= P2(x) = a0 + a1x+ a2x2, onde P2(x) uma projec¸a˜o ortogonal de f sobre K2(x). Aproximac¸a˜o polinomial: caso cont´ınuo Exemplo Aproximar f(x) = x4−5x, x ∈ [−1, 1] por um polinoˆmio do segundo grau usando me´todo dos m´ınimos quadrados. Soluc¸a˜o Note que: f(x) ∈ C[−1, 1], x ∈ [−1, 1] e K2(x) e´ um sub-espac¸o de C[−1, 1]. Queremos determinar os valores de a0, a1 e a2 nos reais tal que f(x) ∼= P2(x) = a0 + a1x+ a2x2, onde P2(x) uma projec¸a˜o ortogonal de f sobre K2(x). Sendo a base canoˆnica de K2(x) dada por {1, x, x2}, para encontrar os valores de a0, a1, a2 devemos resolver o sistema linear: 〈1, 1〉 〈x, 1〉 〈x2, 1〉〈1, x〉 〈x, x〉 〈x2, x〉 〈1, x2〉 〈x, x2〉 〈x2, x2〉 a0a1 a2 = 〈f, 1〉〈f, x〉 〈f, x2〉 Aproximac¸a˜o polinomial: caso cont´ınuo Se usarmos o produto escalar usual de C[−1, 1], temos 〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2 〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉 〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉 〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉 〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25 〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25 〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103 〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27 Aproximac¸a˜o polinomial: caso cont´ınuo Se usarmos o produto escalar usual de C[−1, 1], temos 〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2 〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉 〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉 〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉 〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25 〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25 〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103 〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27 Aproximac¸a˜o polinomial: caso cont´ınuo Se usarmos o produto escalar usual de C[−1, 1], temos 〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2 〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉 〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 =〈x, x〉 〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉 〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25 〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25 〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103 〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27 Aproximac¸a˜o polinomial: caso cont´ınuo Se usarmos o produto escalar usual de C[−1, 1], temos 〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2 〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉 〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉 〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉 〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25 〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25 〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103 〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27 Aproximac¸a˜o polinomial: caso cont´ınuo Se usarmos o produto escalar usual de C[−1, 1], temos 〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2 〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉 〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉 〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉 〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25 〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25 〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103 〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27 Aproximac¸a˜o polinomial: caso cont´ınuo Se usarmos o produto escalar usual de C[−1, 1], temos 〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2 〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉 〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉 〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉 〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25 〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25 〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103 〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27 Aproximac¸a˜o polinomial: caso cont´ınuo Se usarmos o produto escalar usual de C[−1, 1], temos 〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2 〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉 〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉 〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉 〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25 〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25 〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103 〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27 Aproximac¸a˜o polinomial: caso cont´ınuo Se usarmos o produto escalar usual de C[−1, 1], temos 〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2 〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉 〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉 〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉 〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25 〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25 〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103 〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27 Aproximac¸a˜o polinomial: caso cont´ınuo Portanto, 2 0 2/30 2/3 0 2/3 0 2/5 a0a1 a2 = 2/5−10/3 2/7 cuja soluc¸a˜o u´nica e´ dada por: a0 = −3/35, a1 = −5, a2 = 6/7. Assim, o polinoˆmio que estamos procurando e´ P2(x) = − 3 35 − 5x+ 6 7 x2. Aproximac¸a˜o polinomial: caso cont´ınuo Portanto, 2 0 2/30 2/3 0 2/3 0 2/5 a0a1 a2 = 2/5−10/3 2/7 cuja soluc¸a˜o u´nica e´ dada por: a0 = −3/35, a1 = −5, a2 = 6/7. Assim, o polinoˆmio que estamos procurando e´ P2(x) = − 3 35 − 5x+ 6 7 x2. Aproximac¸a˜o polinomial: caso discreto No caso discreto a func¸a˜o f(x) e´ dada por n+ 1 pares de pontos (x0, y0), (x1, y1), . . . , (xn, yn) onde yi = f(xi), para i = 0, . . . , n, e x0, x1, . . . , xn sa˜o distintos. Queremos encontrar um polinoˆmio Pm(x), com coeficientes reais, de grau menor ou igual a m, onde m < n tal que Pm(x) = a0 + a1x+ . . .+ amx m (3) e Q = ||f − Pm||2 e´ m´ınimo. Aproximac¸a˜o polinomial: caso discreto No caso discreto a func¸a˜o f(x) e´ dada por n+ 1 pares de pontos (x0, y0), (x1, y1), . . . , (xn, yn) onde yi = f(xi), para i = 0, . . . , n, e x0, x1, . . . , xn sa˜o distintos. Queremos encontrar um polinoˆmio Pm(x), com coeficientes reais, de grau menor ou igual a m, onde m < n tal que Pm(x) = a0 + a1x+ . . .+ amx m (3) e Q = ||f − Pm||2 e´ m´ınimo. Aproximac¸a˜o polinomial: caso discreto Sendo m < n podemos usar o seguinte produto escalar 〈f, g〉 = n∑ k=0 f(xk)g(xk) Assim, temos Q = ||f − Pm||2 = 〈f − Pm, f − Pm〉 = n∑ k=0 [(f(xk)− Pm(xk))]2 = n∑ k=0 [yk − Pm(xk)]2 (4) = n∑ k=0 [yk − (a0 + a1xk + . . .+ amxmk )]2 Aproximac¸a˜o polinomial: caso discreto Sendo m < n podemos usar o seguinte produto escalar 〈f, g〉 = n∑ k=0 f(xk)g(xk) Assim, temos Q = ||f − Pm||2 = 〈f − Pm, f − Pm〉 = n∑ k=0 [(f(xk)− Pm(xk))]2 = n∑ k=0 [yk − Pm(xk)]2 (4) = n∑ k=0 [yk − (a0 + a1xk + . . .+ amxmk )]2 Aproximac¸a˜o polinomial: caso discreto Da expressa˜o (4) vemos que o que desejamos e´ minimizar a soma dos quadrados dos desvios yk − Pm(xk). Ou seja, da classe dos polinoˆmios de graus ≤ m, precisamos encontrar o polinoˆmio que minimiza Q. Para encontrar este polinoˆmio precisamos determinar os seus coeficientes, a0, a1, . . . , am. Aproximac¸a˜o polinomial: caso discreto Da expressa˜o (4) vemos que o que desejamos e´ minimizar a soma dos quadrados dos desvios yk − Pm(xk). Ou seja, da classe dos polinoˆmios de graus ≤ m, precisamos encontrar o polinoˆmio que minimiza Q. Para encontrar este polinoˆmio precisamos determinar os seus coeficientes, a0, a1, . . . , am. Aproximac¸a˜o polinomial: caso discreto Da expressa˜o (4) vemos que o que desejamos e´ minimizar a soma dos quadrados dos desvios yk − Pm(xk). Ou seja, da classe dos polinoˆmios de graus ≤ m, precisamos encontrar o polinoˆmio que minimiza Q. Para encontrar este polinoˆmio precisamos determinar os seus coeficientes, a0, a1, . . . , am. Aproximac¸a˜o polinomial: caso discreto Sejam y = y0 y1 ... yn e p = Pm(x0) Pm(x1) ... Pm(xn) onde y, p sa˜o vetores em Rn+1. Usando (3), o vetor p pode ser escrito como p = a0 1 1 ... 1 + a1 x0 x1 ... xn + a2 x20 x21 ... x2n + · · ·+ am xm0 xm1 ... xmn . Aproximac¸a˜o polinomial: caso discreto Sejam y = y0 y1 ... yn e p = Pm(x0) Pm(x1) ... Pm(xn) onde y, p sa˜o vetores em Rn+1. Usando (3), o vetor p pode ser escrito como p = a0 1 1 ... 1 + a1 x0 x1 ... xn + a2 x20 x21 ... x2n + · · ·+ am xm0 xm1 ... xmn . Aproximac¸a˜o polinomial: caso discreto Denotando por u0 = 1 1 ... 1 e ui = xi0 xi1 ... xin i = 1, 2, . . . ,m podemos escrever p como p = a0u0 + a1u1 + . . .+ amum Aproximac¸a˜o polinomial: caso discreto Denotando por u0 = 1 1 ... 1 e ui = xi0 xi1 ... xin i = 1, 2, . . . ,m podemos escrever p como p = a0u0 + a1u1 + . . .+ amum Aproximac¸a˜o polinomial: caso discreto Temos que: y ∈ Rn+1 e p ∈ V ⊂ Rn+1. Para que a distaˆncia de y a p seja m´ınima, p precisa ser a projec¸a˜o ortogonal de y sobre V . Os coeficientes do polinoˆmio procurado sa˜o dados pela soluc¸a˜o do sistema linear normal: 〈u0, u0〉 〈u1, u0〉 · · · 〈um, u0〉 〈u0, u1〉 〈u1, u1〉 · · · 〈um, u1〉 ... ... . . . ... 〈u0, um〉 〈u1, um〉 · · · 〈um, um〉 a0 a1 ... am = 〈y, u0〉 〈y, u1〉 ... 〈y, um〉 . Aproximac¸a˜o polinomial: caso discreto Temos que: y ∈ Rn+1 e p ∈ V ⊂ Rn+1. Para que a distaˆncia de y a p seja m´ınima, p precisa ser a projec¸a˜o ortogonal de y sobre V . Os coeficientes do polinoˆmio procurado sa˜o dados pela soluc¸a˜o do sistema linear normal: 〈u0, u0〉 〈u1, u0〉 · · · 〈um, u0〉 〈u0, u1〉 〈u1, u1〉 · · · 〈um, u1〉 ... ... . . . ... 〈u0, um〉 〈u1, um〉 · · · 〈um, um〉 a0 a1 ... am = 〈y, u0〉 〈y, u1〉 ... 〈y, um〉 . Aproximac¸a˜o polinomial: caso discreto Usamos normalmente o produto escalar usual do Rn, que e´ dado por: (x, y) = n∑ i=0 xiyi onde x = [x0, x1, . . . , xn] T e y = [y0, y1, . . . , yn] T Aproximac¸a˜o polinomial: caso discreto Example Considere a func¸a˜o y = f(x) dada por: x -1 0 1 2 y 0 -1 0 7 Ajuste esta func¸a˜o por um polinoˆmio do segundo grau, usando o me´todo dos m´ınimos quadrados. Aproximac¸a˜o polinomial: caso discreto Soluc¸a˜o: Queremos encontrar P2(x) ∈ K2(x) tal que f(x) ∼= P2(x) = a01 + a1x+ a2x2. Assim, devemos construir u0, u1, u2 tal que p = a0u0 + a1u1 + a2u2. Temos que: y = 0 −1 0 7 , u0 = 1 1 1 1 , u1 = −1 0 1 2 , u2 = 1 0 1 4 . Aproximac¸a˜o polinomial: caso discreto Soluc¸a˜o: Queremos encontrar P2(x) ∈ K2(x) tal que f(x) ∼= P2(x) = a01 + a1x+ a2x2. Assim, devemos construir u0, u1, u2 tal que p = a0u0 + a1u1 + a2u2. Temos que: y = 0 −1 0 7 , u0 = 1 1 1 1 , u1 = −1 0 1 2 , u2 = 1 0 1 4 . Precisamos resolver o sistema linear: 〈u0, u0〉 〈u1, u0〉 〈u2, u0〉〈u0, u1〉 〈u1, u1〉 〈u2, u1〉 〈u0, u2〉 〈u1, u2〉 〈u2, u2〉 a0a1 a2 = 〈y, u0〉〈y, u1〉 〈y, u2〉 . Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Usando o produto escalar (produto interno) usual do R4, temos 〈u0, u0〉 = 1 + 1 + 1 + 1 = 4 〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉 〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉 〈u1, u1〉 = 1 + 0 + 1 + 4 = 6 〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉 〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉 〈y, u0〉 = 0− 1 + 0 + 7 = 6 〈y, u1〉 = 0 + 0 + 0 + 14 = 14 〈y, u2〉 = 0 + 0 + 0 + 28 = 28 Aproximac¸a˜o polinomial: caso discreto Assim, o sistema linear e´ dado por 4 2 62 6 8 6 8 18 a0a1 a2 = 614 28 cuja soluc¸a˜o e´: a0 = −85 , a1 = 15 e a2 = 2. Assim, a para´bola que melhor representa f(x) e´ P2(x) = −8 5 + 1 5 x+ 2x2. Aproximac¸a˜o polinomial: caso discreto Assim, o sistema linear e´ dado por 4 2 62 6 8 6 8 18 a0a1 a2 = 614 28 cuja soluc¸a˜o e´: a0 = −85 , a1 = 15 e a2 = 2. Assim, a para´bola que melhor representa f(x) e´ P2(x) = −8 5 + 1 5 x+ 2x2. Aproximac¸a˜o polinomial: caso discreto Assim, o sistema linear e´ dado por 4 2 62 6 8 6 8 18 a0a1 a2 = 614 28 cuja soluc¸a˜o e´: a0 = −85 , a1 = 15 e a2 = 2. Assim, a para´bola que melhor representa f(x) e´ P2(x) = −8 5 + 1 5 x+ 2x2. Erro de truncamento No me´todo dos m´ınimos quadrados, o erro de truncamento e´ calculado daseguinte maneira: Caso cont´ınuo: Q = ||f − Pm||2 = ∫ b a [f(x)− P (x)]2dx. Caso discreto: Q = ||f − Pm||2 = n∑ k=0 [yk − P (xk)]2. Erro de truncamento O erro de truncamento no exemplo anterior e´ calculado como: Q = 3∑ k=0 [yk − P (xk)]2 onde: y = [y0, y1, y2, y3] T = [0,−1, 0, 7]T x = [x0, x1, x2, x3] T = [−1, 0, 1, 2]T , P2(x) = −8 5 + 1 5 x+ 2x2 P2(x0 = −1) = 15 P2(x1 = 0) = − 85 P2(x2 = 1) = 17 5 P2(x2 = 2) = 34 5 Erro de truncamento O erro de truncamento no exemplo anterior e´ calculado como: Q = 3∑ k=0 [yk − P (xk)]2 onde: y = [y0, y1, y2, y3] T = [0,−1, 0, 7]T x = [x0, x1, x2, x3] T = [−1, 0, 1, 2]T , P2(x) = −8 5 + 1 5 x+ 2x2 P2(x0 = −1) = 15 P2(x1 = 0) = − 85 P2(x2 = 1) = 17 5 P2(x2 = 2) = 34 5 Erro de truncamento Portanto, Q = 3∑ k=0 [yk − P (xk)]2 = [y0 − P (x0)]2 + [y1 − P (x1)]2 + [y2 − P (x2)]2 + [y3 − P (x3)]2 = 0.8
Compartilhar