Buscar

F129 apostila 5. Método dos mínimos quadrados

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

R. Urbano, J. Marconi e V. Rodrigues
Introduc¸a˜o
Para entendermos o Me´todo de Mı´nimos Quadrados, primeiramente supomos que temos um
conjunto de N dados (xi, yi), onde cada valor yi tem um erro associado que chamamos de σi,
ou seja (yi ± σi) (os σi na˜o teˆm que ser iguais entre si). Na˜o confunda σ com o desvio padra˜o!
Assim, nesta apostila σ sera´ o erro (incerteza) da varia´vel y que ate´ agora definimos como ∆y.
Vamos supor tambe´m que os dados representam certo fenoˆmeno f´ısico que segue uma lei descrita
por uma func¸a˜o f .
Usando a descric¸a˜o gaussiana de erros, a probabilidade Pi de ocorrer a medida (xi, yi, σi) e´
dada por:
Pi =
C
σi
exp
[
−1
2
(
(yi − yi)
σi
)2]
(1)
onde yi e´ o valor me´dio de yi e C e´ uma constante de normalizac¸a˜o. Portanto, a probabilidade
P de ocorrer o conjunto das N medidas sera´:
P = P1 P2 ... PN
=
C
σ1
exp
[
−1
2
(
(y1 − y1)
σ1
)2]
...
C
σN
exp
[
−1
2
(
(yN − yN)
σN
)2]
=
CN
σ1 σ2 ... σN
exp
[
−1
2
N∑
i=1
(
(yi − yi)
σi
)2]
(2)
Como yi seria o valor que se aproxima do valor ”verdadeiro” de yi e supondo um modelo f´ısico
para nossas medidas que segue uma lei descrita por uma func¸a˜o f , podemos escrever que:
yi = f(xi, a1, a2, ..., an) (3)
onde a1, a2, ... an sa˜o os paraˆmetros do modelo. Definindo:
χ2 =
n∑
i=1
(
(yi − f(xi, a1, a2, ..., an))
σi
)2
(4)
podemos reescrever a equac¸a˜o (2) como:
P =
Cn∏n
i=1 σi
exp
[
−1
2
χ2
]
(5)
Neste caso, para que a func¸a˜o f seja a mais adequada para nossas medidas, ou seja, para que
P seja ma´ximo, χ2 deve ser mı´nimo.
1
O me´todo dos mı´nimos quadrados consiste em ajustar os paraˆmetros a1, a2, ... an de tal forma
que χ2 seja mı´nimo, ou seja, procuramos resolver o sistema abaixo:
∂χ2
∂a1
= 0
∂χ2
∂a2
= 0 ...
∂χ2
∂an
= 0 (6)
Ajuste de uma func¸a˜o linear: Regressa˜o Linear
Supondo um conjunto de dados e que a func¸a˜o que descreve o nosso sistema seja linear.
f(xi) = axi + b (7)
A sua representac¸a˜o gra´fica t´ıpica seria:
Figura 1: Gra´fico obtido com dados experimentais no caso particular em que o ajuste e´ linear
(Regressa˜o Linear).
Definindo wi = 1/σ
2
i , podemos escrever χ
2 como:
χ2 =
n∑
i=1
wi(yi − axi − b)2 (8)
Aplicando o me´todo dos mı´nimos quadrados para obter os paraˆmetros a e b:
∂χ2
∂a
= 2
n∑
i=1
wi(yi − axi − b)(−xi) = 0 (9)
∂χ2
∂b
= 2
n∑
i=1
wi(yi − axi − b)(−1) = 0 (10)
2
Obtemos enta˜o um sistema de duas equac¸o˜es e duas inco´gnitas. Para simplificar a escrita vamos
omitir os ı´ndices nas somato´rias.
(
∑
wx2 ) a + (
∑
wx ) b = (
∑
wyx ) (11)
(
∑
wx ) a + (
∑
w ) b = (
∑
wy ) (12)
Resolvendo o sistema, os valores de a e b sa˜o:
a =
(
∑
w ) (
∑
wyx ) − ( ∑wy ) ( ∑wx )
∆
(13)
b =
(
∑
wy ) (
∑
wx2 ) − ( ∑wyx ) ( ∑wx )
∆
(14)
E os erros associados:
σ2a =
(
∑
w )
∆
σ2b =
(
∑
wx2 )
∆
(15)
onde
∆ = (
∑
w ) (
∑
wx2 ) − (
∑
wx )2 (16)
As equac¸o˜es (13), (14), (15) e (16) sa˜o gerais e valem para o caso onde cada σi seja diferente
dos outros. No caso de termos σi = constante = σ (ou seja o mesmo valor para todo i) as
expresso˜es de a, b, σ2a e σ
2
b podem ser simplificadas:
a =
N (
∑
yx ) − ( ∑x ) ( ∑ y )
∆
(17)
b =
(
∑
y ) (
∑
x2 ) − ( ∑ yx ) ( ∑x )
∆
(18)
σ2a =
N
∆
σ2 σ2b =
(
∑
x2 )
∆
σ2 (19)
∆ = N (
∑
x2 ) − (
∑
x )2 (20)
Estas equac¸o˜es sa˜o exatas e em princ´ıpio sa˜o as mesmas utilizadas pelos programas comerciais.
Pore´m, sempre e´ recomenda´vel verificar a notac¸a˜o e a maneira com que as equac¸o˜es foram
definidas, especialmente quando temos um conjunto de dados onde os erros sa˜o diferentes em
cada ponto (xi; yi ± σi).
Refereˆncia Bibliogra´fica:
Jose´ Henrique Vuolo, Fundamentos da Teoria de Erros (Editora Edgard Blu¨cher Ltda, Sa˜o
Paulo, 1992).
3

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Outros materiais