Buscar

yonny - AJUSTAMENTO (2)

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 63 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 63 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 63 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

AJUSTAMENTO DE OBSERVAÇÕES E 
INTRODUÇÃO AO GEORREFERENCIAMENTO 
DE IMÓVEIS RURAIS 
Ajustamento de Observações 
iii
SUMÁRIO 
SUMÁRIO ................................................................................................................................. iii
LISTA DE FIGURAS ................................................................................................................ iv
1- AJUSTAMENTO.......................... ......................................................................... 1
1.1 - TEORIA DOS ERROS ......................................................................................... 1
2 - CONCEITO DE PROBABILIDADE ................................................................... 3
3 - CONCEITOS BÁSICOS DE ESTATÍSTICA ..................................................... 9
4 - LEI DE PROPAGAÇÃO DE COVARIÂNCIAS ................................................ 18
5 - INTRODUÇÃO AO MÉTODO DOS MÍNIMOS QUADRADOS .................... 23
5.1 - CONSIDERAÇÕES INICIAIS ............................................................................. 23
5.2 - DISCUSSÃO DE SISTEMAS DE EQUAÇÕES LINEARES NÃO 
HOMOGÊNEAS ...................................................................................... 24
5.3 - PRINCÍPIO DO MÉTODO DE MÍNIMOS QUADRADOS ............................... 27
6 - AJUSTAMENTO COM MODELO PARAMÉTRICO ...................................... 29
6.1 - INTRODUÇÃO ..................................................................................................... 29
6.1.1 Ajustamento Paramétrico Linear .......................................................................... 29
6.1.2 Ajustamento Paramétrico não Linear ................................................................... 31
6.2 - ESTIMATIVA DE PRECISÃO DOS PARÂMETROS CALCULADOS ........... 33
6.3 - EXERCÍCIOS E EXEMPLOS .............................................................................. 33
7 - AJUSTAMENTO MÉTODO IMPLÍCITO ......................................................... 45
7.1 - CONCEITO ........................................................................................................... 45
7.2 - FORMA LINEAR DO MODELO ........................................................................ 45
7.3 - SISTEMA DE EQUAÇÕES NORMAIS .............................................................. 46
7.4 - SOLUÇÃO DAS EQUAÇÕES NORMAIS ......................................................... 47
7.4.1 Particularização para o Caso Paramétrico ............................................................ 48
7.5 - MÉTODO DOS CORRELATOS COMO CASO PARTICULAR DO 
COMBINADO .......................................................................................... 49
7.6 - ITERAÇÃO NO MÉTODO COMBINADO ........................................................ 49
7.7 - PRECISÃO DOS VALORES ESTIMADOS ....................................................... 51
7.8 - EXERCÍCIOS ....................................................................................................... 53
REFERÊNCIAS BIBLIOGRÁFICAS ....................................................................... 59
Na área das Ciências Geodésicas, a teoria da estimação também é conhecida como 
ajustamento de observações. Neste particular, a menos que seja estritamente necessário, ao 
longo destas notas adotaremos a palavra "ajustamento". O ajustamento é um ramo da 
matemática aplicada e tem por objetivo a solução única para problemas onde o número de 
observações é superabundante e o sistema de equações lineares é inconsistente. Objetiva 
ainda a estimativa da qualidade da solução e consiste numa expansão do método dos 
mínimos quadrados desenvolvidos independentemente por Gauss (1795) e Legendre 
(1805). O ajustamento, nas últimas décadas, beneficiou-se do desenvolvimento ocorrido na 
computação eletrônica, no cálculo matricial e nas técnicas estatísticas. Também, deve-se 
lembrar que, não faz sentido falar em ajustamento para problemas onde os dados 
(observações ou medidas) não excedem o mínimo requerido para a sua solução. 
Classicamente dizia-se que as observações estão sempre eivadas de erros, isto é, 
quando se repete n vezes uma medida de precisão, os n valores não são idênticos, mas 
estão dispersos numa certa região ou intervalo, dispersão esta devida a erros. 
Modernamente expressa-se o mesmo conceito admitindo que as observações (ou medidas) 
possuem uma propriedade inerente a elas, de flutuações probabilísticas ou aleatórias. 
Sempre que se necessita descrever matematicamente uma realidade física, recorre-
se a fórmulas, expressões ou equações na tentativa de representar tal realidade com a 
melhor aproximação possível. Ao principiante em ajustamento é útil ressaltar os dois 
aspectos: realidade física e modelo teórico, uma vez que nas disciplinas de matemática 
pura, quase só o último é evidenciado. Ressalta-se ainda o fator aproximação. O modelo 
teórico está estritamente relacionado à aproximação desejada, o que pode ser ilustrado. 
Por exemplo: 
- Para a representação da Terra ou parte dela (realidade física nas disciplinas de Topografia 
e Geodésia) utilizam-se os modelos teóricos, plano, esfera, elipsóide biaxial, etc... ou , 
- Em Fotogrametria, pode-se considerar com uma aproximação menor, isto é, que uma 
fotografia aérea é perfeitamente vertical; e/ou que o raio luminoso que se propaga através 
da atmosfera e sistema de lentes, tem trajetória reta; ou ainda, num modelo mais preciso, 
considera-se a inclinação da foto ou efeitos de não colinearidade dos raios. 
Nota-se que o modelo matemático não descreve exaustivamente o fenômeno, os 
eventos ou a realidade física. Descreve aspectos de interesse desta realidade e com a 
aproximação requerida. 
1.1 - TEORIA DOS ERROS 
As observações são representações numéricas de quantidades físicas como 
comprimento, ângulo, peso, etc. As quantidades numéricas são obtidas através de medições; 
possuem portanto não apenas as flutuações randômicas próprias das observações, como foi 
visto anteriormente, mas também toda sorte de erros possíveis de ocorrer nas medições, 
identificações, anotações e transferência de dados. 
As medidas que representam uma mesma quantidade possuem dispersão com 
respeito a uma média, o que se chama de flutuações randômicas próprias das observações ou 
erros randômicos, também chamados erros acidentais na literatura clássica. As medidas 
podem ainda possuir erros enormes procedentes de engano de notação, erro de digitação ou 
erro de formato na leitura computacional, erro de identificação do objeto medido, etc. Estes 
são chamados de erros grosseiros. O significado de enorme ou grande é um tanto vago e 
1- Ajustamento
2
depende especificamente do problema considerado. Uma idéia geral seria considerar erros 
maiores que “três desvios padrões” (3σ) como sendo erros grosseiros. 
As medidas podem também estar afetadas de erros que não são grosseiros, nem são 
flutuações randômicas. Estes são os erros chamados erros sistemáticos. Ocorrem, por 
exemplo, quando se efetua uma medida de comprimento com um instrumento mal calibrado 
que sistematicamente aumenta ou diminui o comprimento; quando se admite que o raio 
luminoso se propaga em linha reta na atmosfera ou através das lentes de uma câmara; 
quando se ignoram os efeitos das variações de tensão e de temperatura numa fita de medida, 
etc. Os erros sistemáticos são erros cujas causas são conhecidas e que se pode minimizá-los 
ou eliminá-los teoricamente (cálculo do efeito da refração no deslocamento da imagem ou da 
variação de temperatura na medida de comprimento, por exemplo) ou através da técnica de 
medida (leitura de ré e de vante a distâncias iguais para eliminar o erro de não paralelismo 
dos eixos da bolha do nível e de visada no nivelamento geométrico, por exemplo). 
É útil notar que os erros sistemáticos se confundem com erros randômicos quando 
são pequenos e de causas não conhecidas. 
Existem métodos mais sofisticados de ajustamento que permitemlevar em 
consideração erros sistemáticos. Tais métodos estão fora do escopo deste trabalho. Portanto, 
o ajustamento aqui considerado trata de observações isentas de erros grosseiros e de erros
sistemáticos. 
O leitor interessado no tratamento de erros sistemáticos no ajustamento deve 
consultar literatura que trata de ajustamento e parametrização; determinação de "trend" ou 
"collocation". 
Aqui, neste trabalho, as observações são consideradas conter apenas erros 
randômicos. Por hipótese admite-se que elas foram depuradas de erros grosseiros e 
sistemáticos. 
As observações constituirão portanto amostras randômicas por hipótese. A qualidade 
dos resultados do ajustamento depende da validade desta hipótese. Ela deve portanto , ser 
verificada. Os histogramas são importantes para as verificações do comportamento da 
distribuição das observações. 
3
Os fundamentos da teoria de conjuntos são necessários para a compreensão dos 
conceitos que aqui serão brevemente revisados. A definição clássica de probabilidade, 
como por exemplo: "Se um evento pode resultar em n equiprováveis eventos e se m destes 
elementos são favoráveis à ocorrência do evento E, então a probabilidade P(E), de 
ocorrência de E, é a razão m por n". 
n
mEP =)( (2.1) 
ou de outra forma: “a probabilidade de ocorrência do evento E é dada pela relação entre o 
número de eventos favoráveis e o número de eventos possíveis”. Esta relação entretanto, é 
viciosa, pois pressupõe eventos equiprováveis. 
A utilização da probabilidade experimental, definida pela freqüência relativa, é 
superior ao conceito vicioso ilustrado acima, entretanto é mais descritivo que formal. O 
conceito mais acatado em nossos dias é aquele que se baseia na estrutura axiomática e liga 
a probabilidade à teoria dos conjuntos. 
A seguir, alguns conceitos importantes de probabilidade serão revisados e dentre 
estes, conceitua-se a própria probabilidade. 
1. Espaço de probabilidade ou espaço amostral: seja o conjunto D não vazio, e que
pode ser particionado em subconjuntos Di disjuntos; D constitui um espaço amostral. Na 
teoria moderna de probabilidade imagina-se que todos os resultados possíveis de uma 
experiência são representados por pontos de um espaço n-dimensional, espaço este 
denominado de “espaço amostral”. De modo simples pode-se dizer que o espaço amostral é 
o conjunto de todos os resultados possíveis de um experimento estatístico.
2. Evento: ao se efetuar um experimento (observação, medida, lançamento de dado,
etc.) vários ou infinitos resultados, ou conjunto deles, podem ocorrer. A estes resultados 
chama-se eventos simples e aos conjuntos deles, eventos compostos. Os casos limites, o 
evento certeza, e o evento impossível são também considerados no conjunto dos eventos. 
Exemplo: seja o experimento, arremesso de um dado. Evento simples - ocorrência da face 
5; evento composto - ocorrência de face par. 
3. Eventos mutuamente exclusivos (ou incompatíveis): são eventos tais que, em um
experimento, apenas um pode ocorrer. Exemplo: no arremesso de um dado os eventos face 
1, face 2, etc., são eventos mutuamente exclusivos. 
4. Sistema completo de eventos: é o conjunto de todos os eventos mutuamente
exclusivos de um experimento. Exemplo: o conjunto {f1,f2, ...f6} no arremesso de um dado. 
5. Evento complementar: se dois eventos E1 e E2 formam um sistema completo de
eventos, então E1 e E2 são complementares. Exemplo: cara (H) e coroa (T) no arremesso de 
uma moeda são eventos complementares. 
6. Soma ou união de eventos: sejam A e B dois eventos num experimento e seja;
C = A ∪ B. Então, C é a união dos eventos A e B. Exemplos: (seja o experimento:
arremesso de um dado e os eventos: E1 = ocorrência de face ímpar; E2 = ocorrência de face 
par; E3 = ocorrência da face 3 ou 4) 
a) C1 = E1 + E2 = { f1, f2, f3, f4, f5, f6 }
b) C2 = E1 + E3 = { f1, f3, f4, f5, }
7. Produto ou interseção de eventos: sejam A e B dois eventos num experimento e seja
C = A ∩ B. Então, C é interseção dos eventos A e B. Exemplos: (seja o experimento
e eventos do exemplo anterior) 
a) C1 = E1 E2 = { }
2 - Conceitos de Probabilidade
4
b) C2 = E1 E3 = {f3}
8. Variável aleatória: é uma variável que assume valores diversos, dependendo do
resultado de um experimento estatístico. A variável, aleatória ou randômica está associada 
a uma função densidade de probabilidade. 
9. Função aleatória: é uma função definida em cada ponto, ou para cada elemento do
espaço amostral assumindo valores reais. 
10. Função de probabilidade: seja P uma aplicação do espaço de probabilidade D no
intervalo real (0,1), com as propriedades: 
a) Se D' ⊂ D → P(D') = 1 - P(D - D')
b) Se (Di disjuntos) ⊂ D → P(∪ Di) = ∑P(Di);
P é chamada função de probabilidade. 
11. Probabilidade: ao valor da (ou valor assumido pela) função de probabilidade, num
dado ponto, denomina-se probabilidade. Assim, P(Di) ∈ [ 0,1]. 
12. Probabilidade total ou cumulativa: denomina-se probabilidade total ou
probabilidade cumulativa da união de subconjuntos disjuntos ∪Di, ao somatório ∑P(Di), 
ou seja: 
( ) ( ) ( )i
i
j
jiit DPDPDP ∑
=
=∪=
1
(2.2) 
 Exemplo: P(∪D3), para o arremesso de um dado suposto homogêneo e regular, é: 
P(D1) + P(D2) + P(D3) = 1/2 
13. Adição de probabilidade: seja a soma dos eventos E = E1 + E2 = E1 ∪ E2; a
probabilidade, P(E), do evento E ‚ dada por 
P(E) = P(E1 ∪ E2) = P(E1) + P(E2) - P(E1E2).
Exemplo: veja ainda o experimento do exemplo anterior. Sejam os eventos E1 =
faces múltiplas de 3; E2 faces pares; E3 = faces ímpares. 
a) Se E1 e E2 são não mutuamente exclusivos e
E = E1 + E2 = E1 ∪ E2 
P(E) = P(E1) + P(E2) - P(E1E2) 
 = P(E1) + P(E2) - P(E1 ∩ E2) 
 P(E1)= P(face3, face6) = 2/6 
 P(E2)= P(face2, face4, face6) = 3/6 
 P(E1∪E2)= P(face2, face3, face4, face6) = 4/6 
 P(E1)+ P(E2)- P(E1E2)= 2/6 + 3/6 – 1/6 = 4/6 
b) Se os eventos são mutuamente exclusivos; como E2 e E3 e
E = E2 + E3 
P(E) = P(E2)+ P(E3) 
 P(E2) = 3/6 ; P(E3) = 3/6 ; P(E) = 1 
14. Probabilidade condicionada: se A e B são subconjuntos de D, (A, B)⊂ D, a
probabilidade condicionada P(A/B), que se lê: "probabilidade de A dado B" e se interpreta 
como: "a probabilidade de ocorrência de A sob a condição de que B já ocorreu", é dada 
por: 
)(
)()/(
BP
BAPBAP ∩= (2.3) 
5
Exemplo - Seja o experimento e eventos do exemplo acima, determinar: 
P(E1/E2); P(E2/E1); P(E2/E3) 
 P(E1) = 2/6 ; P(E2)= 3/6 e 
 P(E1 ∩E2) = 1/6 ; P(E2∩E3) = 0 então, 
 P(E1/E2) = 1/6:3/6 = 1/3 ; 
 P(E2/E1) = 1/6:2/6 = 1/2 e 
 P(E2/E3) = 0:1/2 = 0 
15. Probabilidade combinada: a probabilidade combinada P(A,B), que se lê:
"probabilidade de ocorrência de A e B" também chamada lei multiplicativa das
probabilidades de eventos independentes, é dada por:
P(A,B) = P(A).P(B) (2.4) 
ou genericamente, 
))()...,(
11
21 ∏∏
==
==
n
i
i
n
i
in DPDPDDDP (2.5) 
ou é interpretada como a probabilidade de ocorrência dos eventos independentes A 
e B ou D1 e D2 etc. 
Dizer que os eventos A e B são independentes eqüivale a dizer que, 
P(A/B) = P(A) (2.6) 
A equação (2.6) substituída na (2.3) resulta a (2.4). 
Exemplo: seja o experimento, dois arremessos sucessivos de um dado homogêneo 
regular. Sejam os eventos: E1, ocorrência de f3 no primeiro arremesso; E2, ocorrência de f6 
no segundo; E3, ocorrência de { f3,f6 } nos dois. 
P(E1) = P({f3}) = 1/6 ; 
 P(E2) = P({f6}) = 1/6 ; 
 P(E3 = E1 ∩ E2 ) = 1/6 . 1/6 = 1/36 
16. Exercícios e Exemplos:
Considere-se os experimentos: (a) arremesso de um dado uma vez; (b) arremesso de
uma moeda uma vez; (c) arremesso de uma moeda três vezes; (d) arremesso de dois dados 
uma vez; (e) um espaço amostral D ilustrado abaixo e particionado em subconjuntos Di 
disjuntos com as seguintes probabilidades: 
D = {D1; D2; D3; D4; D5} 
onde Di disjuntos, e Di ⊂ D e 
P(D1)= 1/20 ; P(D2)= 3/20 ; P(D3)=6/20 ; P(D4)= 2/20 ; P(D5)= 8/20 
Admita-se dados e moedas fiéis nos experimentos (a), (b), (c) e (d). 
16.1 Qual seria o conjunto de todos os resultados possíveis (espaço amostral) dos 
experimentos(a), (b), (c) e (d) ? 
6
Para o experimento (a): 
D = { 1,2,3,4,5,6 } = { d1,d2,d3,d4,d5,d6 } 
Para o experimento (b): 
D = { cara, coroa } = {H,T} = {d1,d2 } 
Para o experimento (c): 
D = { HHH, HHT, HTH, THH, HTT, THT, TTH, TTT } 
Para o experimento (d), associado a pontos do plano: 
D = {(1,6) (2,6) (3,6) (4,6) (5,6) (6,6) 
 (1,5) (2,5) (3,5) (4,5) (5,5) (6,5) 
 (1,4) (2,4) (3,4) (4,4) (5,4) (6,4) 
 (1,3) (2,3) (3,3) (4,3) (5,3) (6,3) 
 (1,2) (2,2) (3,2) (4,2) (5,2) (6,2) 
 (1,1) (2,1) (3,1) (4,1) (5,1) (6,1)} 
16.2 Determinar o conjunto dos eventos tais que: 
E1 seja a ocorrência da face 4 no experimento (a); E2 seja a ocorrência de face par no 
experimento (a); E3 seja a ocorrência de duas caras e uma coroa no experimento (c); E4 
seja a ocorrência da soma de pontos de dois dados totalizar seis no experimento (d). 
Teríamos então: 
E1 = { F4 } 
E2 = { F2, F4, F6 } 
E3 = { HHT, HTH, THH } 
E4 = { (1,5); (2,4); (3,3); (4,2); (5,1) } 
16.3 Calcular as probabilidades acumuladas: Pt(d1); Pt(d3); Pt(d5) e Pt(d6) no 
experimento (a); Pt(d3) e Pt(d5) para o experimento (c); Pt(D2); Pt(D4) e Pt(D5) para o 
experimento (e). 
16.4 Considerando os eventos E1 - total de pontos par, E2 - total de pontos ímpar, E3 
- total de pontos é número primo, E4 - total de pontos é número múltiplo de três e E5 - total 
de pontos é dois, nos experimentos (a) e (d), calcular: P(E1), P(E2), P(E3), P(E4), P(E5), 
P(E1/E2), P(E1/E3), P(E1/E4), P(E3/E2) e P(E5/E1). 
16.5 No experimento (c), qual a probabilidade P(A,B) de ocorrência dos eventos: A 
- cara na segunda jogada e B - coroa na terceira jogada ? 
16.6 Considerando o experimento (d), e com o interesse voltado apenas para o total 
de pontos (e não em pares ordenados), qual seria o espaço amostral? Quais seriam as 
probabilidades associadas aos elementos di de D? Qual a probabilidade total? 
7
16.7 Fazer a representação gráfica, onde o espaço D seja representado nas abscissas 
e as probabilidades nas ordenadas para: 
(16.7.a) - probabilidades acumuladas no experimento (a); 
(16.7.b)- probabilidades acumuladas de (c) e (d) onde se considera o resultado total (sem 
ordenação), isto é, duas caras e uma coroa passam a ser um só elemento di ∈ D, no 
experimento (c) e todos os elementos que resultem a mesma soma de pontos no 
experimento (d) passam também a ser um só elemento. 
16.8 Sejam os subconjuntos dos números do dado: 
A = { faces com números pares } 
B = { faces com números primos } 
C = { faces com números ímpares } 
Supondo-se que a face de um dado tem a probabilidade de ocorrência proporcional 
ao seu número (número de face) pede-se: 
16.8.a) - Qual o espaço D ? 
16.8.b) - Qual a probabilidade de di de D ? 
16.8.c) - Quais as probabilidades de A, B e C ? 
16.8.d) - Qual a probabilidade de A ou B ? 
16.8.e) - Qual a probabilidade de que um número ímpar primo ocorra (C ou B) ? 
16.8.f) - Qual a probabilidade de ocorrência de um número par mas não primo? 
Solução: 
 16.8.a) D = { 1,2,3,4,5,6 } 
16.8.b) Seja ki a probabilidade da face i: 
654321
654321 kkkkkk =====
6121
1
21
61 kkki ====∑ L
k1 = 1/21 ; k2 = 2/21 ; k3 = 3/21 ; k4 = 4/21 ; k5 = 5/21 ; 
k6 = 6/21 
P(1) = 1/21 ; P(2) = 2/21 ; P(3) = 3/21 ; P(4) = 4/21 
P(5) = 5/21 ; P(6) = 6/21 
16.8.c) A = { 2,4,6 } 
P(A) = P(2) + P(4) + P(6) = 2/21 +4/21 + 6/21 
P(A) = 12/21 
B = { 1,2,3,5 } 
P(B) = P(1) + P(2) + P(3) + P(5) 
P(B) = 1/21 + 2/21 + 3/21 + 5/21 
P(B) = 11/21 
C = { 1,3,5 } 
P(C) = P(1) + P(3) + P(5) = 1/21 + 3/21 + 5/21 
P(C) = 9/21 
8
 16.8.d) P( A ∪ B) = P({2,4,6 } ∪ {1,2,3,5 }) 
P (A ∪ B) = P({1,2,3,4,5,6 }) = 21/21 = 1 
16.8.e) P( C ∩ B) = P( { 1,3,5 } ∩ { 1,2,3,5 } ) 
P( C ∩ B) = P( { 1,3,5 } ) = 9/21 
 16.8.f) P(par não primo) = P(A mas não B) 
P(par não primo) = P(A - (A ∩ B)) = 10/21 
9
A Estatística trata com a aplicação das leis da probabilidade visando coletar dados 
adequadamente, analisá-los e extrair conclusões válidas para a população a partir de 
amostras (inferência). 
A Estatística complementa a probabilidade na obtenção de subsídios para a tomada 
de decisões apropriadas. Estas decisões porém, são de competência humana. 
O método dedutivo consiste na extração de conclusões válidas para o específico ou 
particular, a partir do geral. A inferência consiste em obter informações válidas para o 
geral (população) a partir do conhecimento do particular (amostra). 
Revisa-se alguns conceitos que se relacionam mais estreitamente às aplicações e 
estudos do cálculo do ajustamento de observações. 
1. Amostra: amostra é um subconjunto da população, ou do espaço amostral, e deve ser
representativa da mesma. Isto implica que a amostra deve ser aleatória ou randômica.
2. Progressão: progressão é um conjunto ordenado de elementos, não necessariamente
distintos.
3. Conjunto definição: Conjunto definição é o subconjunto da progressão constituído
somente dos elementos distintos desta.
Exemplo 3.1. Dadas as progressões L1 = {1, 2, 2 , 0, 1, 7, 5, 2 } e L2 = {7, 5, 1, 1, 1, 2,
0} os conjuntos definidos são:
D1 = { 1, 2, 0, 7, 5 } e D2 = { 7, 5, 1, 2, 0 }. 
Exemplo 3.2. Dada a progressão L = { 1, ∆, ∇, 1, 1, , ∇ }, com n = 7, o conjunto 
definição é: 
D = { 1, ∆, ∇, } = {d1, d2, d3, d4 } = {di}, com i = 1.....m; 
as freqüências são: (ver conceito de frequência, 9.) 
c1 = 3; c2 = 1; c3 = 2; c4 = 1; 
As freqüências relativas são: 
P(d1) = P(1) = 3/7 
P(d2) = P(∆) = 1/7 
P(D3) = P(∇) = 2/7 
P(d4) = P( ) = 1/7 
E a probabilidade total, 
1)()()(
4
1
==∪= ∑
=i
ii dPdPDP 
3 - Conceitos Básicos de Estatística
CREA-PR / Departamento de Geomática da Universidade Federal do Paraná 
10
geralmente D ⊂ R (números reais). 
4. Amostra aleatória ou randômica: numa definição simplificada, a amostra aleatória é
aquela tomada de modo que qualquer elemento da população tenha igual probabilidade
de ser incluído na amostra.
Num sentido mais geral, a amostra aleatória é uma progressão finita tal que: 
- seu conjunto definição D é um espaço de probabilidade ou espaço amostral; 
- tem uma função de probabilidade definida para todo di ∈ D, tal que 
n
c
dP ii =)(
isto é, igual a freqüência relativa. 
5. Função distribuição de probabilidade experimental: se a progressão da amostra
randômica for uma progressão numérica e P for uma função discreta de D em [0,1]; P
é chamada de FDPE (função distribuição de probabilidade experimental).
P(di) = probabilidade experimental ou frequencia relativa. Mais adiante serão
abordadas as funções de distribuição de probabilidade contínuas.
Exemplo 3.3. Diga-se que um certo experimento originou a amostra randômica L = {
2, 2, 3, 5, 5, 5, 7, 7, 8 } com n = 9, sendo o conjunto definição D = { 2, 3, 5, 7, 8 } com
m = 5. As frequencias correspondentes aos di são:
c1 = 2; c2 = 1; c3 = 3; c4 = 2; c5 = 1
As probabilidades experimentais são:
P(d1) = 2/9; P(d2) = 1/9
P(d3) = 3/9; P(d4) = 2/9
P(d5) = 1/9
D é subconjunto de R e P é função distribuição de probabilidade experimental. 
Graficamente pode-se representar a FDPE como na figura 3.1. 
FIGURA 3.1 – Diagrama de barras das probabilidades experimentais 
6. Função de distribuição acumulada – FDC : a função de distribuição acumulada de
probabilidade é definida para D discreto como:
MÓDULO I – TOPOGRAFIA, AJUSTAMENTO DE OBSERVAÇÕES E INTRODUÇÃO AO GEORREFERENCIAMENTO... 11
)()(
1
∑
=
=
i
j
ji dPdC (3.1) 
 Exemplo 3.4. Considere-se a amostra randômica L = {1, 2, 4, 1, 1, 2, 1, 1, 2 } com n 
= 9, e conjunto definição D = { 1, 2, 4 }, m = 3, com frequencias c1 = 5; c2 = 3 e c3 = 1. 
As probabilidades experimentais são: 
P(d1) = 5/9 ; P(d2) = 3/9 e P(d4) = 1/9 
então tem-se: 
C(d1) = P(d1) = 5/9 
C(d2) = P(d1) + P(d2) = 8/9 
C(d4) = P(d1) + P(d2) + P(d3) = 1 
Que graficamente pode ser representada por: 
FIGURA 3.2 - Representação gráfica da distribuição acumulada para o exemplo 3.4 
7. Média da amostra: Seja a amostra L = {l1, l2, .....ln} com D = {d1, d2, .... dm}, onde n é
o tamanho daamostra e m o número de elementos do conjunto definição. A média
pode ser definida por: 
∑
=
=
n
i
iln
M
1
1 (3.2) 
ou por: 
)(
1
i
m
i
i dPdM ∑
=
= (3.3) 
uma vez que, 
n
C
dP ii =)(
i
m
i
ii
m
i
i Cn
ddPdM 1)(
11
∑∑
==
== (3.4) 
∑∑
==
==
n
i
ii
m
i
i ln
Cd
n
M
11
11
Pode-se ainda representar a média M por, 
M= E(l) 
Onde E é a “ Esperança Matemática”, entendida como o operador linear Σ aplicado ao 
produto P(di).di. 
12
O operador E tem as seguintes propriedades, sendo k uma constante e l amostra: 
a) E(k) = k
b) E(kl) = kE(l)
c) E(k + l) = k + E(l)
d) E(Σl) = ΣE(l)
Exemplo 3.5. Cacular a média amostral L usando as equações (3.2) e (3.3) sendo L = 
{1, 2, 4, 1, 1, 2, 1, 1, 2 }. 
M = 1/9(1 + 2 + 4 + 1 + 1 + 2 + 1 + 1 + 2 ) = 15/9 
ou 
M = 1.(5/9) + 2.(3/9) + 4.(1/9) = 15/9 
8. Variância da amostra: seja a amostra aleatória L = {l1, l2, ..... ln} com média M. O
número real s2 dado por. 
∑
=
−=
n
i
i Mln
s
1
22 )(1 (3.5) 
é chamada variância da amostra. É uma medida de dispersão. 
A comparação das equações (3.2) e (3.3) permite escrever: 
)(1
11
i
m
i
i
n
i
i dPdln ∑∑ ==
= (3.6) 
Esta equação aplicada a média dos quadrados dá: 
)(1
1
2
1
2
i
m
i
i
n
i
i dPdln ∑∑ ==
= (3.7) 
A equação (3.5) pode ainda ser desenvolvida como segue: 
)()(2)(
)2())((
)(1
22
222
2
1
2
MElMElE
MlMlEMlE
Ml
n
s
n
i
i
+−=
+−=−=
−= ∑
=
222 )( MlEs −= (3.8) 
ou ainda usando o conceito da (3.7), 
2
1
22 )( MdPds j
m
j
j −= ∑
=
(3.9) 
Exemplo 3.6. Calcular a variância da amostra do exemplo (3.5) usando as equações (3.5), 
(3.8) e (3.9). 
Solução 
Da (3.5) tem-se: 
S2 = 1/9[(-6/9)2 + (3/9)2 + (21/9)2 + (-6/9)2 + (-6/9)2 + (3/9)2 + (-6/9)2 + (-6/9)2 + (3/9)2] 
13
S2 = 1/9(648/81) 
S2 = 8/9 
Da (3.8) tem-se: 
s2 = 1/9(1 + 4 + 16 + 1 + 1 + 4 + 1 + 1 + 4 ) – (15/9)2 
s2 = 8/9 
Da (3.9) tem-se: 
s2 = 1(5/9) + 4(3/9) + 16(1/9) –(15/9)2 
s2 = 8/9 
O desvio padrão é dado pela raiz quadrada positiva da variância: 
2s+=σ
9. Estimativa Pontual: nas inferências estatísticas pode-se utilizar estatísticas (valores
calculados a partir da amostra, com média, variância e desvio padrão) para estimar os
parâmetros correspondentes da população. Assim:
M para estimar µ; 
s2 para estimar σ2 
Não é surpreendente que diferentes amostras de uma mesma população, dêem 
origem a diferentes Mi e (s2)i , podendo-se então falar em distribuição das estatísticas da 
amostra. Assim pode-se ter FDP das médias e das variâncias. 
A variância da distribuição das médias σ2(M) é dada por: 
Var(M) = σ2(M) = σ2 / n (3.19) 
onde n é o número de observações que geram a média M. 
A média das médias é: 
µµ == )()ˆ( iMEE (3.20) 
razão pela qual a média é chamada estimador imparcial. 
Semelhantemente: 
222 )()ˆ( σσ == sEE (3.21) 
e também a variância é chamada estimador imparcial, “ unbiased estimator” . 
10. Variável randômica multi-dimensional e sua FDP: a exemplo do que foi visto
no caso unidimensional , o conceito de variável randômica multi-dimensional tem, 
implicitamente, a associação de uma FDP. A variável randômica n-dimensional é dada 
para [ X, φ(X)], onde X é o vetor: 
14
















=
nX
X
X
X
.
.
2
1
e cada Xj deste vetor é uma variável randômica unidimensional; φ(X) é tal que: 
φ(X) = φ(X1, X2, .....Xn ) ∈ {Rn → R } (3.25) 
é não negativa e integrável em Rn
11. Probabilidade no espaço multi-dimensional: Considere-se dois valores específicos
para o vetor X, isto é, X0 e X1 formando o intervalo (X0 , X1). A probabilidade de 
X ∈ ( X0 , X1 ) ⊂ Rn é: 
∫ ∈Φ=≤≤
1
0
]1,0[)()( 10
X
X
dXXXXXP (3.26) 
onde: 
[ ]TnXXXX 020100 ..= e 
[ ]TnXXXX 121111 ..=
),...,,( 21 ndXdXdXdX =
e a integração é em Rn
12. Média e variância da variável multi-dimensional: a média da variável randômica
n-dimensional possui n componentes que são as médias das componentes da variável. 
[ ] nTn RXE ∈== )(..21 µµµµ (3.30) 




















==
)(
.
.
.
)(
)(
)(
2
1
nXE
XE
XE
XEµ
(3.31) 
Semelhantemente a variância da variável randômica n-dimensional possui n 
componentes cada qual dada por: 
))(( 22 j
j
j XE µσ −= (3.32) 
ou, como anteriormente, 
))(( 222 j
j
j XE µσ −= (3.33) 
Exemplo 3.12: Dada a amostra tridimensional: 
15










=










=
)8,5,5,2,5(
)2,3,0,4,6(
)4,7,4,3,2(
3
2
1
l
l
l
L
Estimar a média e a variância da amostra: 










=
















++++
++++
++++
=










=
5
3
4
)85525(
5
1
)23046(
5
1
)47432(
5
1
)(
)(
)(
3
2
1
13
lE
lE
lE
M
5
14)09014(
5
1)(( 211
2
1
=++++=−= MlElσ
4)10919(
5
1)(( 222
2
2
=++++=−= MlElσ
5
18)90090(
5
1)(( 233
2
3
=++++=−= MlElσ
Ao contrário do que ocorre com a variável unidimensional, no espaço n-
dimensional a variável não expressa as propriedades estatísticas tão satisfatoriamente. O 
conceito de matriz variância-covariância se torna agora necessário. 
13. Matriz variância-covariância da variável n-dimensional: a matriz variância-
covariância será representada por: 
[ ]ij
nnnn
n
n
X
σ
σσσ
σσσ
σσσ
=




















=∑
...
......
......
......
...
...
21
22221
11211
(3.34) 
onde, 
))((( j
j
i
i
ij XXE µµσ −−= 
dXXXX j
j
i
R
i
n
)())(( Φ−−= ∫ µµ (3.35) 
Note-se que, quando i =j a equação (3.35) dá as variâncias que constituem os elementos da 
diagonal de ΣX . A matriz variância-covariância pode ainda ser definida como: 
)))((( TxX x XXE µµ −−=∑ (3.36) 
Para um conjunto discreto, a equação (3.35) assume a forma: 
),().)(( jix
j
xX X
i
XX XXPXX jii jji µµσ −−= ∑ ∑ (3.37) 
16
Exemplo 3.13: Calcular Σ para o caso bi-dimensional (Xi = x e Xj = y) ilustrado abaixo, 
onde as probabilidades: 0,1 e 0,2 são associadas aos pontos da distribuição através do 
tamanho das circunferências (circunferência maior – maior probabilidade). Os valores de 
(x , y) são dados na tabela abaixo. 
Coordenadas Ponto nº 
x y
P(x , y) 
1 10 06 0,1
2 15 08 0,2
3 15 12 0,1
4 20 10 0,2
5 25 08 0,1
6 25 12 0,2
7 30 14 0,1
Aplicando a equação 3.37 aos dados: 
MX = 10x0,1+15x0,2+15x0,1+......+ 25x0,2+30x0,1 = 20 
MY = 6x0,1+8x0,2+12x0,1+..........+12x0,2+14x0,1= 10 
(sx )2 =(10-20)2x0,1+(15-20)2x0,2+....+ (25-20)2x0,2+(30-20)2x0,1=35 
(sy)2 =((6-10)2x0,1+(8-10)2x0,2+.....+ (12-10)2x0,2+(14-10)2x0,1= 5,6 
e 
sxy = syx = 10 
logo, 
∑ 





=
XY 6,510
1035
Exercício: Fazer um estudo para constatar que informações a covariância contém; que 
medida ela faz; sua utilidade prática; sua dependência ou independência da posição da 
distribuição com respeito ao sistema referencial e das unidades de medida. 
23. Coeficiente de correlação: o coeficiente de correlação ρ(Xi , Xj ) é definido por:
]1,1[ +−∈=
ji
ji
ji
XX
XX
XX σσ
σ
ρ (3.38) 
que expressa o grau de dependência linear entre as variáveis xi e xj . 
O resultado advindo da expressão (3.38) pode ser estatisticamente interpretado da 
seguinte maneira: 
a) Se 1=ji XXρ : existe uma correlação linear perfeita entre as variáveis x
i e xj , ou 
que xj é uma função linear de xi . 
b) Se 0=ji XXρ : diz-se que as variáveis x
i e xj não são correlacionadas. 
17
No entanto, isso não significa necessariamente que as componentes das variáveis sejam 
estatisticamente independentes. 
Sugere-se, a título de exercício, que seja refeito o exercício anterior para o caso 
de ρ. 
18
O problema de propagação da distribuição Φ(X) de X para Φ(Y) de Y quando Y = f(X) 
nem sempre tem solução e é complexo e este assunto foge do escopo destas notas. 
A solução usual em ajustamento é a aplicação da lei de propagação das covariâncias. 
Esta lei permite a obtenção da matriz variância-covariância da variável dependente Y, em 
função da matriz variância-covariância da variável independente X, desde que Y = (F(X); X e 
Y sendo variáveis multidimensionais. 
Seja a função f,tal que 
Y = f(X) (4.1) 
e f é linear, isto é, pode ser expressa na forma: 
Y = f(X) = AX + C (4.2) 
onde X e Y são vetores multidimensionais com flutuações randômicas, A é a matriz de 
transformação e C um vetor constante de translação. 
 A esperança E(Y) será: 
E(Y) = E(AX + C) = E(AX) + E(C) = AE(X) + C 
ou 
E(Y) = A.E(X) + C (4.3) 
e a matriz variância-covariância Σy, equação (3.36), será: 
Σy = E((Y - µy)(Y - µy)T) (4.4) 
Substituindo Y por seu valor dado para equação (4.2), tem-se: 
Σy = E((AX + C - µy)(AX + C - µy)T) 
substituindo µy por seu valor da (4.3), vem: 
Σy = E((AX + C - AE(X) - C). (AX + C - AE(X) - C)T) 
= E((AX - AE(X)) (AX - AE(X))T) 
= E(A(X - µx)(A(X - µx))T) 
= E(A(X - µx) (X - µx)T AT) 
= AE((X - µx) (X - µx)T)AT 
= AΣx AT 
logo 
Σy = AΣx AT (4.5) 
Esta é a lei de propagação de covariância de grande aplicação em ajustamento. Ela se 
aplica também às funções não lineares como ver-se-á abaixo. Para isto as funções não 
lineares são primeiramente linearizadas e então a equação (4.5) é usada. 
Seja a função (ou funcional) não linear: 
4 - Lei de Propagação das Covariâncias
19
Y = F(X) (4.6) 
onde X e Y têm o mesmo significado dado na (4.1) e F é o funcional: 
F =
F
F
.
.
.
F
1
2
m




















Seja ainda dado um vetor X0 nas vizinhanças de X. X0 será chamado vetor dos 
valores aproximados de X. 
A função F(X) pode ser desenvolvida em série de Taylor como segue: 
..........
!2
||)()(
2
2
2
0
00
+
∆
∂
∂
+∆
∂
∂
+=
==
X
X
FX
X
FXFXF
XXXX
(4.7) 
onde 


































∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
X
F...
X
F
X
F
......
......
......
X
F...
X
F
X
F
X
F...
X
F
X
F
 = 
X
F
n
m
2
m
1
m
n
2
2
2
1
2
n
1
21
1 1
e o valor numérico desta expressão para X = X0 será representado por: 
0
|
XXX
F=A
=∂
∂ (4.8) 
e ainda: 
F(X0) = C (4. 9) 
tem-se então, negligenciando os termos de 2ª ordem e de ordens superiores, a equação (4.6) 
expressa por: 
Y = F(X) ≅ C + A.∆X (4.10) 
A comparação das equações (4.10) e (4.2) torna óbvio que, após a linearização do 
modelo (4.6) para a forma (4.10), pode-se aplicar a lei de propagação de covariância, 
equação (4.5), também a este modelo. 
20
O modelo linearizado tende para o valor F(X) quando X0 tende para X; logo a 
qualidade da aproximação depende dos valores aproximados. Para fins de propagação de 
covariância esta aproximação não é crítica. 
Exemplo 4.1 - (lei de propagação para F linear): Admita-se que foram observadas no campo 
quatro direções di: 




































4
3
2
1
4
3
2
1
d
d
d
d
=
l
l
l
l
=L
e que a matriz variância-covariância das observações foi estimada: 
L =
3 ,2 0 ,9 0 ,8 0 ,5
0 ,9 3 ,2 0 ,7 0 ,9
0 ,8 0 ,7 3 ,8 1 ,2
0 ,5 0 ,9 1 ,2 4 ,1
Σ














Os ângulos αi foram calculados a partir das observações, como: 




































l-l
l-l
l-l
 = = 
X
X
X
=X
34
23
12
3
2
1
3
2
1
α
α
α
Estime-se a matriz variância covariância ΣX de αi. 
Da função X = F(l) que dá os valores dos ângulos αi, tem-se α = F(l) = A.L, donde: 










11-00
011-0
0011-
=A43
Aplicando a lei de propagação das covariâncias tem-se: 
T
L .AA.= ΣΣα










Σ






































Σ
5,52,8-0,5
2,8-5,62,4-
0,52,4-4,6
=
100
1-10
01-1
001-
4,11,20,90,5
1,23,80,70,8
0,90,73,20,9
0,50,80,93,2
11-00
011-0
0011-
=
α
α
21
Exemplo 4.2. Os ângulos A e B do triângulo plano ABC foram observados com a precisão: 
"4"3 22 == BA eσσ 
O ângulo C foi calculado por: 
C = 180° - A – B 
Estimar a precisão σC = do ângulo C computado na expressão acima: 
Fazendo y = F(X), na fórmula matricial de y = AX + C, temos: 
Cy
B
A
X =





= ;
e 
[ ] °




 180 + 
B
A
 1- 1- = C
Onde 
A = [ -1 -1 ] 
Aplicando a lei de propagação das covariâncias temos: 
[ ]
[ ]
62, = e 7 = 
ou
7=
1-
1-
40
03
1-1-=
CC
C
C
′′′′
Σ












Σ
σσ 2
Exemplo 4.3. Seja a amostra bidimensional L a resultante das medidas do comprimento e da 
largura de um terreno retangular em m: 






=








72,772,472,572,672,8
232,4232,4232,5232,7232,5
l
l
=L
2
1
O vetor X, tal que: 
















retângulo do área 
retângulo do diagonal
=
X
X
=X
2
1
22
foi calculado das observações. 
Estimar a precisão de X, isto é, determinar Σx. 
Sugestão: determinar ΣL da amostra: escrever as equações do funcional F = [F1 F2]T ; 
linearizar F; aplicar a lei de propagação das covariâncias; verificar quais as unidades em ΣL e 
Σx. 
Exemplo 4.4. Supõe-se que as distâncias do ponto C às estações A e B devam ser 
determinadas a partir das medidas dos ângulos A e B e do lado AB (ver figura). 
A média das observações L foi: 
















′′′′
′′′′
Σ










°
°
=










=












) 2(5cm00
0) 24(-) 21(-
0) 21(-) 24(
=L
com
100m
45
90
c
B
A
l3
l 2
l1
=L
O vetor , 
X =
a
b




foi calculado a partir das observações pela lei dos senos: 
X =
a
b
 =
c s e n A / se n (A + B )
c se n B / se n (A + B )












Estimar a matriz variância covariância Σx dos lados calculados, em cm2. Por razões de ordem 
numérica, não modificar as unidades de ΣL. 
23
 
 
5.1 - CONSIDERAÇÕES INICIAIS 
É oportuno, uma vez mais, lembrar-se que só faz sentido falar em ajustamento ou 
aplicação do método dos mínimos quadrados (M.M.Q.) quando se dispõe de observações 
redundantes. 
No sentido geral o MMQ consiste em estimar variáveis estocásticas X e seus 
parâmetros de distribuição Σx, a partir de amostras L observadas com precisão ΣL. 
DADOS : (L,ΣL) → ESTIMAR : (X, Σx) 
Estarão envolvidos nos problemas de ajustamento três espaços: (a) o espaço das 
observações ou medidas, Rn; (b) o espaço do modelo matemático Rm e; (c) o espaço dos 
parâmetros incógnitos Ru. Métodos particulares poderão envolver um ou dois destes espaços. 
O modelo matemático funcional que inter-relaciona estes espaços constitui um 
sistema de equações lineares (ou linearizadas) incompatível. A incompatibilidade procede 
das flutuações randômicas que é propriedade das observações. 
Dada uma família de modelos matemáticos, um modelo fica determinado por um 
número mínimo de parâmetros obtidos numa solução única. Assim, por exemplo: 
a) a família de modelos:
y = ax + b 
possui infinitos elementos, um dos quais fica determinado fixando-se (o número 
mínimo de) dois parâmetros a1 e b1. 
b) a forma de um triângulo plano é definida por seus ângulos: o número mínimo de
parâmetros que individualizam uma forma é dois (dois ângulos) e o modelo: 
α + β + γ = 180° 
c) se o problema for fixar a forma e as dimensões do triângulo plano, já o número de
parâmetros é três; uma escala tem que ser acrescentada ao problema anterior e; 
d) se a pretensão é determinar a posição com respeito a um referencial, as dimensões
e a forma de um triângulo plano, cinco parâmetros seriam requeridos. 
A medida em que a complexidade da realidade física que se pretende representar 
cresce, o número de parâmetros mínimo requerido também aumenta. 
Num sistema de equações lineares redundantes e inconsistente, as soluções que se 
obteriam para o conjunto (número mínimo) de parâmetros a partir de diferentes subsistemas 
(formados com o mínimo de equações necessárias para dar solução única) seriam distintas. 
Daí a necessidade do princípio dos mínimos quadrados. Antes porém de se passar para o 
MMQ, parece útil um breve retrospectodo significado de sistemas de equações lineares 
redundante e inconsistente dentro do contexto da discussão de sistemas lineares não 
homogêneos. 
5 - Introdução ao Método dos Mínimos Quadrados
24
5.2 - DISCUSSÃO DE SISTEMAS DE EQUAÇÕES LINEARES NÃO 
HOMOGÊNEAS 
De um modo geral e simplificado, pode-se discutir algebricamente um sistema de 
equações lineares não homogêneas, procurando responder as duas questões que seguem: 
a) O sistema é consistente?
b) Sendo consistente, a solução é única?
Seja o sistema de equações: 
AX = L (5.1) 
onde A é a matriz n x n dos coeficientes; X é o vetor das incógnitas e L o vetor dos termos 
independentes. 
Para este sistema a questão (a) pode ser respondida através de uma análise das 
características ou posto das matrizes A e A', isto é: 
Posto (A) = Posto (A') =? (5.2) 
onde A' é uma matriz obtida da A pela substituição de uma de suas colunas pelo vetor L. 
 Se Posto (A) ≠ Posto (A') o sistema é incompatível ou inconsistente, e será 
consistente se a igualdade (5.2) se verificar. 
A segunda questão (que se aplica somente ao sistema compatível) será respondida 
examinando o determinante A. 
det (A) ≠ 0 ? (5.3) 
Então, o sistema terá solução única. Determinante nulo implica que o sistema possui infinitas 
soluções. 
Considere-se agora o sistema 
AX = L 
onde A é de dimensões (n x u) e o vetor de incógnitas (u x 1) e o dos termos independentes (n 
x 1) e ( n > u). Este é o caso dos sistemas superabundantes. 
As duas questões anteriores podem agora ser respondidas como segue: 
a) O sistema é compatível ? Examina-se:
Posto (A) = Posto (A,B) = r (5.4) 
 onde (A,B) é a matriz aumentada, obtida de A, acrescentando-se a esta a coluna L do 
vetor dos termos independentes 
[ ]LA=BA :),( (5.5) 
b) Satisfazendo a equação (5.4), o sistema teria solução determinada se r = u ou
seja: o posto comum r é igual ao número de parâmetros. 
Este caso é semelhante ao caso de n equações a n incógnitas com solução única, pois tem-se 
(n - r) equações que são combinações lineares das r outras equações do sistema. 
25
Se o sistema (5.1) for constituído para i medido, as flutuações randômicas, que são próprias 
das observações, darão origem a: 
Posto (A) ≠ Posto (A,B) 
ou seja, tem-se um sistema superabundante inconsistente. Neste caso diferentes subsistemas, 
constituídos de u quaisquer equações dentre as n do sistema, terão diferentes soluções. 
solução única destes sistemas incompatíveis é objeto do ajustamento. 
Exemplo 5.1. (sistema n x u compatível e indeterminado). Seja o sistema: 
x + y = 5 
2x + 2y = 10 
temos: 
A =
1 1
2 2
; A =
1 5
2 10




′




e 
Posto (A) = Posto (A') = 1 
O sistema n x n é compatível. Como det (A) = 0, o sistema não possui solução única 
Exemplo 5.2. (sistema n x n consistente com solução única) Seja o sistema: 
x + y = 5 
x - y = 1 
onde: 
A =
1 1
1 -1
; A =
1 5
1 1




′




e 
Posto (A) = Posto (A') = 2 
O sistema é consistente. Como det (A) ≠ 0 (ou como r = u), o sistema possui solução única. 
Exemplo 5.3. (sistema n x u consistente e indeterminado) Seja o sistema: 
x + y + z = 9 
2x + y + z = 11 
3x + 2y + 2z = 20 
-y - z = -7 
temos 




























7-1-1-0
20223
11112
9111
=BA;
1-1-0
223
112
111
=A ),(
26
e 
Posto (A) = Posto (A,B ) = 2 
O sistema é consistente. Como: 
r = 2 < 3 = u 
o sistema não possui solução única.
Exemplo 5.4. ( sistema n x u consistente e determinado) Seja o sistema: 
x + y + z = 9 
2x + y + z = 11 
x + 2y + z = 12 
4x + 3 y + 4z = 33 
onde 














=














33434
12121
11112
9 111
 BA; 
434
121
112
111
 = A ),(
sendo: 
Posto (A) = Posto (A,B) = r = 3 = u 
e o sistema é compatível e tem solução única. 
Exemplo 5.5. (sistema n x u inconsistente) Seja o sistema do exemplo 5.4 






































→
33
12
11
9
=
z
y
x
434
121
112
111
L=AX
Considere-se agora que os elementos L foram obtidos através de medidas. São portanto 
observações afetadas de flutuações randômicas, como por exemplo: 














=
33,3
11,8
10,9
9,2
=LL b
O sistema assim constituído: 
AX = Lb (5.6) 
terá 
Posto (A) = Posto (A,B) 
É um sistema inconsistente. É objeto do ajustamento. Este é o problema com o qual se 
tratará. 
27
5.3 - PRINCÍPIO DO MÉTODO DE MÍNIMOS QUADRADOS 
Revendo o exemplo 5.5 anterior, nota-se que a discrepância V (também chamada de 
resíduo) entre L, valor final, e Lb, valor medido: 
V = L - Lb (5.7) 
fosse conhecida, poder-se-ia corrigir as observações 
L = Lb + V (5.8) 
obtendo um sistema 
AX = Lb + V (5.9) 
consistente. Como V é incógnito, o sistema (5.10) possui agora (u+n) incógnitas, logo tem-
se mais incógnitas que equações. 
O princípio do método dos mínimos quadrados estabelece que "a soma dos 
quadrados dos resíduos seja mínima". 
Φ = VTV ≅ mín (5.10) 
ou 
Φ = VTPV ≅ mín (5.11) 
onde V é o vetor dos resíduos e P uma matriz simétrica dos pesos, dada por: 
P = (σ0 )2 ΣL-1 (5.12) 
e (σ0 )2 é um escalar que será discutido mais adiante. 
A aplicação do princípio do MMQ não requer conhecimento a-priori da distribuição 
associada às observações. 
A aplicação deste princípio possibilita a resolução de um sistema de equações com 
maior número de incógnitas que equações. Assim, o sistema 
AX = Lb 
inconsistente, torna-se consistente mas indeterminado. A equação 
AX = Lb + V 
pela adição das correções V, pode ser resolvido através da aplicação deste principio, como se 
verá mais adiante. 
A média aritmética M é um estimador que satisfaz o principio dos mínimos 
quadrados. 
Supõe-se então, a seguinte pergunta: dada uma amostra 
L = (li) i = 1,....,n; 
qual valor l0 que torna a soma do quadrado das discrepâncias mínimas? 
28
min.?)l-l(v 20i
n
1=i
2
i
n
1=i
= ≅ΣΣ (5.13) 
Para responder a esta questão, a equação (5.13) pode ser substituída pela variância definida 
como: 
?mimv
n
1=)l-l(
n
1=S 2i
n
1=i
20
i
n
1=i
2 .≅ΣΣ (5.14) 
Tem-se então que achar l0 tal que a equação (5.14) dê um mínimo para S², pois o l0 que 
minimiza o S² na (5.14) também minimiza o Σ(v²)i na (5.13). 
S² = S² (10) = F(1) (5.15) 
Para obter um mínimo de F(10) 
0=
l
)lF(
0
0
∂
∂ (5.16) 
Derivando a equação (5.14) com respeito a 10 e igualando a zero o resultado, tem-se: 
0=vn
2-=)v(-n
2=)(-v2n
1=
l
)lF(
iii0
0
ΣΣΣ
∂
∂ 1 (5.17) 
então 
l=nl0=l-l0=v i00ii Σ→ΣΣ→Σ (5.18) 
Ml
n
l
l i ==
Σ
=
−
0 (5.19) 
Vê-se assim que a média M é um estimador pontual que satisfaz o principio de 
mínimos quadrados. Para isto nenhuma consideração foi feita com respeito à função 
densidade de probabilidade. 
Se for postulado que a amostra L = (li), i = 1, n está associada a uma FDP normal, 
pode-se facilmente verificar que o valor de 10 que satisfaz a condição de máxima 
probabilidade e a média. Por isto a média é um estimador de máxima probabilidade no caso 
de amostras com distribuição normal (ou simétrica). 
É imediato que F na equação (5.21) será máxima (e a probabilidade será também máxima) 
se: 
minE 2i ≅Σ (5.24) 
o que implica
M=
n
l=
e
n=l
donde
0=)-l(
i
i
i
Σ
Σ
Σ
µ
µ
µ
(5.25) 
A condição (5.24) assegura também a obtenção de variância mínima, o que é um 
outro critério de estimativa usual. 
29
6.1 - INTRODUÇÃO 
O modelo matemático do ajustamento paramétrico (também chamado modelo 
explícito ou método das observações indiretas ou ainda método das equações de 
observações) é: 
La = F(Xa) (6.1) 
onde La é o vetor (nx1) das observações ajustadas, Xa o vetor (ux1) dos parâmetros ajustados 
e F um funcional que relaciona La a Xa. 
Conforme a função F seja linear ou não linear, o ajustamentose chamará de: 
paramétrico linear ou não linear. Consideraremos inicialmente o primeiro caso. 
6.1.1 Ajustamento Paramétrico Linear 
Neste caso a função F é linear e a equação (6.1) pode ser escrita na forma 
X A=L (6.2) 
onde o sistema de equações lineares é superabundante (n > u), com A (nxu). 
Este sistema consistente não pode ser formado inicialmente, pois o vetor La não está 
disponível. Isto é, dispõe-se somente do vetor Lb dos valores medidos que forma um 
sistema inconsistente, 
Lb = AX (6.3) 
que requer uma correção V ao vetor das medidas Lb. Assim: 
La = Lb + V (6.4) 
e 
VLAX b += (6.5) 
constitui um sistema compatível, mas com maior número de incógnitas que o número n de 
equações (Xa e V possuem u + n incógnitas). 
Recorre-se então ao princípio do Método dos Mínimos Quadrados (MMQ), equações 
(5.11a) ou (5.11b), para a obtenção da solução única do sistema (6.5) 
Considerando a solução quando se utiliza a equação (5.11a): 
 VTV = mín (6.5a ) 
temos da equação (6.5), 
V = AX - Lb (6.6) 
que substituído na equação (6.5a),e designando-a por Φ, resulta: 
6 - Ajustamento com o Modelo Paramétrico
30
Φ = (AX - Lb)T (AX - Lb) = mín. 
ou 
Φ = (ATXT - LTb) (AX - Lb) = mín 
e efetuando a distribuição tem-se: 
b
T
b
T
bb
TTTT LLAXLLAXAXAX +−−=Φ
Para minimizar a função, faça-se: 
0=
∂
Φ∂
X
 
ou seja 
AL=AAX
e
0=AL-AAX=
0=AL-AL-AAX2=
X
T
b
TT
T
b
TT
T
b
T
b
TT
∂
Φ∂
Transpondo ambos os membros: 
LA=AXA bTT (6.7) 
que é chamada equação normal e cuja solução é: 
LA)AA(=X bT
-1T (6.8) 
admitindo ATA não singular. 
Se fosse considerada a condição (5.11b) que levou em conta as variâncias das observações 
em lugar da (5.11a) ter-se-ia: 
Φ = VTPV = mín. 
no qual, substituindo a equação (6.6), resulta: 
Φ = (AX - Lb)T P(AX - Lb) = mín. 
Efetuando a transposição e multiplicando vem: 
b
T
b
T
bb
TTTT PLLPAXLPLAXPAXAX +−−=Φ
Como no caso anterior, minimizando a função, tem-se: 
0=
X∂
Φ∂ 
ou 
0=)PLL+PAXL-PLAX-PAXAX(
X
=
X
b
T
b
T
bb
TTTT
∂
∂
∂
Φ∂ 
0=PAL-APL-PAAX2= TbTTbTT 
0=PAL-PAAX=
0=PAL2-PAAX2=
T
b
TT
T
b
TT
31
transpondo tem-se: 
PLA=PAXA bTT (6.9) 
que constitui o sistema de equações normais, e cuja solução é: 
PLA)PAA(=X bT
-1T (6.10) 
admitindo que ATPA é não singular. 
Pode-se portanto estimar, pelo Método de Mínimos Quadrados, (equações (6.8) e 
(5.10) os valores dos parâmetros X a partir da matriz A dos coeficientes das incógnitas, do 
vetor Lb de valores observados e da matriz dos pesos referida na equação (5.12), dada por 
P = 02 L-1σ Σ (6.11) 
onde ΣL é a matriz variância co-variância das observações e (σo)² a variância da unidade de 
peso, a ser tratada mais adiante, e que pode ser arbitrada igual a 1, a priori, para fins de 
resolução dos parâmetros. 
 O vetor V das correções às observações Lb pode então ser calculado utilizando o X na 
equação (6.6) e o valor ajustado das observações é obtido por: 
La = Lb + V (6.12) 
6.1.2 Ajustamento Paramétrico não Linear 
Nos casos em que a função F(Xa), do modelo dados pela equação (6.1), 
La = F(Xa) (6.13) 
é não linear, o ajustamento paramétrico é dito não linear. 
O ajustamento paramétrico, para este caso não linear, é mais geral. A resolução do 
problema engloba o caso linear mas inclui uma fase preparatória de linearização do modelo 
e, em decorrência da aproximação introduzida nesta fase preparatória, uma fase de testes e 
iterações são requeridas. 
Na fase preparatória usam-se valores aproximados X0 dos parâmetros Xa como ponto 
de expansão da função F(Xa) em série de Taylor, e, com o objetivo de linearizar a função, 
tomam-se apenas os dois primeiros termos da série. Tem-se consciência do erro de 
aproximação introduzido com esta linearização, erro este tanto menor quanto melhor forem 
os valores aproximados do vetor X0. 
A expansão de F(Xa) dá: 
AX+L=
XX 
X
F+)XF()XF( aXX0a a
0
0)(| 0 −∂
∂
= =
α
(6.14) 
onde se está representando 
L0 = F(X0) (6.15) 
U = ATPL
 
32
e 
0
| XX
a
aX
FA =∂
∂
= (6.16) 
e ambos L0 e A são vetor e matriz numéricos calculados a partir do valor aproximado X0 e do 
modelo matemático F. 
A equação (6.13) pode ser escrita como: 
Lb + V = F(Xa) (6.17) 
Nesta equação, substituindo F(Xa) por seu valor da aproximação linear dada pela equação 
(6.15) vem: 
Lb + V - L0 = AX (6.18) 
ou 
AX + L = V (6.19) 
onde 
L = L0 - Lb (6.20) 
é um vetor numérico calculado a partir de L0 e das observações Lb. 
O modelo (6.19) então obtido é linear e é resolvido pelo procedimento visto no ítem 
anterior, a saber equações (6.8) ou (6.10) e (6.6). 
 O vetor X estimado constitui correção ao vetor X0 dos parâmetros aproximados para 
obtenção de parâmetros Xa que serão melhores aproximações dos parâmetros desde que 
exista convergência. 
Xa = X0 + X (6.21) 
O vetor Xa assim obtido será utilizado como novo valor aproximado dos parâmetros.. Com 
base nestes, a matriz A e os vetores L0 e L serão numericamente reavaliados e então novo 
vetor de correção X será calculado e aplicado na equação (6.21), para obtenção de Xa, que é o 
novo valor ajustado dos parâmetros e que pode ser novamente utilizado como valor 
aproximado melhorado., A a sequência abaixo ilustra o processo. 
O processo iterativo é encerrado quando não converge e ultrapassa um certo número 
de iterações ou quando os elementos do vetor de correção X são menores que um δ 
arbitrariamente escolhido como constante para teste de convergência. 
L0 = F(X0); A = F'(X0); X1 = N-11 U1 ; Xa1 = X0 + X1 ; 
L01 = F(Xa1); A1 = F'(Xa1) ; X2 = N-12 U2 ; Xa2 = Xa1 + X2 
L02 = F(Xa2) ; A2 = F'(Xa2) ; X3 = N-13 U3 ; Xa3 = Xa2 + X3 
L0n = F(Xan) ; An = F'(Xan) ; Xn+1 = N-1n+1 Un+1 ; Xan+1 = Xan + Xn+1 
É comum representar-se o sistema de equações normais (6.9) e (6.7) por 
NX = U (6.22) 
onde 
N = ATPA (6.23) 
e 
(6.24) 
 Observações: 
33
Então as equações (6.10) e (6.8) seriam dadas por: 
X = N-1U (6.25) 
6.2 - ESTIMATIVA DE PRECISÃO DOS PARÂMETROS CALCULADOS 
Como já foi referido anteriormente, quando se faz estimativa de um valor ou de um 
conjunto de valores (parâmetros), necessário se faz também estimar a qualidade dos mesmos. 
No método paramétrico de ajustamento, mede-se e estima-se (L,ΣL) e a partir destes estimar-
se-á (X,Σx), que representam os parâmetros e sua precisão. Viu-se nas subseções anteriores a 
estimativa dos parâmetros X; note-se agora como estimar sua precisão Σx. 
N = -120x σ̂Σ 1U (6.26)
equação que dá a estimativa da precisão dos parâmetros, a partir da variância da unidade de 
peso a posteriori σ02 e da inversa da matriz N de coeficientes das equações normais. 
u-n
PVV=
T2
0
∧
σ
1U (6.27) 
onde P e V são respectivamente, matriz dos pesos das observações e vetor dos resíduas. n é o 
número de equações linearmente independentes e u o número de parâmetros incógnitos. A 
diferença (n - u) é chamada de número de graus de liberdade. 
Freqüentemente tem-se interesse no conhecimento da precisão dos valores 
observados ajustados La. Esta precisão pode ser estimada através da lei de propagação Σxa 
dada por: 
AAN= T-120La σ̂Σ
1U (6.28) 
pode-se ainda estimar as variâncias e as covariâncias dos resíduos Σv através de, 
ΣΣΣ LbLav -= 
1U (6.29) 
6.3 - EXERCÍCIOS E EXEMPLOS 
1. Um certo fenômeno tem variação y linear com respeito a x (y = ax + b). O valor yi foi
medido para diferentes xi, conforme dados abaixo. A abcissa x é considerada sem
erro. Calcular os valores ajustados dos parâmetros a e b da função linear.
para x y medido 
 -6 
 -4 
 -2 
 0 
 0,10 
 0,97 
 2,06 
 3,11 
34






























l
l
l
l
= 
3,11
2,06
0,97
0,10
=L b
4
3
2
1
 Incógnitas: 






b
a
=X a
Modelo matemático funcional: 
y = ax + b 
La = AX 
Modelo matemático na forma matricial: 
14141224 V=Lb-X A

















































v
v
v
v
 = 
3,11
2,06
0,97
0,10
 - 
b
a
10
12-
14-
16-
4
3
2
1
 Matriz peso: 
P = I 
desde que se considere que todas as medidas são de igual precisão 
Sistema de equações normais 
NXa - U = 0 
 Onde 


















3,078
0,506
= .UN = X
6,24
8,60-
= PLA = U
412-
12-56
= PAA = N
1-
a
b
T
T
Estimativa da precisão: 
0,00574=
2
01148=
u-n
PVV=
0,032-
0,006
0,084
0,058-
=L-AX=V
T
2
0
b
,0
σ̂














35
 Precisão de Xa 
Xa 0
2 -1= . N =
0,000287 0,000861
0,000861 0,004018
Σ $σ






Precisão de La 
aL =
0,042
1,054
2,066
3,078




























Σ
Σ
0,0040180,0022960,0005740,001148-
0,0022960,0017220,0011480,000574
0,0005740,0011480,0017220,002296
0,001148-0,0005740,0022960,004018
=
AAN.=
La
T-12
0La σ
2. Ajustar a rede de nivelamento representada na figura:
 As altitudes A, B, F e G são consideradas fixas e iguais a: 
HA = 1000,182 m 
HB = 1004,356 m 
HF = 1010,860 m 
HG = 1005,429 m 
Os desníveis medidos com aclive no sentido das setas foram: 
h1 = 4,185 m 
h2 = 8,340 m 
h3 = 6,008 m 
h4 = 4,005 m 
h5 = 12,851 m 
h6 = 7,428 m 
Considerar que todas as observações tenham a mesma precisão. 
36
 Observações: 


































































7,428
12,851
4,005
6,008
8,340
4,184
 = 
h
h
h
h
h
h
 = 
l
l
l
l
l
l
=L
6
5
4
3
2
1
6
5
4
3
2
1
b
 Incógnitas: 
























H
H
H
=
x
x
x
=X
E
D
C
a
3
2
1
 Modelo matemático: 
C A 1 A C 1 1
C B 2 B C 2 2
D C 3 D C 3 3
E D 4 D E 4 4
F E 5 F E 5 5
G E 6 G E 6 6
H = H - h H - H = h + v
H = H - h H - H = h + v
H = H + h ou H - H = h + v
H = H - h H - H = h + v
H = H + h H - H = h + v
H = H + h H - H = h + v
$ $
$ $
$ $ $
$ $
$ $ $
$ $
Modelo na forma matricial: 
-1 0 0
-1 0 0
-1 1 0
0 1 -1
0 0 -1
0 0 -1
H
H
H
 + 
H -h
H -h
-h
-h
H -h
H -h
 = 
v
v
v
v
v
v
C
D
E
A 1
B 2
3
4
F 5
G 6
1
2
3
4
5
6










































































onde: 
1636 L = 
998,001
998,009
4,005-
6,008-
996,0l6
995,997
 e A= 
1-00
1-00
1-10
011-
001-
001-










































 Matriz peso: 
P = I 
Sistema de equações normais: 
37






























998,00575
1002,01225
996,00575
=UN-=X
1992,005-
10,013-
1986,005-
=PLA=U 
31-0
1-21-
01-3
=PAA=N
1-
a
TT
Estimativa de precisão: 
0,000073=
u-n
PVV=
0,00475-
0,00325
0,00150
0,00150-
0,01025
0,00875-
=L+AX=V
T
2
0
a
σ̂
































Σ
0,000030,000020,00001
0,000020,000050,00002
0,000010,000020,00003
=N.= 1-20x σ̂ 
3. Utilizando ajustamento paramétrico estimar as altitudes dos pontos B, C e D da rede:
 Sendo HA = 200m e HE = 320m altitudes fixas e hi medidos como: 
h1 = 79,91m; h2 = 30,04m; h3 = 19,96m; h4 = 9,93m 
Considere a matriz 
P = I 
4. Calcular os parâmetros da transformação:
X
Y
 =
a b
c d
x
y
 + 
X
Y
o
o




















considere o vetor [X Y]T como observações e o vetor [x y]T como isento de erros: 
Parâmetros a determinar: [a b c d X0 Y0 ]T 
38
Coordenadas de pontos dados: 
Pontos nº x y X Y 
01 100,0 200,0 1.700,0 100,02 
02 50 80 1.310 550 
03 120 -60 1.260 -1.130 
04 -100 70 840 -750 
5. Seja o triângulo plano ABC com as seguintes observações:
A = 40°19'02'' = l1
B = 70°30'01'' = l2
C = 69°11'00'' = l3
Todos os ângulos foram medidos com igual precisão. Considere os ângulos A e B
como parâmetros incógnitos x1 e x2 e ajuste.
6. Uma linha de nivelamento foi feita ligando dois pontos A e D de altitudes conhecidas
conforme figura. As altitudes A e D são respectivamente 842,00m e 785,53m. As
setas na figura indicam o declive.
Seção desnível distância 
AB = h1 32,54m 2 Km 
BC = h2 5,93m 1 Km 
CD = h3 17,97m 2,5 Km 
A distância de cada seção é representada por di e o desnível medido por hi, dados na 
tabela. As observações não são correlacionadas e as variâncias (σ²i) são 
proporcionais às distâncias (di) em Km. Calcular as altitudes HB e HC ajustadas 
usando ajustamento paramétrico. 
7. O segmento AD foi subdividido em três partes aproximadamente iguais e seis
medidas de comprimento foram efetuadas conforme ilustra a figura.
A___________B__________C__________D 
Os valores observados foram: AB=l1 = 100,01; BC=l2 = 99,97; CD=l3 = 100,02; 
AC=l4 = 200,04; BD=l5 = 199,98 e AD=l6 = 299,96. 
Os pesos das observações são inversamente proporcionais às distâncias. 
Estimar as distâncias ajustadas entre AB, BC e CD. 
39
8. Considere a seguinte rede de nivelamento:
As setas indicam o sentido do aclive. O ponto A é admitido possuir altitude 0. As variâncias 
são proporcionais às distâncias em Km. As observações são dadas pela tabela. 
 Estações 
 Seção 
 de para 
 Desn. hi(m) Comp.(Km) 
 01 
 02 
 03 
 04 
 05 
 06 
 A 
 A 
 C 
 A 
 B 
 B 
 C 
 D 
 D 
 B 
 D 
 C 
 6,16 
 12,57 
 6,41 
 1,09 
 11,58 
 5,07 
 4 
 2 
 2 
 4 
 2 
 4 
Ajuste a rede parametricamente e compute HB, HC e HD. 
 09. Determinar as coordenadas planas (x,y) do ponto P, a partir da medida de três
distâncias de pontos conhecidos A, B, e C a P.
Coordenadas dos pontos conhecidos:
A = (200,00; 400,00); B =(600,00; 700,00); C = (1100,00; 300,00)
Coordenadas aproximadas de P: P (585,00; 112,00) 
Distâncias medidas com σ = ±0,05m: 
3
5
40
AP = 499,92m 
BP = 600,02m 
CP = 538,48m 
 Incógnitas (parâmetros): 














y
x
 = 
X
X
=Xa
2
1
 Observações: 




































538,48
600,02
499,92
 = 
CP
BP
AP
 = 
l
l
l
 = Lb
3
2
1
 Parâmetros aproximados: 
]y X[ = ]112,00 [585,00=X T00
TT
0
 Modelo matemático: 
( )d = (x - x ) + (y - y ) 1/ 2i 2 i 2
 ou 
( )
( )
( )
1 1
1/ 2
A
2
A
2
2 2
1/ 2
B
2
B
2
3 3
1/ 2
C
2
C
2
F d = (x - x ) +(y - y )
F d = (x - x ) - (y - y )
F d = (x - x ) +(y -Y )
→
→
→
Modelo matemático linearizado: 
V=L+AX
 onde: 




































∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
aa
aa
aa
 = X = X 
y
F
x
F
y
F
x
F
y
F
x
F
=A
3331
2221
1211
0
33
22
11






























9,7617 
11,8287-
19,1196-
 = L
548,24
588,19
480,80
 = L ; 
0,3429-0,9394-
0,9997-0,0255-
0,5990-0,8007 
 = A
L - )F(X = L-L = L
0
bb 00
41
Sistema de equações normais: 
NX + U = 0 
 onde: 












7972,0386 
9671,2793-
=PLA=U
590,29752,813-
52,813-609,703
=PAA=N
T
T
Cálculo da correção dos parâmetros aproximados: 
X = - N U =
 1 4 ,8 0 7 2
- 1 2 ,1 8 0 3
-1






 Parâmetros corrigidos: 
a 0X = X + X =
5 9 9 ,8 0 7 2
 9 9 ,8 1 9 7






 Correção máxima X1 = 14,8072 > δ (δ = 0,01 como critério de convergência), 
iteração é requerida, Xa é o novo X0. Os coeficientes A e L são reavaliados e tem-se: 












































100,0261
599,9823
=X;
0,2065
0,1751
=X
114,309-
94,035- 
=;U
599,42153,947-
53,947-600,579
=N
0,2825
0,1604
0,0340
=L;
0,3716-0,9284-
1,0000-0,0003-
0,6004-0,7997 
=A
a
 Correção máxima X2 = 0,2065 > 0,01 (δ iteração é requerida, Xa é o novo X0). Oscoeficientes A e L são reavaliados e tem-se: 












































100,0261
599,9823
=X;
0,000027 
0,000027-
=X
0,01752-
0,01746 
=U;
599,14954,071-
54,071-600,851
=N
0,0432
0,0461
0,0502
=L;
0,3713-0,9285-
1,0000-0,0000 
0,6000-0,8000 
=A
a
 Correção máxima X3 = 0,000027 < δ (= 0,01), convergência satisfatória. 
α = 45°00' com σ = 2' 
 
42
Estimativa de precisão: 






Σ










0,004380,00039
0,000390,00437
 = N. = 
2,6046=
u-n
PVV=
0,0432 
0,0461-
0,0502 
 = L + AX = V
1-2
0x
T
2
0
σ
σ
ˆ
ˆ
10. Determinar as coordenadas (x, y, z) de um ponto P, a partir das medidas de 5
distâncias de pontos conhecidos A, B, C, D e E a P.
As coordenadas medidas dos pontos conhecidos são:
P ° (530,0; 480,0; 350,0) 
E as distâncias medidas com σ = ± 0,1m são: 
A P = 5 4 1 ,2 8
B P = 5 8 1 ,6 0
C P = 7 8 8 ,3 0
D P = 1 0 1 0 ,9 1
E P = 5 5 7 ,7 8
11. Determinar os parâmetros a, b e c da parábola y = f(x) que melhor se ajuste às
observações das coordenadas:
 Ordenadas (yi) Precisão (σi) Abcissas (xi) 
 -0,98 
 -2,03 
 1,99 
 -1,04 
 6,97 
 2,01 
 0,03 
 0,03 
 0,01 
 0,04 
 0,04 
 0,01 
 0 
 1 
 -1 
 2 
 -2 
 3 
 As abcissas xi são isentas de erros. 
 12. Determinar as coordenadas planas do ponto P(X,Y), da figura, com o respectivo
referencial AXY dado.
As coordenadas dos pontos são:
A(0,0) B(10,0) C(15,0)
Os valores dos ângulos observados αi, i = 1, 2, 3, foram medidos
1 1
K - X
 
43
α2 = 66°48' com σ2 = 2' 
 α3 = 41°11' com σ3 = 1' 
e a distância PA = d = 9,91m foi medida com σ4 = ± 5mm. 
Os parâmetros (X,Y) aproximados são: 
X0 = 6,4 e Y0 = 6,6 
 Incógnitas (parâmetros): 














Y
X
 = 
X
X
 = Xa
2
1
 Observações: 




























°
°
°
















9,91m
rad 0,718785
rad 1,165879
rad 0,785398
=
9,91m
41,1833
66,8000
45,0000
=
 l
 l
 l
 l
=Lb
4
3
2
1
 Parâmetros aproximados: 














6,6
6,4
=
X
X
=X
2
1
0
 Peso: 














40.000000
0,011.818.10300
0072.954.525,0
00072.954.525,
=P44
Modelo matemático funcional: 
( )






→





→





→





→
Yarctg=
)Y-(Y+)X-(X=PAF
X-15
Yarctg=F
X-10
Yarctg=F
X
Yarctg=F
2
0
2
0
1
22
1
α
α
α
α
2/
4
33
1
MÓDULO I – TOPOGRAFIA, AJUSTAMENTO DE OBSERVAÇÕES E INTRODUÇÃO AO GEORREFERENCIAMENTO... 44
Modelo matemático linearizado: 
X + L = V 
Roteiro para a solução do problema: 
 1ª iteração: 
Sistema de equações normais: 
N1X1 + U1 = 0 
Cálculo da correção aos parâmetros aproximados: X1 
Parâmetros corrigidos: Xa = X0 + X1 
 Correção máxima X1 = 0,59305 > 0,001 = σ (σ = critério de convergência), nova 
iteração é requerida, Xa é o novo X0. Os coeficientes A e L são reavaliados e tem-se, 
2ª iteração: 
Cálculo da correção X2 e do novo valor corrigido 
Xa + X0 + X2 
 Correção máxima X2 = -0,01566 > 0,001 = σ, nova iteração é requerida, Xa é o novo 
X0. Os coeficientes A e L são reavaliados e tem-se, 
3ª iteração: Idem, Idem sequencia anterior para X3 e novo Xa 
 Correção máxima X3 = 0,00006 < σ, convergência satisfatória. 
Estimativa de precisão: a cargo do leitor... 
45
7.1 - CONCEITO 
O ajustamento de modelos matemáticos implícitos, frequentemente chamado modelo 
implícito ou método combinado de ajustamento, é mais geral que o método paramétrico visto 
na seção anterior. Seu modelo matemático funcional é: 
F(Xa,La) = 0 (7.1) 
onde Xa e La são como definidos anteriormente e F é uma função genericamente não linear. 
7.2 - FORMA LINEAR DO MODELO 
Com o propósito de obter um modelo linear, F será expandido em série de Taylor. Os 
valores observados dados pelo vetor Lb e os parâmetros aproximados X0, constituirão o ponto 
de expansão inicial da série, que será truncada de modo que somente os termos lineares 
sejam considerados, como foi mencionado no caso paramétrico não linear, o erro decorrente 
dessa aproximação depende da qualidade dos valores dados ao ponto de expansão. 
Representando por X as correções aos valores aproximados X0 e por V as correções às 
observações Lb a expansão F pode ser escrita como: 
)(|)(|),(),( 00
0
ba
LLa
a
XXa
baa LLL
FXX
X
FLXFLXF
baa
−
∂
∂
+−
∂
∂
+=
==
ou 
AX + BV + W = 0 (7.2) 
Onde 
0
|
XXa aX
FA
=∂
∂
= (7.3) 
ba LLaL
FB
=∂
∂
= | (7.4) 
W = F(X0,Lb (7.5) 
e 
X = Xa - X0 (7.7) 
V = La - Lb (7.7) 
É oportuno notar que a aproximação expressa pela equação (7.2) tende ao valor da 
F(Xa,La) quando F(X0,Lb) → F(Xa,La). 
O propósito agora é resolver o sistema (7.2) com respeito a X e V, onde supõe-se 
independência entre os parâmetros. 
7 - Ajustamento Método Implícito
46
 Seja m o número de equações do sistema, u o número de parâmetros X e n o número 
de observações. O sistema (7.2): 
0111 =++ WVBXA mnnmuum (7.8) 
constitui um sistema de equações lineares com (n+u) incógnitas a m equações, com 
(m<(n+u)) a ser resolvido em X e V. O princípio do MMQ, (5.11), então deve ser usado. 
7.3 - SISTEMA DE EQUAÇÕES NORMAIS 
Para resolver o sistema (7.8) impondo também o princípio do MMQ, 
Φ = VTPV = min (7.9) 
usar-se-á o método de mínimos quadrados imposto através dos multiplicadores de Lagrange, 
que consiste em minimizar a função: 
Φ = VT PV + 2KT (AX + BV + W) (7.10) 
Notar que quando a equação (7.8) é satisfeita o parêntese da equação (7.10) se anula. 
 Para minimizar Φ, suas derivadas parciais com respeito a X, K e V são igualadas a 
zero. Então tem-se: 
TTTT
TT
BKPV
V
e
WBVAX
K
AK
X
)(2)(2
)(2
)(2
+=
∂
Φ∂
++=
∂
Φ∂
=
∂
Φ∂
que podem ser escritas como: 
ATK = 0 (7.11) 
PV + BTK = 0 (7.12) 
AX + BV + W = 0 (7.13) 
Tem-se agora um conjunto de (u+n+m) equações respectivamente procedentes das 
equações (7.12), (7.13) e (7.11) e o mesmo número de incógnitas. O sistema global pode ser 
escrito, em forma matricial, como: 
P B O
B O A
O A O
 . 
V
K
X
 +
O
W
O
 = 0
T
T






























(7.14) 
que constitui o sistema de equações normais. 
47
Para pequenos problemas, é possível resolver o sistema de equações normais através 
da inversão da hipermatriz de coeficientes. Para inversa de Cayley, supondo não 
singularidade, tem-se: 
































−
O
W
O
 . 
OAO
AOB
OBP
 = 
X
K
V
T
T 1
(7.15) 
Esta solução, no entanto, não é recomendável porque é muito dispendiosa 
computacionalmente. Como se sabe, o tempo de processamento cresce com o cubo da ordem 
da matriz a ser invertida, além do problema de espaço de armazenamento. 
7.4 - SOLUÇÃO DAS EQUAÇÕES NORMAIS 
Visando a obtenção de uma solução computacional mais atrativa, considere-se a 
equação (7.14). 










































O
O
O
 = 
O
W
O
 + 
X
K
V
 . 
OAO
AOB
OBP
T
T
ou 
NY + U = O (7.16) 
que pode ser particionada em: 
11 12
21 22
1
2
1
2
N N
N N
Y
Y
 +
U
U
 = 0

















 (7.17) 
e que pode ser desenvolvida em: 
N11Y1 + N12Y3 + U1 = 0 (7.18) 
N21Y1 + N22Y2 + U2 = 0 (7.19) 
Supondo N11 não singular a (7.18) pode ser escrita: 
)YN+U(N-=Y 2121-1111 (7.20) 
que substituída na (7.19), dá: 
0=)UNN-U(+Y)NNN-N( 1-111212212-1112122 (7.21) 
Aplicando o deduzido na equação (7.21) ao sistema de equações normais após 
particioná-lo convenientemente: 
X = - (ATPA)-1 AT PW 
 
48
P B O
B O A
O A O
 . 
V
K
X
 +
O
W
O
 = 0
T
T
M
K K K K
M
M
K K










































tem-se 
[ ] [ ] 000 11 =































−



 −− P
O
B
 - 
O
W
 + 
X
K
BP
O
B
 
OA
AO
T
T
ou efetuando 
- BP B A
A O
K
X
 +
W
O
 = 0
-1 T
T
















Repetindo o processo para eliminar a variável K tem-se: 
- BP B A
....... ......
A O
K
....
X
 +
W
....
O
 = 0
-1 T
T






























(7.22) 
com a aplicação da (7.21) resulta: 
AT(BP-1BT)-1 A X + AT(BP-1BT)-1 W = 0 (7.23) 
ou 
X = - [AT(BP-1BT)-1 A]-1 AT(BP-1BT)-1 W (7.24) 
Da primeira equação matricial em (7.22), tem-se: 
K = (BP-1BT)-1 (AX + W) (7.25) 
e da primeira equação em (7.15) tem-se: 
PV + BTK = 0 
donde 
V = - P-1 BT K (7.26) 
As equações (7.24), (7.25) e (7.26) pressupõem não singularidade das matrizes a serem 
invertidas por Cayley, e constituem a solução de mínimos quadrados do modelo implícito ou 
método combinado. 
7.4.1 Particularização para o Caso Paramétrico 
Sendo o ajustamento paramétrico um caso particular do método combinado, suas 
equações (6.6) e (6.10) podem ser obtidas das (7.26), (7.25) e (7.24), fazendo B = -I (I = 
matriz identidade). Da (7.24) resulta: 
49
e da (7.26) e (7.25) temos: 
V = +P-1K = P-1P(AX + W) 
V = AX + W 
Com W= L e L= F(X0 – Lb) 
7.5 - MÉTODO DOS CORRELATOS COMO CASO PARTICULAR DO 
COMBINADO 
O ajustamento pelo método dos correlatos, classicamente chamado método das 
equações de condição ou das observações diretas condicionadas, consiste no ajustamento 
somente de observações (os parâmetros não participam do ajustamento). O modelo 
matemático assume então a forma: 
F(La) = 0 (7.27) 
ou na forma linear: 
BV + W = 0 (7.28) 
A equação (7.28) corresponde à (7.8) com A = 0 (derivada parcial com respeito aos 
parâmetros é zero, já que estes não existem no modelo). A solução da equação (7.28), para V, 
é obtida da (7.26) e (7.25) fazendo-se A = 0 nestas equações: 
V = -P-1BT(BP-1BT)-1 W (7.29) 
K = (BP-1BT)-1 W (7.30) 
e 
BP)BBP(BP-P(= -1-1T-1T-1-120La σ̂Σ
Quando o modelo matemático é não linear, no caso paramétrico ou combinado, 
envolve a estimativa de X, e este deve ser adicionado aos valores aproximados dos 
parâmetros X0 para obter o valor ajustado Xa, isto é: 
Xa = X0 + X (7.32) 
Da mesma forma o vetor dos resíduos V, em todos os casos, deve ser adicionado ao 
vetor dos valores observados Lb, tal que: 
La = L b + V (7.33) 
7.6 - ITERAÇÃO NO MÉTODO COMBINADO 
Os resultados das equações (7.32) e (7.33) só seriam os resultados finais se os valores 
utilizados como ponto de expansão da série de Taylor X0 e Lb estivessem suficientemente 
próximos dos pontos Xa e La. Geralmente este não é o caso e iterações são requeridas. 
50
 Chamando de ia
i
aeLX os valores finais após a iteração i; de Xi , Vi as correções 
estimadas na iteração i e de Ai, Bi e Wi os coeficientes da i-ésima iteração no ponto de 
expansão i -1. A expansão da função F em série de Taylor, dá: 
)L,XF(+)L - L( 
L
F
+XX
X
F = )L,X( F
i
a
i
a
i
a
i
a
LL
i
a
i
a
i
a
XX
i
a
i
a
i
a
i
a
i
a
i
a
i
a
111
1
1
1
|
)(|
−−−
=
−
=
−
−
∂
∂
−
∂
∂
como 
11 −− −+−=− iabb
i
a
i
a
i
a LLLLLL 
pode-se escrever: 
0),()( 111 =+−++ −−− ia
i
a
i
abiiiii LXFLLBVBXA 
ou ainda 
AiXi + BiVi + Wi = 0 (7.34) 
onde: 
),()( 111 −−− +−= ia
i
a
i
abii LXFLLBW (7.35) 
Na primeira solução (i = 1) o ponto de expansão 00 aa eLX devem ser dados com boa 
aproximação dentro dos limites da natureza da não linearidade do problema considerado. 
Para 0aL pode-se adotar Lb observado e para 
0
aX é recomendável que se obtenha valores 
através de uma solução única a partir de um subsistema do sistema original. 
Ter-se-ia então: 
1. Na solução inicial:
A1X1 + B1V1 + W1 = 0 (7.36) 
Onde A1, B1 e W1 são as matrizes determinadas no ponto de expansão da série de Taylor 
),( 0 ba LX e onde W1 tem um só termo como na (7.5) pois o primeiro termo do segundo 
membro da equação (7.35) desaparece já que b
i
a LL =
−1 . 
Utiliza-se as equações (7.24), (7.26) (7.32) e (7.33) para obter: 
1
1
1
01
VLL
XXX
ba
aa
+=
+=
2. Primeira Iteração: o ponto de expansão é agora 11 , aa LX , e para i = 2 temos: 
A2X2 + B2V2 + W2 = 0 
Onde A2 , B2 e W2 são matrizes cujos elementos são determinados com os valores ajustados 
na iteração anterior, assim: 
51
),( 11 −−= ia
i
aii LXAA (7.38) 
),( 11 −−= ia
i
aii LXBB (7.39) 
),()( 111 −−− +−= ia
i
a
i
abii LXFLLBW (7.40) 
e semelhantemente estima-se: 
ib
i
a
i
i
a
i
a
VLL
XXX
+=
+= −1
(7.41) 
3. Segunda Iteração: O processo iterativo continua até a convergência, admitida esta, numa
iteração i ou através de um teste comparativo da diferença dos parâmetros ajustados numa 
iteração i com os da iteração i–1 ser menor que um δ pré estabelecido. 
 Notar que Xi tende a zero no ponto de convergência e que Vi tende a se estabilizar 
num vetor que representa as correções mais prováveis às observações originais Lb. 
Considerando a equação (7.35) 
),()( 111 −−− +−= ia
i
a
i
abii LXFLLBW
e considerando que na convergência 
i
a
i
a
i
a
i
a
XX
LL
=
=
−
−
1
1
então: 
0),( =ia
i
a LXF 
e 
ii
i
abii VBLLBW −=−= )( (7.42) 
7.7 - PRECISÃO DOS VALORES ESTIMADOS 
Considerando a equação (7.5) W = F(X0,Lb), tem-se: 
w L
T = B BΣ Σ (7.43) 
que representa a propagação da variância-covariância para o erro de fechamento W. 
Da equação (7.24) tem-se: 
X = C.W 
onde 
C = -N-1 AT (BP-1BT)-1 
C C = Twx ΣΣ
ou, substituindo C pelo valor acima vem, com alguma simplificação algébrica 
N = )A )B (BA( = -1-1T-1TLTx ΣΣ 
Geralmente quando se efetua um ajustamento não se conhece ΣL plenamente. Então adota-se 
ou arbitra-se um certo (σ0) (a-priori), normalmente igual a unidade tal que: 
52
12
0
−Σ= LP σ (7.44) 
e trabalha-se ao longo do ajustamento com esta expressão. 
Finalmente o fator 20σ̂ , deve ser estimado com a expressão: 
r
PVV T
=20σ̂ (7.45) 
com r graus de liberdade e introduzido a posteriori para estimar a precisão dos parâmetros: 
N = -120X a σ̂ˆΣ (7.46) 
A equação (7.46) seria usada somente quando ΣL não for plenamente conhecido, pois 
em caso contrário seria (σ0)2 neutro (= 1). Na prática estima-se sempre o fator 20σ̂ a 
posteriori e este serve para testar a qualidade do ajustamento e dos valores estimados ao 
mesmo tempo. Se 20σ̂ não passar no teste há a possibilidade da existência de erros 
grosseiros ou mal estimativa das variâncias das observações. O circunflexo acentua o fato do 
valor ser estimado: 
 Lembrando que: 
La = Lb + V (7.47) 
e substituindo V e K das equações (7.26) e (7.25): 
V = -P-1 BT K 
K = (BP-1 BT)-1 (AX + W) 
temos 
La = Lb - P-1 BT (BP-1 BT)-1 (AX + W) (7.48) 
Substituindo ainda X por seu valor dado pela (7.24) tem-se: 
W)BBP(BP-W)BBP(A
]A)BBP(AA[)BBP(BP+L=L
1-T1-T1-1-T1-T
-1-1T-1T-1T-1T-1
ba
A matriz variância-covariância de La, pela lei de propagação de covariância será: 




∂
∂
Σ



∂
∂






∂
∂
Σ





∂
∂
Σ X
L 
X
L + 
L
L
L
L = a
T
X
a
b
a
T
L
b
a
L aba
(7.49) 
As expressões das duas derivadas parciais da (7.49) podem ser obtidas da (7.48); 
substituindo-se Lb por I e W por B para a derivada de La em relação a Lb , eliminando Lb e 
substituindo W por A para a derivada de La em relação a X. 
Efetuando a substituição das derivadas mencionadas na (7.48) e simplificando as 
expressões obtem-se: 
) Q - Q ( =
=)BPPBP-BPPAANPBP+P( = 
VL
2
0
-1
w
T-1-1
w
T-1
w
T-1-12
0L a
σ
σ
ˆ
ˆΣ (7.50) 
onde 
53
QL = P-1 
Este mesmo resultado poderia ser obtido a partir da equação (7.47) com a aplicação da lei de 
propagação de covariâncias. 
)B (B = P
BPPAANPBP-BPPBP=Q
1-T
Lw
-1
w
T-1
w
T-1-1
w
T-1
v
bΣ
(7.51) 
A matriz variância-covariância dos resíduos seria portanto: 
Q - = v
2
0v σ̂Σ (7.52) 
7.8 - EXERCÍCIOS 
1.Determinar as coordenadas (X,Y,Z) do ponto P a partir das distâncias medidas com
desvio padrão σ = 0,02mm de três pontos de coordenadas conhecidas A, B, C ao ponto P e 
dos ângulos verticais αA, αB,

Continue navegando