Baixe o app para aproveitar ainda mais
Prévia do material em texto
AJUSTAMENTO DE OBSERVAÇÕES E INTRODUÇÃO AO GEORREFERENCIAMENTO DE IMÓVEIS RURAIS Ajustamento de Observações iii SUMÁRIO SUMÁRIO ................................................................................................................................. iii LISTA DE FIGURAS ................................................................................................................ iv 1- AJUSTAMENTO.......................... ......................................................................... 1 1.1 - TEORIA DOS ERROS ......................................................................................... 1 2 - CONCEITO DE PROBABILIDADE ................................................................... 3 3 - CONCEITOS BÁSICOS DE ESTATÍSTICA ..................................................... 9 4 - LEI DE PROPAGAÇÃO DE COVARIÂNCIAS ................................................ 18 5 - INTRODUÇÃO AO MÉTODO DOS MÍNIMOS QUADRADOS .................... 23 5.1 - CONSIDERAÇÕES INICIAIS ............................................................................. 23 5.2 - DISCUSSÃO DE SISTEMAS DE EQUAÇÕES LINEARES NÃO HOMOGÊNEAS ...................................................................................... 24 5.3 - PRINCÍPIO DO MÉTODO DE MÍNIMOS QUADRADOS ............................... 27 6 - AJUSTAMENTO COM MODELO PARAMÉTRICO ...................................... 29 6.1 - INTRODUÇÃO ..................................................................................................... 29 6.1.1 Ajustamento Paramétrico Linear .......................................................................... 29 6.1.2 Ajustamento Paramétrico não Linear ................................................................... 31 6.2 - ESTIMATIVA DE PRECISÃO DOS PARÂMETROS CALCULADOS ........... 33 6.3 - EXERCÍCIOS E EXEMPLOS .............................................................................. 33 7 - AJUSTAMENTO MÉTODO IMPLÍCITO ......................................................... 45 7.1 - CONCEITO ........................................................................................................... 45 7.2 - FORMA LINEAR DO MODELO ........................................................................ 45 7.3 - SISTEMA DE EQUAÇÕES NORMAIS .............................................................. 46 7.4 - SOLUÇÃO DAS EQUAÇÕES NORMAIS ......................................................... 47 7.4.1 Particularização para o Caso Paramétrico ............................................................ 48 7.5 - MÉTODO DOS CORRELATOS COMO CASO PARTICULAR DO COMBINADO .......................................................................................... 49 7.6 - ITERAÇÃO NO MÉTODO COMBINADO ........................................................ 49 7.7 - PRECISÃO DOS VALORES ESTIMADOS ....................................................... 51 7.8 - EXERCÍCIOS ....................................................................................................... 53 REFERÊNCIAS BIBLIOGRÁFICAS ....................................................................... 59 Na área das Ciências Geodésicas, a teoria da estimação também é conhecida como ajustamento de observações. Neste particular, a menos que seja estritamente necessário, ao longo destas notas adotaremos a palavra "ajustamento". O ajustamento é um ramo da matemática aplicada e tem por objetivo a solução única para problemas onde o número de observações é superabundante e o sistema de equações lineares é inconsistente. Objetiva ainda a estimativa da qualidade da solução e consiste numa expansão do método dos mínimos quadrados desenvolvidos independentemente por Gauss (1795) e Legendre (1805). O ajustamento, nas últimas décadas, beneficiou-se do desenvolvimento ocorrido na computação eletrônica, no cálculo matricial e nas técnicas estatísticas. Também, deve-se lembrar que, não faz sentido falar em ajustamento para problemas onde os dados (observações ou medidas) não excedem o mínimo requerido para a sua solução. Classicamente dizia-se que as observações estão sempre eivadas de erros, isto é, quando se repete n vezes uma medida de precisão, os n valores não são idênticos, mas estão dispersos numa certa região ou intervalo, dispersão esta devida a erros. Modernamente expressa-se o mesmo conceito admitindo que as observações (ou medidas) possuem uma propriedade inerente a elas, de flutuações probabilísticas ou aleatórias. Sempre que se necessita descrever matematicamente uma realidade física, recorre- se a fórmulas, expressões ou equações na tentativa de representar tal realidade com a melhor aproximação possível. Ao principiante em ajustamento é útil ressaltar os dois aspectos: realidade física e modelo teórico, uma vez que nas disciplinas de matemática pura, quase só o último é evidenciado. Ressalta-se ainda o fator aproximação. O modelo teórico está estritamente relacionado à aproximação desejada, o que pode ser ilustrado. Por exemplo: - Para a representação da Terra ou parte dela (realidade física nas disciplinas de Topografia e Geodésia) utilizam-se os modelos teóricos, plano, esfera, elipsóide biaxial, etc... ou , - Em Fotogrametria, pode-se considerar com uma aproximação menor, isto é, que uma fotografia aérea é perfeitamente vertical; e/ou que o raio luminoso que se propaga através da atmosfera e sistema de lentes, tem trajetória reta; ou ainda, num modelo mais preciso, considera-se a inclinação da foto ou efeitos de não colinearidade dos raios. Nota-se que o modelo matemático não descreve exaustivamente o fenômeno, os eventos ou a realidade física. Descreve aspectos de interesse desta realidade e com a aproximação requerida. 1.1 - TEORIA DOS ERROS As observações são representações numéricas de quantidades físicas como comprimento, ângulo, peso, etc. As quantidades numéricas são obtidas através de medições; possuem portanto não apenas as flutuações randômicas próprias das observações, como foi visto anteriormente, mas também toda sorte de erros possíveis de ocorrer nas medições, identificações, anotações e transferência de dados. As medidas que representam uma mesma quantidade possuem dispersão com respeito a uma média, o que se chama de flutuações randômicas próprias das observações ou erros randômicos, também chamados erros acidentais na literatura clássica. As medidas podem ainda possuir erros enormes procedentes de engano de notação, erro de digitação ou erro de formato na leitura computacional, erro de identificação do objeto medido, etc. Estes são chamados de erros grosseiros. O significado de enorme ou grande é um tanto vago e 1- Ajustamento 2 depende especificamente do problema considerado. Uma idéia geral seria considerar erros maiores que “três desvios padrões” (3σ) como sendo erros grosseiros. As medidas podem também estar afetadas de erros que não são grosseiros, nem são flutuações randômicas. Estes são os erros chamados erros sistemáticos. Ocorrem, por exemplo, quando se efetua uma medida de comprimento com um instrumento mal calibrado que sistematicamente aumenta ou diminui o comprimento; quando se admite que o raio luminoso se propaga em linha reta na atmosfera ou através das lentes de uma câmara; quando se ignoram os efeitos das variações de tensão e de temperatura numa fita de medida, etc. Os erros sistemáticos são erros cujas causas são conhecidas e que se pode minimizá-los ou eliminá-los teoricamente (cálculo do efeito da refração no deslocamento da imagem ou da variação de temperatura na medida de comprimento, por exemplo) ou através da técnica de medida (leitura de ré e de vante a distâncias iguais para eliminar o erro de não paralelismo dos eixos da bolha do nível e de visada no nivelamento geométrico, por exemplo). É útil notar que os erros sistemáticos se confundem com erros randômicos quando são pequenos e de causas não conhecidas. Existem métodos mais sofisticados de ajustamento que permitemlevar em consideração erros sistemáticos. Tais métodos estão fora do escopo deste trabalho. Portanto, o ajustamento aqui considerado trata de observações isentas de erros grosseiros e de erros sistemáticos. O leitor interessado no tratamento de erros sistemáticos no ajustamento deve consultar literatura que trata de ajustamento e parametrização; determinação de "trend" ou "collocation". Aqui, neste trabalho, as observações são consideradas conter apenas erros randômicos. Por hipótese admite-se que elas foram depuradas de erros grosseiros e sistemáticos. As observações constituirão portanto amostras randômicas por hipótese. A qualidade dos resultados do ajustamento depende da validade desta hipótese. Ela deve portanto , ser verificada. Os histogramas são importantes para as verificações do comportamento da distribuição das observações. 3 Os fundamentos da teoria de conjuntos são necessários para a compreensão dos conceitos que aqui serão brevemente revisados. A definição clássica de probabilidade, como por exemplo: "Se um evento pode resultar em n equiprováveis eventos e se m destes elementos são favoráveis à ocorrência do evento E, então a probabilidade P(E), de ocorrência de E, é a razão m por n". n mEP =)( (2.1) ou de outra forma: “a probabilidade de ocorrência do evento E é dada pela relação entre o número de eventos favoráveis e o número de eventos possíveis”. Esta relação entretanto, é viciosa, pois pressupõe eventos equiprováveis. A utilização da probabilidade experimental, definida pela freqüência relativa, é superior ao conceito vicioso ilustrado acima, entretanto é mais descritivo que formal. O conceito mais acatado em nossos dias é aquele que se baseia na estrutura axiomática e liga a probabilidade à teoria dos conjuntos. A seguir, alguns conceitos importantes de probabilidade serão revisados e dentre estes, conceitua-se a própria probabilidade. 1. Espaço de probabilidade ou espaço amostral: seja o conjunto D não vazio, e que pode ser particionado em subconjuntos Di disjuntos; D constitui um espaço amostral. Na teoria moderna de probabilidade imagina-se que todos os resultados possíveis de uma experiência são representados por pontos de um espaço n-dimensional, espaço este denominado de “espaço amostral”. De modo simples pode-se dizer que o espaço amostral é o conjunto de todos os resultados possíveis de um experimento estatístico. 2. Evento: ao se efetuar um experimento (observação, medida, lançamento de dado, etc.) vários ou infinitos resultados, ou conjunto deles, podem ocorrer. A estes resultados chama-se eventos simples e aos conjuntos deles, eventos compostos. Os casos limites, o evento certeza, e o evento impossível são também considerados no conjunto dos eventos. Exemplo: seja o experimento, arremesso de um dado. Evento simples - ocorrência da face 5; evento composto - ocorrência de face par. 3. Eventos mutuamente exclusivos (ou incompatíveis): são eventos tais que, em um experimento, apenas um pode ocorrer. Exemplo: no arremesso de um dado os eventos face 1, face 2, etc., são eventos mutuamente exclusivos. 4. Sistema completo de eventos: é o conjunto de todos os eventos mutuamente exclusivos de um experimento. Exemplo: o conjunto {f1,f2, ...f6} no arremesso de um dado. 5. Evento complementar: se dois eventos E1 e E2 formam um sistema completo de eventos, então E1 e E2 são complementares. Exemplo: cara (H) e coroa (T) no arremesso de uma moeda são eventos complementares. 6. Soma ou união de eventos: sejam A e B dois eventos num experimento e seja; C = A ∪ B. Então, C é a união dos eventos A e B. Exemplos: (seja o experimento: arremesso de um dado e os eventos: E1 = ocorrência de face ímpar; E2 = ocorrência de face par; E3 = ocorrência da face 3 ou 4) a) C1 = E1 + E2 = { f1, f2, f3, f4, f5, f6 } b) C2 = E1 + E3 = { f1, f3, f4, f5, } 7. Produto ou interseção de eventos: sejam A e B dois eventos num experimento e seja C = A ∩ B. Então, C é interseção dos eventos A e B. Exemplos: (seja o experimento e eventos do exemplo anterior) a) C1 = E1 E2 = { } 2 - Conceitos de Probabilidade 4 b) C2 = E1 E3 = {f3} 8. Variável aleatória: é uma variável que assume valores diversos, dependendo do resultado de um experimento estatístico. A variável, aleatória ou randômica está associada a uma função densidade de probabilidade. 9. Função aleatória: é uma função definida em cada ponto, ou para cada elemento do espaço amostral assumindo valores reais. 10. Função de probabilidade: seja P uma aplicação do espaço de probabilidade D no intervalo real (0,1), com as propriedades: a) Se D' ⊂ D → P(D') = 1 - P(D - D') b) Se (Di disjuntos) ⊂ D → P(∪ Di) = ∑P(Di); P é chamada função de probabilidade. 11. Probabilidade: ao valor da (ou valor assumido pela) função de probabilidade, num dado ponto, denomina-se probabilidade. Assim, P(Di) ∈ [ 0,1]. 12. Probabilidade total ou cumulativa: denomina-se probabilidade total ou probabilidade cumulativa da união de subconjuntos disjuntos ∪Di, ao somatório ∑P(Di), ou seja: ( ) ( ) ( )i i j jiit DPDPDP ∑ = =∪= 1 (2.2) Exemplo: P(∪D3), para o arremesso de um dado suposto homogêneo e regular, é: P(D1) + P(D2) + P(D3) = 1/2 13. Adição de probabilidade: seja a soma dos eventos E = E1 + E2 = E1 ∪ E2; a probabilidade, P(E), do evento E ‚ dada por P(E) = P(E1 ∪ E2) = P(E1) + P(E2) - P(E1E2). Exemplo: veja ainda o experimento do exemplo anterior. Sejam os eventos E1 = faces múltiplas de 3; E2 faces pares; E3 = faces ímpares. a) Se E1 e E2 são não mutuamente exclusivos e E = E1 + E2 = E1 ∪ E2 P(E) = P(E1) + P(E2) - P(E1E2) = P(E1) + P(E2) - P(E1 ∩ E2) P(E1)= P(face3, face6) = 2/6 P(E2)= P(face2, face4, face6) = 3/6 P(E1∪E2)= P(face2, face3, face4, face6) = 4/6 P(E1)+ P(E2)- P(E1E2)= 2/6 + 3/6 – 1/6 = 4/6 b) Se os eventos são mutuamente exclusivos; como E2 e E3 e E = E2 + E3 P(E) = P(E2)+ P(E3) P(E2) = 3/6 ; P(E3) = 3/6 ; P(E) = 1 14. Probabilidade condicionada: se A e B são subconjuntos de D, (A, B)⊂ D, a probabilidade condicionada P(A/B), que se lê: "probabilidade de A dado B" e se interpreta como: "a probabilidade de ocorrência de A sob a condição de que B já ocorreu", é dada por: )( )()/( BP BAPBAP ∩= (2.3) 5 Exemplo - Seja o experimento e eventos do exemplo acima, determinar: P(E1/E2); P(E2/E1); P(E2/E3) P(E1) = 2/6 ; P(E2)= 3/6 e P(E1 ∩E2) = 1/6 ; P(E2∩E3) = 0 então, P(E1/E2) = 1/6:3/6 = 1/3 ; P(E2/E1) = 1/6:2/6 = 1/2 e P(E2/E3) = 0:1/2 = 0 15. Probabilidade combinada: a probabilidade combinada P(A,B), que se lê: "probabilidade de ocorrência de A e B" também chamada lei multiplicativa das probabilidades de eventos independentes, é dada por: P(A,B) = P(A).P(B) (2.4) ou genericamente, ))()...,( 11 21 ∏∏ == == n i i n i in DPDPDDDP (2.5) ou é interpretada como a probabilidade de ocorrência dos eventos independentes A e B ou D1 e D2 etc. Dizer que os eventos A e B são independentes eqüivale a dizer que, P(A/B) = P(A) (2.6) A equação (2.6) substituída na (2.3) resulta a (2.4). Exemplo: seja o experimento, dois arremessos sucessivos de um dado homogêneo regular. Sejam os eventos: E1, ocorrência de f3 no primeiro arremesso; E2, ocorrência de f6 no segundo; E3, ocorrência de { f3,f6 } nos dois. P(E1) = P({f3}) = 1/6 ; P(E2) = P({f6}) = 1/6 ; P(E3 = E1 ∩ E2 ) = 1/6 . 1/6 = 1/36 16. Exercícios e Exemplos: Considere-se os experimentos: (a) arremesso de um dado uma vez; (b) arremesso de uma moeda uma vez; (c) arremesso de uma moeda três vezes; (d) arremesso de dois dados uma vez; (e) um espaço amostral D ilustrado abaixo e particionado em subconjuntos Di disjuntos com as seguintes probabilidades: D = {D1; D2; D3; D4; D5} onde Di disjuntos, e Di ⊂ D e P(D1)= 1/20 ; P(D2)= 3/20 ; P(D3)=6/20 ; P(D4)= 2/20 ; P(D5)= 8/20 Admita-se dados e moedas fiéis nos experimentos (a), (b), (c) e (d). 16.1 Qual seria o conjunto de todos os resultados possíveis (espaço amostral) dos experimentos(a), (b), (c) e (d) ? 6 Para o experimento (a): D = { 1,2,3,4,5,6 } = { d1,d2,d3,d4,d5,d6 } Para o experimento (b): D = { cara, coroa } = {H,T} = {d1,d2 } Para o experimento (c): D = { HHH, HHT, HTH, THH, HTT, THT, TTH, TTT } Para o experimento (d), associado a pontos do plano: D = {(1,6) (2,6) (3,6) (4,6) (5,6) (6,6) (1,5) (2,5) (3,5) (4,5) (5,5) (6,5) (1,4) (2,4) (3,4) (4,4) (5,4) (6,4) (1,3) (2,3) (3,3) (4,3) (5,3) (6,3) (1,2) (2,2) (3,2) (4,2) (5,2) (6,2) (1,1) (2,1) (3,1) (4,1) (5,1) (6,1)} 16.2 Determinar o conjunto dos eventos tais que: E1 seja a ocorrência da face 4 no experimento (a); E2 seja a ocorrência de face par no experimento (a); E3 seja a ocorrência de duas caras e uma coroa no experimento (c); E4 seja a ocorrência da soma de pontos de dois dados totalizar seis no experimento (d). Teríamos então: E1 = { F4 } E2 = { F2, F4, F6 } E3 = { HHT, HTH, THH } E4 = { (1,5); (2,4); (3,3); (4,2); (5,1) } 16.3 Calcular as probabilidades acumuladas: Pt(d1); Pt(d3); Pt(d5) e Pt(d6) no experimento (a); Pt(d3) e Pt(d5) para o experimento (c); Pt(D2); Pt(D4) e Pt(D5) para o experimento (e). 16.4 Considerando os eventos E1 - total de pontos par, E2 - total de pontos ímpar, E3 - total de pontos é número primo, E4 - total de pontos é número múltiplo de três e E5 - total de pontos é dois, nos experimentos (a) e (d), calcular: P(E1), P(E2), P(E3), P(E4), P(E5), P(E1/E2), P(E1/E3), P(E1/E4), P(E3/E2) e P(E5/E1). 16.5 No experimento (c), qual a probabilidade P(A,B) de ocorrência dos eventos: A - cara na segunda jogada e B - coroa na terceira jogada ? 16.6 Considerando o experimento (d), e com o interesse voltado apenas para o total de pontos (e não em pares ordenados), qual seria o espaço amostral? Quais seriam as probabilidades associadas aos elementos di de D? Qual a probabilidade total? 7 16.7 Fazer a representação gráfica, onde o espaço D seja representado nas abscissas e as probabilidades nas ordenadas para: (16.7.a) - probabilidades acumuladas no experimento (a); (16.7.b)- probabilidades acumuladas de (c) e (d) onde se considera o resultado total (sem ordenação), isto é, duas caras e uma coroa passam a ser um só elemento di ∈ D, no experimento (c) e todos os elementos que resultem a mesma soma de pontos no experimento (d) passam também a ser um só elemento. 16.8 Sejam os subconjuntos dos números do dado: A = { faces com números pares } B = { faces com números primos } C = { faces com números ímpares } Supondo-se que a face de um dado tem a probabilidade de ocorrência proporcional ao seu número (número de face) pede-se: 16.8.a) - Qual o espaço D ? 16.8.b) - Qual a probabilidade de di de D ? 16.8.c) - Quais as probabilidades de A, B e C ? 16.8.d) - Qual a probabilidade de A ou B ? 16.8.e) - Qual a probabilidade de que um número ímpar primo ocorra (C ou B) ? 16.8.f) - Qual a probabilidade de ocorrência de um número par mas não primo? Solução: 16.8.a) D = { 1,2,3,4,5,6 } 16.8.b) Seja ki a probabilidade da face i: 654321 654321 kkkkkk ===== 6121 1 21 61 kkki ====∑ L k1 = 1/21 ; k2 = 2/21 ; k3 = 3/21 ; k4 = 4/21 ; k5 = 5/21 ; k6 = 6/21 P(1) = 1/21 ; P(2) = 2/21 ; P(3) = 3/21 ; P(4) = 4/21 P(5) = 5/21 ; P(6) = 6/21 16.8.c) A = { 2,4,6 } P(A) = P(2) + P(4) + P(6) = 2/21 +4/21 + 6/21 P(A) = 12/21 B = { 1,2,3,5 } P(B) = P(1) + P(2) + P(3) + P(5) P(B) = 1/21 + 2/21 + 3/21 + 5/21 P(B) = 11/21 C = { 1,3,5 } P(C) = P(1) + P(3) + P(5) = 1/21 + 3/21 + 5/21 P(C) = 9/21 8 16.8.d) P( A ∪ B) = P({2,4,6 } ∪ {1,2,3,5 }) P (A ∪ B) = P({1,2,3,4,5,6 }) = 21/21 = 1 16.8.e) P( C ∩ B) = P( { 1,3,5 } ∩ { 1,2,3,5 } ) P( C ∩ B) = P( { 1,3,5 } ) = 9/21 16.8.f) P(par não primo) = P(A mas não B) P(par não primo) = P(A - (A ∩ B)) = 10/21 9 A Estatística trata com a aplicação das leis da probabilidade visando coletar dados adequadamente, analisá-los e extrair conclusões válidas para a população a partir de amostras (inferência). A Estatística complementa a probabilidade na obtenção de subsídios para a tomada de decisões apropriadas. Estas decisões porém, são de competência humana. O método dedutivo consiste na extração de conclusões válidas para o específico ou particular, a partir do geral. A inferência consiste em obter informações válidas para o geral (população) a partir do conhecimento do particular (amostra). Revisa-se alguns conceitos que se relacionam mais estreitamente às aplicações e estudos do cálculo do ajustamento de observações. 1. Amostra: amostra é um subconjunto da população, ou do espaço amostral, e deve ser representativa da mesma. Isto implica que a amostra deve ser aleatória ou randômica. 2. Progressão: progressão é um conjunto ordenado de elementos, não necessariamente distintos. 3. Conjunto definição: Conjunto definição é o subconjunto da progressão constituído somente dos elementos distintos desta. Exemplo 3.1. Dadas as progressões L1 = {1, 2, 2 , 0, 1, 7, 5, 2 } e L2 = {7, 5, 1, 1, 1, 2, 0} os conjuntos definidos são: D1 = { 1, 2, 0, 7, 5 } e D2 = { 7, 5, 1, 2, 0 }. Exemplo 3.2. Dada a progressão L = { 1, ∆, ∇, 1, 1, , ∇ }, com n = 7, o conjunto definição é: D = { 1, ∆, ∇, } = {d1, d2, d3, d4 } = {di}, com i = 1.....m; as freqüências são: (ver conceito de frequência, 9.) c1 = 3; c2 = 1; c3 = 2; c4 = 1; As freqüências relativas são: P(d1) = P(1) = 3/7 P(d2) = P(∆) = 1/7 P(D3) = P(∇) = 2/7 P(d4) = P( ) = 1/7 E a probabilidade total, 1)()()( 4 1 ==∪= ∑ =i ii dPdPDP 3 - Conceitos Básicos de Estatística CREA-PR / Departamento de Geomática da Universidade Federal do Paraná 10 geralmente D ⊂ R (números reais). 4. Amostra aleatória ou randômica: numa definição simplificada, a amostra aleatória é aquela tomada de modo que qualquer elemento da população tenha igual probabilidade de ser incluído na amostra. Num sentido mais geral, a amostra aleatória é uma progressão finita tal que: - seu conjunto definição D é um espaço de probabilidade ou espaço amostral; - tem uma função de probabilidade definida para todo di ∈ D, tal que n c dP ii =)( isto é, igual a freqüência relativa. 5. Função distribuição de probabilidade experimental: se a progressão da amostra randômica for uma progressão numérica e P for uma função discreta de D em [0,1]; P é chamada de FDPE (função distribuição de probabilidade experimental). P(di) = probabilidade experimental ou frequencia relativa. Mais adiante serão abordadas as funções de distribuição de probabilidade contínuas. Exemplo 3.3. Diga-se que um certo experimento originou a amostra randômica L = { 2, 2, 3, 5, 5, 5, 7, 7, 8 } com n = 9, sendo o conjunto definição D = { 2, 3, 5, 7, 8 } com m = 5. As frequencias correspondentes aos di são: c1 = 2; c2 = 1; c3 = 3; c4 = 2; c5 = 1 As probabilidades experimentais são: P(d1) = 2/9; P(d2) = 1/9 P(d3) = 3/9; P(d4) = 2/9 P(d5) = 1/9 D é subconjunto de R e P é função distribuição de probabilidade experimental. Graficamente pode-se representar a FDPE como na figura 3.1. FIGURA 3.1 – Diagrama de barras das probabilidades experimentais 6. Função de distribuição acumulada – FDC : a função de distribuição acumulada de probabilidade é definida para D discreto como: MÓDULO I – TOPOGRAFIA, AJUSTAMENTO DE OBSERVAÇÕES E INTRODUÇÃO AO GEORREFERENCIAMENTO... 11 )()( 1 ∑ = = i j ji dPdC (3.1) Exemplo 3.4. Considere-se a amostra randômica L = {1, 2, 4, 1, 1, 2, 1, 1, 2 } com n = 9, e conjunto definição D = { 1, 2, 4 }, m = 3, com frequencias c1 = 5; c2 = 3 e c3 = 1. As probabilidades experimentais são: P(d1) = 5/9 ; P(d2) = 3/9 e P(d4) = 1/9 então tem-se: C(d1) = P(d1) = 5/9 C(d2) = P(d1) + P(d2) = 8/9 C(d4) = P(d1) + P(d2) + P(d3) = 1 Que graficamente pode ser representada por: FIGURA 3.2 - Representação gráfica da distribuição acumulada para o exemplo 3.4 7. Média da amostra: Seja a amostra L = {l1, l2, .....ln} com D = {d1, d2, .... dm}, onde n é o tamanho daamostra e m o número de elementos do conjunto definição. A média pode ser definida por: ∑ = = n i iln M 1 1 (3.2) ou por: )( 1 i m i i dPdM ∑ = = (3.3) uma vez que, n C dP ii =)( i m i ii m i i Cn ddPdM 1)( 11 ∑∑ == == (3.4) ∑∑ == == n i ii m i i ln Cd n M 11 11 Pode-se ainda representar a média M por, M= E(l) Onde E é a “ Esperança Matemática”, entendida como o operador linear Σ aplicado ao produto P(di).di. 12 O operador E tem as seguintes propriedades, sendo k uma constante e l amostra: a) E(k) = k b) E(kl) = kE(l) c) E(k + l) = k + E(l) d) E(Σl) = ΣE(l) Exemplo 3.5. Cacular a média amostral L usando as equações (3.2) e (3.3) sendo L = {1, 2, 4, 1, 1, 2, 1, 1, 2 }. M = 1/9(1 + 2 + 4 + 1 + 1 + 2 + 1 + 1 + 2 ) = 15/9 ou M = 1.(5/9) + 2.(3/9) + 4.(1/9) = 15/9 8. Variância da amostra: seja a amostra aleatória L = {l1, l2, ..... ln} com média M. O número real s2 dado por. ∑ = −= n i i Mln s 1 22 )(1 (3.5) é chamada variância da amostra. É uma medida de dispersão. A comparação das equações (3.2) e (3.3) permite escrever: )(1 11 i m i i n i i dPdln ∑∑ == = (3.6) Esta equação aplicada a média dos quadrados dá: )(1 1 2 1 2 i m i i n i i dPdln ∑∑ == = (3.7) A equação (3.5) pode ainda ser desenvolvida como segue: )()(2)( )2())(( )(1 22 222 2 1 2 MElMElE MlMlEMlE Ml n s n i i +−= +−=−= −= ∑ = 222 )( MlEs −= (3.8) ou ainda usando o conceito da (3.7), 2 1 22 )( MdPds j m j j −= ∑ = (3.9) Exemplo 3.6. Calcular a variância da amostra do exemplo (3.5) usando as equações (3.5), (3.8) e (3.9). Solução Da (3.5) tem-se: S2 = 1/9[(-6/9)2 + (3/9)2 + (21/9)2 + (-6/9)2 + (-6/9)2 + (3/9)2 + (-6/9)2 + (-6/9)2 + (3/9)2] 13 S2 = 1/9(648/81) S2 = 8/9 Da (3.8) tem-se: s2 = 1/9(1 + 4 + 16 + 1 + 1 + 4 + 1 + 1 + 4 ) – (15/9)2 s2 = 8/9 Da (3.9) tem-se: s2 = 1(5/9) + 4(3/9) + 16(1/9) –(15/9)2 s2 = 8/9 O desvio padrão é dado pela raiz quadrada positiva da variância: 2s+=σ 9. Estimativa Pontual: nas inferências estatísticas pode-se utilizar estatísticas (valores calculados a partir da amostra, com média, variância e desvio padrão) para estimar os parâmetros correspondentes da população. Assim: M para estimar µ; s2 para estimar σ2 Não é surpreendente que diferentes amostras de uma mesma população, dêem origem a diferentes Mi e (s2)i , podendo-se então falar em distribuição das estatísticas da amostra. Assim pode-se ter FDP das médias e das variâncias. A variância da distribuição das médias σ2(M) é dada por: Var(M) = σ2(M) = σ2 / n (3.19) onde n é o número de observações que geram a média M. A média das médias é: µµ == )()ˆ( iMEE (3.20) razão pela qual a média é chamada estimador imparcial. Semelhantemente: 222 )()ˆ( σσ == sEE (3.21) e também a variância é chamada estimador imparcial, “ unbiased estimator” . 10. Variável randômica multi-dimensional e sua FDP: a exemplo do que foi visto no caso unidimensional , o conceito de variável randômica multi-dimensional tem, implicitamente, a associação de uma FDP. A variável randômica n-dimensional é dada para [ X, φ(X)], onde X é o vetor: 14 = nX X X X . . 2 1 e cada Xj deste vetor é uma variável randômica unidimensional; φ(X) é tal que: φ(X) = φ(X1, X2, .....Xn ) ∈ {Rn → R } (3.25) é não negativa e integrável em Rn 11. Probabilidade no espaço multi-dimensional: Considere-se dois valores específicos para o vetor X, isto é, X0 e X1 formando o intervalo (X0 , X1). A probabilidade de X ∈ ( X0 , X1 ) ⊂ Rn é: ∫ ∈Φ=≤≤ 1 0 ]1,0[)()( 10 X X dXXXXXP (3.26) onde: [ ]TnXXXX 020100 ..= e [ ]TnXXXX 121111 ..= ),...,,( 21 ndXdXdXdX = e a integração é em Rn 12. Média e variância da variável multi-dimensional: a média da variável randômica n-dimensional possui n componentes que são as médias das componentes da variável. [ ] nTn RXE ∈== )(..21 µµµµ (3.30) == )( . . . )( )( )( 2 1 nXE XE XE XEµ (3.31) Semelhantemente a variância da variável randômica n-dimensional possui n componentes cada qual dada por: ))(( 22 j j j XE µσ −= (3.32) ou, como anteriormente, ))(( 222 j j j XE µσ −= (3.33) Exemplo 3.12: Dada a amostra tridimensional: 15 = = )8,5,5,2,5( )2,3,0,4,6( )4,7,4,3,2( 3 2 1 l l l L Estimar a média e a variância da amostra: = ++++ ++++ ++++ = = 5 3 4 )85525( 5 1 )23046( 5 1 )47432( 5 1 )( )( )( 3 2 1 13 lE lE lE M 5 14)09014( 5 1)(( 211 2 1 =++++=−= MlElσ 4)10919( 5 1)(( 222 2 2 =++++=−= MlElσ 5 18)90090( 5 1)(( 233 2 3 =++++=−= MlElσ Ao contrário do que ocorre com a variável unidimensional, no espaço n- dimensional a variável não expressa as propriedades estatísticas tão satisfatoriamente. O conceito de matriz variância-covariância se torna agora necessário. 13. Matriz variância-covariância da variável n-dimensional: a matriz variância- covariância será representada por: [ ]ij nnnn n n X σ σσσ σσσ σσσ = =∑ ... ...... ...... ...... ... ... 21 22221 11211 (3.34) onde, ))((( j j i i ij XXE µµσ −−= dXXXX j j i R i n )())(( Φ−−= ∫ µµ (3.35) Note-se que, quando i =j a equação (3.35) dá as variâncias que constituem os elementos da diagonal de ΣX . A matriz variância-covariância pode ainda ser definida como: )))((( TxX x XXE µµ −−=∑ (3.36) Para um conjunto discreto, a equação (3.35) assume a forma: ),().)(( jix j xX X i XX XXPXX jii jji µµσ −−= ∑ ∑ (3.37) 16 Exemplo 3.13: Calcular Σ para o caso bi-dimensional (Xi = x e Xj = y) ilustrado abaixo, onde as probabilidades: 0,1 e 0,2 são associadas aos pontos da distribuição através do tamanho das circunferências (circunferência maior – maior probabilidade). Os valores de (x , y) são dados na tabela abaixo. Coordenadas Ponto nº x y P(x , y) 1 10 06 0,1 2 15 08 0,2 3 15 12 0,1 4 20 10 0,2 5 25 08 0,1 6 25 12 0,2 7 30 14 0,1 Aplicando a equação 3.37 aos dados: MX = 10x0,1+15x0,2+15x0,1+......+ 25x0,2+30x0,1 = 20 MY = 6x0,1+8x0,2+12x0,1+..........+12x0,2+14x0,1= 10 (sx )2 =(10-20)2x0,1+(15-20)2x0,2+....+ (25-20)2x0,2+(30-20)2x0,1=35 (sy)2 =((6-10)2x0,1+(8-10)2x0,2+.....+ (12-10)2x0,2+(14-10)2x0,1= 5,6 e sxy = syx = 10 logo, ∑ = XY 6,510 1035 Exercício: Fazer um estudo para constatar que informações a covariância contém; que medida ela faz; sua utilidade prática; sua dependência ou independência da posição da distribuição com respeito ao sistema referencial e das unidades de medida. 23. Coeficiente de correlação: o coeficiente de correlação ρ(Xi , Xj ) é definido por: ]1,1[ +−∈= ji ji ji XX XX XX σσ σ ρ (3.38) que expressa o grau de dependência linear entre as variáveis xi e xj . O resultado advindo da expressão (3.38) pode ser estatisticamente interpretado da seguinte maneira: a) Se 1=ji XXρ : existe uma correlação linear perfeita entre as variáveis x i e xj , ou que xj é uma função linear de xi . b) Se 0=ji XXρ : diz-se que as variáveis x i e xj não são correlacionadas. 17 No entanto, isso não significa necessariamente que as componentes das variáveis sejam estatisticamente independentes. Sugere-se, a título de exercício, que seja refeito o exercício anterior para o caso de ρ. 18 O problema de propagação da distribuição Φ(X) de X para Φ(Y) de Y quando Y = f(X) nem sempre tem solução e é complexo e este assunto foge do escopo destas notas. A solução usual em ajustamento é a aplicação da lei de propagação das covariâncias. Esta lei permite a obtenção da matriz variância-covariância da variável dependente Y, em função da matriz variância-covariância da variável independente X, desde que Y = (F(X); X e Y sendo variáveis multidimensionais. Seja a função f,tal que Y = f(X) (4.1) e f é linear, isto é, pode ser expressa na forma: Y = f(X) = AX + C (4.2) onde X e Y são vetores multidimensionais com flutuações randômicas, A é a matriz de transformação e C um vetor constante de translação. A esperança E(Y) será: E(Y) = E(AX + C) = E(AX) + E(C) = AE(X) + C ou E(Y) = A.E(X) + C (4.3) e a matriz variância-covariância Σy, equação (3.36), será: Σy = E((Y - µy)(Y - µy)T) (4.4) Substituindo Y por seu valor dado para equação (4.2), tem-se: Σy = E((AX + C - µy)(AX + C - µy)T) substituindo µy por seu valor da (4.3), vem: Σy = E((AX + C - AE(X) - C). (AX + C - AE(X) - C)T) = E((AX - AE(X)) (AX - AE(X))T) = E(A(X - µx)(A(X - µx))T) = E(A(X - µx) (X - µx)T AT) = AE((X - µx) (X - µx)T)AT = AΣx AT logo Σy = AΣx AT (4.5) Esta é a lei de propagação de covariância de grande aplicação em ajustamento. Ela se aplica também às funções não lineares como ver-se-á abaixo. Para isto as funções não lineares são primeiramente linearizadas e então a equação (4.5) é usada. Seja a função (ou funcional) não linear: 4 - Lei de Propagação das Covariâncias 19 Y = F(X) (4.6) onde X e Y têm o mesmo significado dado na (4.1) e F é o funcional: F = F F . . . F 1 2 m Seja ainda dado um vetor X0 nas vizinhanças de X. X0 será chamado vetor dos valores aproximados de X. A função F(X) pode ser desenvolvida em série de Taylor como segue: .......... !2 ||)()( 2 2 2 0 00 + ∆ ∂ ∂ +∆ ∂ ∂ += == X X FX X FXFXF XXXX (4.7) onde ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ X F... X F X F ...... ...... ...... X F... X F X F X F... X F X F = X F n m 2 m 1 m n 2 2 2 1 2 n 1 21 1 1 e o valor numérico desta expressão para X = X0 será representado por: 0 | XXX F=A =∂ ∂ (4.8) e ainda: F(X0) = C (4. 9) tem-se então, negligenciando os termos de 2ª ordem e de ordens superiores, a equação (4.6) expressa por: Y = F(X) ≅ C + A.∆X (4.10) A comparação das equações (4.10) e (4.2) torna óbvio que, após a linearização do modelo (4.6) para a forma (4.10), pode-se aplicar a lei de propagação de covariância, equação (4.5), também a este modelo. 20 O modelo linearizado tende para o valor F(X) quando X0 tende para X; logo a qualidade da aproximação depende dos valores aproximados. Para fins de propagação de covariância esta aproximação não é crítica. Exemplo 4.1 - (lei de propagação para F linear): Admita-se que foram observadas no campo quatro direções di: 4 3 2 1 4 3 2 1 d d d d = l l l l =L e que a matriz variância-covariância das observações foi estimada: L = 3 ,2 0 ,9 0 ,8 0 ,5 0 ,9 3 ,2 0 ,7 0 ,9 0 ,8 0 ,7 3 ,8 1 ,2 0 ,5 0 ,9 1 ,2 4 ,1 Σ Os ângulos αi foram calculados a partir das observações, como: l-l l-l l-l = = X X X =X 34 23 12 3 2 1 3 2 1 α α α Estime-se a matriz variância covariância ΣX de αi. Da função X = F(l) que dá os valores dos ângulos αi, tem-se α = F(l) = A.L, donde: 11-00 011-0 0011- =A43 Aplicando a lei de propagação das covariâncias tem-se: T L .AA.= ΣΣα Σ Σ 5,52,8-0,5 2,8-5,62,4- 0,52,4-4,6 = 100 1-10 01-1 001- 4,11,20,90,5 1,23,80,70,8 0,90,73,20,9 0,50,80,93,2 11-00 011-0 0011- = α α 21 Exemplo 4.2. Os ângulos A e B do triângulo plano ABC foram observados com a precisão: "4"3 22 == BA eσσ O ângulo C foi calculado por: C = 180° - A – B Estimar a precisão σC = do ângulo C computado na expressão acima: Fazendo y = F(X), na fórmula matricial de y = AX + C, temos: Cy B A X = = ; e [ ] ° 180 + B A 1- 1- = C Onde A = [ -1 -1 ] Aplicando a lei de propagação das covariâncias temos: [ ] [ ] 62, = e 7 = ou 7= 1- 1- 40 03 1-1-= CC C C ′′′′ Σ Σ σσ 2 Exemplo 4.3. Seja a amostra bidimensional L a resultante das medidas do comprimento e da largura de um terreno retangular em m: = 72,772,472,572,672,8 232,4232,4232,5232,7232,5 l l =L 2 1 O vetor X, tal que: retângulo do área retângulo do diagonal = X X =X 2 1 22 foi calculado das observações. Estimar a precisão de X, isto é, determinar Σx. Sugestão: determinar ΣL da amostra: escrever as equações do funcional F = [F1 F2]T ; linearizar F; aplicar a lei de propagação das covariâncias; verificar quais as unidades em ΣL e Σx. Exemplo 4.4. Supõe-se que as distâncias do ponto C às estações A e B devam ser determinadas a partir das medidas dos ângulos A e B e do lado AB (ver figura). A média das observações L foi: ′′′′ ′′′′ Σ ° ° = = ) 2(5cm00 0) 24(-) 21(- 0) 21(-) 24( =L com 100m 45 90 c B A l3 l 2 l1 =L O vetor , X = a b foi calculado a partir das observações pela lei dos senos: X = a b = c s e n A / se n (A + B ) c se n B / se n (A + B ) Estimar a matriz variância covariância Σx dos lados calculados, em cm2. Por razões de ordem numérica, não modificar as unidades de ΣL. 23 5.1 - CONSIDERAÇÕES INICIAIS É oportuno, uma vez mais, lembrar-se que só faz sentido falar em ajustamento ou aplicação do método dos mínimos quadrados (M.M.Q.) quando se dispõe de observações redundantes. No sentido geral o MMQ consiste em estimar variáveis estocásticas X e seus parâmetros de distribuição Σx, a partir de amostras L observadas com precisão ΣL. DADOS : (L,ΣL) → ESTIMAR : (X, Σx) Estarão envolvidos nos problemas de ajustamento três espaços: (a) o espaço das observações ou medidas, Rn; (b) o espaço do modelo matemático Rm e; (c) o espaço dos parâmetros incógnitos Ru. Métodos particulares poderão envolver um ou dois destes espaços. O modelo matemático funcional que inter-relaciona estes espaços constitui um sistema de equações lineares (ou linearizadas) incompatível. A incompatibilidade procede das flutuações randômicas que é propriedade das observações. Dada uma família de modelos matemáticos, um modelo fica determinado por um número mínimo de parâmetros obtidos numa solução única. Assim, por exemplo: a) a família de modelos: y = ax + b possui infinitos elementos, um dos quais fica determinado fixando-se (o número mínimo de) dois parâmetros a1 e b1. b) a forma de um triângulo plano é definida por seus ângulos: o número mínimo de parâmetros que individualizam uma forma é dois (dois ângulos) e o modelo: α + β + γ = 180° c) se o problema for fixar a forma e as dimensões do triângulo plano, já o número de parâmetros é três; uma escala tem que ser acrescentada ao problema anterior e; d) se a pretensão é determinar a posição com respeito a um referencial, as dimensões e a forma de um triângulo plano, cinco parâmetros seriam requeridos. A medida em que a complexidade da realidade física que se pretende representar cresce, o número de parâmetros mínimo requerido também aumenta. Num sistema de equações lineares redundantes e inconsistente, as soluções que se obteriam para o conjunto (número mínimo) de parâmetros a partir de diferentes subsistemas (formados com o mínimo de equações necessárias para dar solução única) seriam distintas. Daí a necessidade do princípio dos mínimos quadrados. Antes porém de se passar para o MMQ, parece útil um breve retrospectodo significado de sistemas de equações lineares redundante e inconsistente dentro do contexto da discussão de sistemas lineares não homogêneos. 5 - Introdução ao Método dos Mínimos Quadrados 24 5.2 - DISCUSSÃO DE SISTEMAS DE EQUAÇÕES LINEARES NÃO HOMOGÊNEAS De um modo geral e simplificado, pode-se discutir algebricamente um sistema de equações lineares não homogêneas, procurando responder as duas questões que seguem: a) O sistema é consistente? b) Sendo consistente, a solução é única? Seja o sistema de equações: AX = L (5.1) onde A é a matriz n x n dos coeficientes; X é o vetor das incógnitas e L o vetor dos termos independentes. Para este sistema a questão (a) pode ser respondida através de uma análise das características ou posto das matrizes A e A', isto é: Posto (A) = Posto (A') =? (5.2) onde A' é uma matriz obtida da A pela substituição de uma de suas colunas pelo vetor L. Se Posto (A) ≠ Posto (A') o sistema é incompatível ou inconsistente, e será consistente se a igualdade (5.2) se verificar. A segunda questão (que se aplica somente ao sistema compatível) será respondida examinando o determinante A. det (A) ≠ 0 ? (5.3) Então, o sistema terá solução única. Determinante nulo implica que o sistema possui infinitas soluções. Considere-se agora o sistema AX = L onde A é de dimensões (n x u) e o vetor de incógnitas (u x 1) e o dos termos independentes (n x 1) e ( n > u). Este é o caso dos sistemas superabundantes. As duas questões anteriores podem agora ser respondidas como segue: a) O sistema é compatível ? Examina-se: Posto (A) = Posto (A,B) = r (5.4) onde (A,B) é a matriz aumentada, obtida de A, acrescentando-se a esta a coluna L do vetor dos termos independentes [ ]LA=BA :),( (5.5) b) Satisfazendo a equação (5.4), o sistema teria solução determinada se r = u ou seja: o posto comum r é igual ao número de parâmetros. Este caso é semelhante ao caso de n equações a n incógnitas com solução única, pois tem-se (n - r) equações que são combinações lineares das r outras equações do sistema. 25 Se o sistema (5.1) for constituído para i medido, as flutuações randômicas, que são próprias das observações, darão origem a: Posto (A) ≠ Posto (A,B) ou seja, tem-se um sistema superabundante inconsistente. Neste caso diferentes subsistemas, constituídos de u quaisquer equações dentre as n do sistema, terão diferentes soluções. solução única destes sistemas incompatíveis é objeto do ajustamento. Exemplo 5.1. (sistema n x u compatível e indeterminado). Seja o sistema: x + y = 5 2x + 2y = 10 temos: A = 1 1 2 2 ; A = 1 5 2 10 ′ e Posto (A) = Posto (A') = 1 O sistema n x n é compatível. Como det (A) = 0, o sistema não possui solução única Exemplo 5.2. (sistema n x n consistente com solução única) Seja o sistema: x + y = 5 x - y = 1 onde: A = 1 1 1 -1 ; A = 1 5 1 1 ′ e Posto (A) = Posto (A') = 2 O sistema é consistente. Como det (A) ≠ 0 (ou como r = u), o sistema possui solução única. Exemplo 5.3. (sistema n x u consistente e indeterminado) Seja o sistema: x + y + z = 9 2x + y + z = 11 3x + 2y + 2z = 20 -y - z = -7 temos 7-1-1-0 20223 11112 9111 =BA; 1-1-0 223 112 111 =A ),( 26 e Posto (A) = Posto (A,B ) = 2 O sistema é consistente. Como: r = 2 < 3 = u o sistema não possui solução única. Exemplo 5.4. ( sistema n x u consistente e determinado) Seja o sistema: x + y + z = 9 2x + y + z = 11 x + 2y + z = 12 4x + 3 y + 4z = 33 onde = 33434 12121 11112 9 111 BA; 434 121 112 111 = A ),( sendo: Posto (A) = Posto (A,B) = r = 3 = u e o sistema é compatível e tem solução única. Exemplo 5.5. (sistema n x u inconsistente) Seja o sistema do exemplo 5.4 → 33 12 11 9 = z y x 434 121 112 111 L=AX Considere-se agora que os elementos L foram obtidos através de medidas. São portanto observações afetadas de flutuações randômicas, como por exemplo: = 33,3 11,8 10,9 9,2 =LL b O sistema assim constituído: AX = Lb (5.6) terá Posto (A) = Posto (A,B) É um sistema inconsistente. É objeto do ajustamento. Este é o problema com o qual se tratará. 27 5.3 - PRINCÍPIO DO MÉTODO DE MÍNIMOS QUADRADOS Revendo o exemplo 5.5 anterior, nota-se que a discrepância V (também chamada de resíduo) entre L, valor final, e Lb, valor medido: V = L - Lb (5.7) fosse conhecida, poder-se-ia corrigir as observações L = Lb + V (5.8) obtendo um sistema AX = Lb + V (5.9) consistente. Como V é incógnito, o sistema (5.10) possui agora (u+n) incógnitas, logo tem- se mais incógnitas que equações. O princípio do método dos mínimos quadrados estabelece que "a soma dos quadrados dos resíduos seja mínima". Φ = VTV ≅ mín (5.10) ou Φ = VTPV ≅ mín (5.11) onde V é o vetor dos resíduos e P uma matriz simétrica dos pesos, dada por: P = (σ0 )2 ΣL-1 (5.12) e (σ0 )2 é um escalar que será discutido mais adiante. A aplicação do princípio do MMQ não requer conhecimento a-priori da distribuição associada às observações. A aplicação deste princípio possibilita a resolução de um sistema de equações com maior número de incógnitas que equações. Assim, o sistema AX = Lb inconsistente, torna-se consistente mas indeterminado. A equação AX = Lb + V pela adição das correções V, pode ser resolvido através da aplicação deste principio, como se verá mais adiante. A média aritmética M é um estimador que satisfaz o principio dos mínimos quadrados. Supõe-se então, a seguinte pergunta: dada uma amostra L = (li) i = 1,....,n; qual valor l0 que torna a soma do quadrado das discrepâncias mínimas? 28 min.?)l-l(v 20i n 1=i 2 i n 1=i = ≅ΣΣ (5.13) Para responder a esta questão, a equação (5.13) pode ser substituída pela variância definida como: ?mimv n 1=)l-l( n 1=S 2i n 1=i 20 i n 1=i 2 .≅ΣΣ (5.14) Tem-se então que achar l0 tal que a equação (5.14) dê um mínimo para S², pois o l0 que minimiza o S² na (5.14) também minimiza o Σ(v²)i na (5.13). S² = S² (10) = F(1) (5.15) Para obter um mínimo de F(10) 0= l )lF( 0 0 ∂ ∂ (5.16) Derivando a equação (5.14) com respeito a 10 e igualando a zero o resultado, tem-se: 0=vn 2-=)v(-n 2=)(-v2n 1= l )lF( iii0 0 ΣΣΣ ∂ ∂ 1 (5.17) então l=nl0=l-l0=v i00ii Σ→ΣΣ→Σ (5.18) Ml n l l i == Σ = − 0 (5.19) Vê-se assim que a média M é um estimador pontual que satisfaz o principio de mínimos quadrados. Para isto nenhuma consideração foi feita com respeito à função densidade de probabilidade. Se for postulado que a amostra L = (li), i = 1, n está associada a uma FDP normal, pode-se facilmente verificar que o valor de 10 que satisfaz a condição de máxima probabilidade e a média. Por isto a média é um estimador de máxima probabilidade no caso de amostras com distribuição normal (ou simétrica). É imediato que F na equação (5.21) será máxima (e a probabilidade será também máxima) se: minE 2i ≅Σ (5.24) o que implica M= n l= e n=l donde 0=)-l( i i i Σ Σ Σ µ µ µ (5.25) A condição (5.24) assegura também a obtenção de variância mínima, o que é um outro critério de estimativa usual. 29 6.1 - INTRODUÇÃO O modelo matemático do ajustamento paramétrico (também chamado modelo explícito ou método das observações indiretas ou ainda método das equações de observações) é: La = F(Xa) (6.1) onde La é o vetor (nx1) das observações ajustadas, Xa o vetor (ux1) dos parâmetros ajustados e F um funcional que relaciona La a Xa. Conforme a função F seja linear ou não linear, o ajustamentose chamará de: paramétrico linear ou não linear. Consideraremos inicialmente o primeiro caso. 6.1.1 Ajustamento Paramétrico Linear Neste caso a função F é linear e a equação (6.1) pode ser escrita na forma X A=L (6.2) onde o sistema de equações lineares é superabundante (n > u), com A (nxu). Este sistema consistente não pode ser formado inicialmente, pois o vetor La não está disponível. Isto é, dispõe-se somente do vetor Lb dos valores medidos que forma um sistema inconsistente, Lb = AX (6.3) que requer uma correção V ao vetor das medidas Lb. Assim: La = Lb + V (6.4) e VLAX b += (6.5) constitui um sistema compatível, mas com maior número de incógnitas que o número n de equações (Xa e V possuem u + n incógnitas). Recorre-se então ao princípio do Método dos Mínimos Quadrados (MMQ), equações (5.11a) ou (5.11b), para a obtenção da solução única do sistema (6.5) Considerando a solução quando se utiliza a equação (5.11a): VTV = mín (6.5a ) temos da equação (6.5), V = AX - Lb (6.6) que substituído na equação (6.5a),e designando-a por Φ, resulta: 6 - Ajustamento com o Modelo Paramétrico 30 Φ = (AX - Lb)T (AX - Lb) = mín. ou Φ = (ATXT - LTb) (AX - Lb) = mín e efetuando a distribuição tem-se: b T b T bb TTTT LLAXLLAXAXAX +−−=Φ Para minimizar a função, faça-se: 0= ∂ Φ∂ X ou seja AL=AAX e 0=AL-AAX= 0=AL-AL-AAX2= X T b TT T b TT T b T b TT ∂ Φ∂ Transpondo ambos os membros: LA=AXA bTT (6.7) que é chamada equação normal e cuja solução é: LA)AA(=X bT -1T (6.8) admitindo ATA não singular. Se fosse considerada a condição (5.11b) que levou em conta as variâncias das observações em lugar da (5.11a) ter-se-ia: Φ = VTPV = mín. no qual, substituindo a equação (6.6), resulta: Φ = (AX - Lb)T P(AX - Lb) = mín. Efetuando a transposição e multiplicando vem: b T b T bb TTTT PLLPAXLPLAXPAXAX +−−=Φ Como no caso anterior, minimizando a função, tem-se: 0= X∂ Φ∂ ou 0=)PLL+PAXL-PLAX-PAXAX( X = X b T b T bb TTTT ∂ ∂ ∂ Φ∂ 0=PAL-APL-PAAX2= TbTTbTT 0=PAL-PAAX= 0=PAL2-PAAX2= T b TT T b TT 31 transpondo tem-se: PLA=PAXA bTT (6.9) que constitui o sistema de equações normais, e cuja solução é: PLA)PAA(=X bT -1T (6.10) admitindo que ATPA é não singular. Pode-se portanto estimar, pelo Método de Mínimos Quadrados, (equações (6.8) e (5.10) os valores dos parâmetros X a partir da matriz A dos coeficientes das incógnitas, do vetor Lb de valores observados e da matriz dos pesos referida na equação (5.12), dada por P = 02 L-1σ Σ (6.11) onde ΣL é a matriz variância co-variância das observações e (σo)² a variância da unidade de peso, a ser tratada mais adiante, e que pode ser arbitrada igual a 1, a priori, para fins de resolução dos parâmetros. O vetor V das correções às observações Lb pode então ser calculado utilizando o X na equação (6.6) e o valor ajustado das observações é obtido por: La = Lb + V (6.12) 6.1.2 Ajustamento Paramétrico não Linear Nos casos em que a função F(Xa), do modelo dados pela equação (6.1), La = F(Xa) (6.13) é não linear, o ajustamento paramétrico é dito não linear. O ajustamento paramétrico, para este caso não linear, é mais geral. A resolução do problema engloba o caso linear mas inclui uma fase preparatória de linearização do modelo e, em decorrência da aproximação introduzida nesta fase preparatória, uma fase de testes e iterações são requeridas. Na fase preparatória usam-se valores aproximados X0 dos parâmetros Xa como ponto de expansão da função F(Xa) em série de Taylor, e, com o objetivo de linearizar a função, tomam-se apenas os dois primeiros termos da série. Tem-se consciência do erro de aproximação introduzido com esta linearização, erro este tanto menor quanto melhor forem os valores aproximados do vetor X0. A expansão de F(Xa) dá: AX+L= XX X F+)XF()XF( aXX0a a 0 0)(| 0 −∂ ∂ = = α (6.14) onde se está representando L0 = F(X0) (6.15) U = ATPL 32 e 0 | XX a aX FA =∂ ∂ = (6.16) e ambos L0 e A são vetor e matriz numéricos calculados a partir do valor aproximado X0 e do modelo matemático F. A equação (6.13) pode ser escrita como: Lb + V = F(Xa) (6.17) Nesta equação, substituindo F(Xa) por seu valor da aproximação linear dada pela equação (6.15) vem: Lb + V - L0 = AX (6.18) ou AX + L = V (6.19) onde L = L0 - Lb (6.20) é um vetor numérico calculado a partir de L0 e das observações Lb. O modelo (6.19) então obtido é linear e é resolvido pelo procedimento visto no ítem anterior, a saber equações (6.8) ou (6.10) e (6.6). O vetor X estimado constitui correção ao vetor X0 dos parâmetros aproximados para obtenção de parâmetros Xa que serão melhores aproximações dos parâmetros desde que exista convergência. Xa = X0 + X (6.21) O vetor Xa assim obtido será utilizado como novo valor aproximado dos parâmetros.. Com base nestes, a matriz A e os vetores L0 e L serão numericamente reavaliados e então novo vetor de correção X será calculado e aplicado na equação (6.21), para obtenção de Xa, que é o novo valor ajustado dos parâmetros e que pode ser novamente utilizado como valor aproximado melhorado., A a sequência abaixo ilustra o processo. O processo iterativo é encerrado quando não converge e ultrapassa um certo número de iterações ou quando os elementos do vetor de correção X são menores que um δ arbitrariamente escolhido como constante para teste de convergência. L0 = F(X0); A = F'(X0); X1 = N-11 U1 ; Xa1 = X0 + X1 ; L01 = F(Xa1); A1 = F'(Xa1) ; X2 = N-12 U2 ; Xa2 = Xa1 + X2 L02 = F(Xa2) ; A2 = F'(Xa2) ; X3 = N-13 U3 ; Xa3 = Xa2 + X3 L0n = F(Xan) ; An = F'(Xan) ; Xn+1 = N-1n+1 Un+1 ; Xan+1 = Xan + Xn+1 É comum representar-se o sistema de equações normais (6.9) e (6.7) por NX = U (6.22) onde N = ATPA (6.23) e (6.24) Observações: 33 Então as equações (6.10) e (6.8) seriam dadas por: X = N-1U (6.25) 6.2 - ESTIMATIVA DE PRECISÃO DOS PARÂMETROS CALCULADOS Como já foi referido anteriormente, quando se faz estimativa de um valor ou de um conjunto de valores (parâmetros), necessário se faz também estimar a qualidade dos mesmos. No método paramétrico de ajustamento, mede-se e estima-se (L,ΣL) e a partir destes estimar- se-á (X,Σx), que representam os parâmetros e sua precisão. Viu-se nas subseções anteriores a estimativa dos parâmetros X; note-se agora como estimar sua precisão Σx. N = -120x σ̂Σ 1U (6.26) equação que dá a estimativa da precisão dos parâmetros, a partir da variância da unidade de peso a posteriori σ02 e da inversa da matriz N de coeficientes das equações normais. u-n PVV= T2 0 ∧ σ 1U (6.27) onde P e V são respectivamente, matriz dos pesos das observações e vetor dos resíduas. n é o número de equações linearmente independentes e u o número de parâmetros incógnitos. A diferença (n - u) é chamada de número de graus de liberdade. Freqüentemente tem-se interesse no conhecimento da precisão dos valores observados ajustados La. Esta precisão pode ser estimada através da lei de propagação Σxa dada por: AAN= T-120La σ̂Σ 1U (6.28) pode-se ainda estimar as variâncias e as covariâncias dos resíduos Σv através de, ΣΣΣ LbLav -= 1U (6.29) 6.3 - EXERCÍCIOS E EXEMPLOS 1. Um certo fenômeno tem variação y linear com respeito a x (y = ax + b). O valor yi foi medido para diferentes xi, conforme dados abaixo. A abcissa x é considerada sem erro. Calcular os valores ajustados dos parâmetros a e b da função linear. para x y medido -6 -4 -2 0 0,10 0,97 2,06 3,11 34 l l l l = 3,11 2,06 0,97 0,10 =L b 4 3 2 1 Incógnitas: b a =X a Modelo matemático funcional: y = ax + b La = AX Modelo matemático na forma matricial: 14141224 V=Lb-X A v v v v = 3,11 2,06 0,97 0,10 - b a 10 12- 14- 16- 4 3 2 1 Matriz peso: P = I desde que se considere que todas as medidas são de igual precisão Sistema de equações normais NXa - U = 0 Onde 3,078 0,506 = .UN = X 6,24 8,60- = PLA = U 412- 12-56 = PAA = N 1- a b T T Estimativa da precisão: 0,00574= 2 01148= u-n PVV= 0,032- 0,006 0,084 0,058- =L-AX=V T 2 0 b ,0 σ̂ 35 Precisão de Xa Xa 0 2 -1= . N = 0,000287 0,000861 0,000861 0,004018 Σ $σ Precisão de La aL = 0,042 1,054 2,066 3,078 Σ Σ 0,0040180,0022960,0005740,001148- 0,0022960,0017220,0011480,000574 0,0005740,0011480,0017220,002296 0,001148-0,0005740,0022960,004018 = AAN.= La T-12 0La σ 2. Ajustar a rede de nivelamento representada na figura: As altitudes A, B, F e G são consideradas fixas e iguais a: HA = 1000,182 m HB = 1004,356 m HF = 1010,860 m HG = 1005,429 m Os desníveis medidos com aclive no sentido das setas foram: h1 = 4,185 m h2 = 8,340 m h3 = 6,008 m h4 = 4,005 m h5 = 12,851 m h6 = 7,428 m Considerar que todas as observações tenham a mesma precisão. 36 Observações: 7,428 12,851 4,005 6,008 8,340 4,184 = h h h h h h = l l l l l l =L 6 5 4 3 2 1 6 5 4 3 2 1 b Incógnitas: H H H = x x x =X E D C a 3 2 1 Modelo matemático: C A 1 A C 1 1 C B 2 B C 2 2 D C 3 D C 3 3 E D 4 D E 4 4 F E 5 F E 5 5 G E 6 G E 6 6 H = H - h H - H = h + v H = H - h H - H = h + v H = H + h ou H - H = h + v H = H - h H - H = h + v H = H + h H - H = h + v H = H + h H - H = h + v $ $ $ $ $ $ $ $ $ $ $ $ $ $ Modelo na forma matricial: -1 0 0 -1 0 0 -1 1 0 0 1 -1 0 0 -1 0 0 -1 H H H + H -h H -h -h -h H -h H -h = v v v v v v C D E A 1 B 2 3 4 F 5 G 6 1 2 3 4 5 6 onde: 1636 L = 998,001 998,009 4,005- 6,008- 996,0l6 995,997 e A= 1-00 1-00 1-10 011- 001- 001- Matriz peso: P = I Sistema de equações normais: 37 998,00575 1002,01225 996,00575 =UN-=X 1992,005- 10,013- 1986,005- =PLA=U 31-0 1-21- 01-3 =PAA=N 1- a TT Estimativa de precisão: 0,000073= u-n PVV= 0,00475- 0,00325 0,00150 0,00150- 0,01025 0,00875- =L+AX=V T 2 0 a σ̂ Σ 0,000030,000020,00001 0,000020,000050,00002 0,000010,000020,00003 =N.= 1-20x σ̂ 3. Utilizando ajustamento paramétrico estimar as altitudes dos pontos B, C e D da rede: Sendo HA = 200m e HE = 320m altitudes fixas e hi medidos como: h1 = 79,91m; h2 = 30,04m; h3 = 19,96m; h4 = 9,93m Considere a matriz P = I 4. Calcular os parâmetros da transformação: X Y = a b c d x y + X Y o o considere o vetor [X Y]T como observações e o vetor [x y]T como isento de erros: Parâmetros a determinar: [a b c d X0 Y0 ]T 38 Coordenadas de pontos dados: Pontos nº x y X Y 01 100,0 200,0 1.700,0 100,02 02 50 80 1.310 550 03 120 -60 1.260 -1.130 04 -100 70 840 -750 5. Seja o triângulo plano ABC com as seguintes observações: A = 40°19'02'' = l1 B = 70°30'01'' = l2 C = 69°11'00'' = l3 Todos os ângulos foram medidos com igual precisão. Considere os ângulos A e B como parâmetros incógnitos x1 e x2 e ajuste. 6. Uma linha de nivelamento foi feita ligando dois pontos A e D de altitudes conhecidas conforme figura. As altitudes A e D são respectivamente 842,00m e 785,53m. As setas na figura indicam o declive. Seção desnível distância AB = h1 32,54m 2 Km BC = h2 5,93m 1 Km CD = h3 17,97m 2,5 Km A distância de cada seção é representada por di e o desnível medido por hi, dados na tabela. As observações não são correlacionadas e as variâncias (σ²i) são proporcionais às distâncias (di) em Km. Calcular as altitudes HB e HC ajustadas usando ajustamento paramétrico. 7. O segmento AD foi subdividido em três partes aproximadamente iguais e seis medidas de comprimento foram efetuadas conforme ilustra a figura. A___________B__________C__________D Os valores observados foram: AB=l1 = 100,01; BC=l2 = 99,97; CD=l3 = 100,02; AC=l4 = 200,04; BD=l5 = 199,98 e AD=l6 = 299,96. Os pesos das observações são inversamente proporcionais às distâncias. Estimar as distâncias ajustadas entre AB, BC e CD. 39 8. Considere a seguinte rede de nivelamento: As setas indicam o sentido do aclive. O ponto A é admitido possuir altitude 0. As variâncias são proporcionais às distâncias em Km. As observações são dadas pela tabela. Estações Seção de para Desn. hi(m) Comp.(Km) 01 02 03 04 05 06 A A C A B B C D D B D C 6,16 12,57 6,41 1,09 11,58 5,07 4 2 2 4 2 4 Ajuste a rede parametricamente e compute HB, HC e HD. 09. Determinar as coordenadas planas (x,y) do ponto P, a partir da medida de três distâncias de pontos conhecidos A, B, e C a P. Coordenadas dos pontos conhecidos: A = (200,00; 400,00); B =(600,00; 700,00); C = (1100,00; 300,00) Coordenadas aproximadas de P: P (585,00; 112,00) Distâncias medidas com σ = ±0,05m: 3 5 40 AP = 499,92m BP = 600,02m CP = 538,48m Incógnitas (parâmetros): y x = X X =Xa 2 1 Observações: 538,48 600,02 499,92 = CP BP AP = l l l = Lb 3 2 1 Parâmetros aproximados: ]y X[ = ]112,00 [585,00=X T00 TT 0 Modelo matemático: ( )d = (x - x ) + (y - y ) 1/ 2i 2 i 2 ou ( ) ( ) ( ) 1 1 1/ 2 A 2 A 2 2 2 1/ 2 B 2 B 2 3 3 1/ 2 C 2 C 2 F d = (x - x ) +(y - y ) F d = (x - x ) - (y - y ) F d = (x - x ) +(y -Y ) → → → Modelo matemático linearizado: V=L+AX onde: ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ aa aa aa = X = X y F x F y F x F y F x F =A 3331 2221 1211 0 33 22 11 9,7617 11,8287- 19,1196- = L 548,24 588,19 480,80 = L ; 0,3429-0,9394- 0,9997-0,0255- 0,5990-0,8007 = A L - )F(X = L-L = L 0 bb 00 41 Sistema de equações normais: NX + U = 0 onde: 7972,0386 9671,2793- =PLA=U 590,29752,813- 52,813-609,703 =PAA=N T T Cálculo da correção dos parâmetros aproximados: X = - N U = 1 4 ,8 0 7 2 - 1 2 ,1 8 0 3 -1 Parâmetros corrigidos: a 0X = X + X = 5 9 9 ,8 0 7 2 9 9 ,8 1 9 7 Correção máxima X1 = 14,8072 > δ (δ = 0,01 como critério de convergência), iteração é requerida, Xa é o novo X0. Os coeficientes A e L são reavaliados e tem-se: 100,0261 599,9823 =X; 0,2065 0,1751 =X 114,309- 94,035- =;U 599,42153,947- 53,947-600,579 =N 0,2825 0,1604 0,0340 =L; 0,3716-0,9284- 1,0000-0,0003- 0,6004-0,7997 =A a Correção máxima X2 = 0,2065 > 0,01 (δ iteração é requerida, Xa é o novo X0). Oscoeficientes A e L são reavaliados e tem-se: 100,0261 599,9823 =X; 0,000027 0,000027- =X 0,01752- 0,01746 =U; 599,14954,071- 54,071-600,851 =N 0,0432 0,0461 0,0502 =L; 0,3713-0,9285- 1,0000-0,0000 0,6000-0,8000 =A a Correção máxima X3 = 0,000027 < δ (= 0,01), convergência satisfatória. α = 45°00' com σ = 2' 42 Estimativa de precisão: Σ 0,004380,00039 0,000390,00437 = N. = 2,6046= u-n PVV= 0,0432 0,0461- 0,0502 = L + AX = V 1-2 0x T 2 0 σ σ ˆ ˆ 10. Determinar as coordenadas (x, y, z) de um ponto P, a partir das medidas de 5 distâncias de pontos conhecidos A, B, C, D e E a P. As coordenadas medidas dos pontos conhecidos são: P ° (530,0; 480,0; 350,0) E as distâncias medidas com σ = ± 0,1m são: A P = 5 4 1 ,2 8 B P = 5 8 1 ,6 0 C P = 7 8 8 ,3 0 D P = 1 0 1 0 ,9 1 E P = 5 5 7 ,7 8 11. Determinar os parâmetros a, b e c da parábola y = f(x) que melhor se ajuste às observações das coordenadas: Ordenadas (yi) Precisão (σi) Abcissas (xi) -0,98 -2,03 1,99 -1,04 6,97 2,01 0,03 0,03 0,01 0,04 0,04 0,01 0 1 -1 2 -2 3 As abcissas xi são isentas de erros. 12. Determinar as coordenadas planas do ponto P(X,Y), da figura, com o respectivo referencial AXY dado. As coordenadas dos pontos são: A(0,0) B(10,0) C(15,0) Os valores dos ângulos observados αi, i = 1, 2, 3, foram medidos 1 1 K - X 43 α2 = 66°48' com σ2 = 2' α3 = 41°11' com σ3 = 1' e a distância PA = d = 9,91m foi medida com σ4 = ± 5mm. Os parâmetros (X,Y) aproximados são: X0 = 6,4 e Y0 = 6,6 Incógnitas (parâmetros): Y X = X X = Xa 2 1 Observações: ° ° ° 9,91m rad 0,718785 rad 1,165879 rad 0,785398 = 9,91m 41,1833 66,8000 45,0000 = l l l l =Lb 4 3 2 1 Parâmetros aproximados: 6,6 6,4 = X X =X 2 1 0 Peso: 40.000000 0,011.818.10300 0072.954.525,0 00072.954.525, =P44 Modelo matemático funcional: ( ) → → → → Yarctg= )Y-(Y+)X-(X=PAF X-15 Yarctg=F X-10 Yarctg=F X Yarctg=F 2 0 2 0 1 22 1 α α α α 2/ 4 33 1 MÓDULO I – TOPOGRAFIA, AJUSTAMENTO DE OBSERVAÇÕES E INTRODUÇÃO AO GEORREFERENCIAMENTO... 44 Modelo matemático linearizado: X + L = V Roteiro para a solução do problema: 1ª iteração: Sistema de equações normais: N1X1 + U1 = 0 Cálculo da correção aos parâmetros aproximados: X1 Parâmetros corrigidos: Xa = X0 + X1 Correção máxima X1 = 0,59305 > 0,001 = σ (σ = critério de convergência), nova iteração é requerida, Xa é o novo X0. Os coeficientes A e L são reavaliados e tem-se, 2ª iteração: Cálculo da correção X2 e do novo valor corrigido Xa + X0 + X2 Correção máxima X2 = -0,01566 > 0,001 = σ, nova iteração é requerida, Xa é o novo X0. Os coeficientes A e L são reavaliados e tem-se, 3ª iteração: Idem, Idem sequencia anterior para X3 e novo Xa Correção máxima X3 = 0,00006 < σ, convergência satisfatória. Estimativa de precisão: a cargo do leitor... 45 7.1 - CONCEITO O ajustamento de modelos matemáticos implícitos, frequentemente chamado modelo implícito ou método combinado de ajustamento, é mais geral que o método paramétrico visto na seção anterior. Seu modelo matemático funcional é: F(Xa,La) = 0 (7.1) onde Xa e La são como definidos anteriormente e F é uma função genericamente não linear. 7.2 - FORMA LINEAR DO MODELO Com o propósito de obter um modelo linear, F será expandido em série de Taylor. Os valores observados dados pelo vetor Lb e os parâmetros aproximados X0, constituirão o ponto de expansão inicial da série, que será truncada de modo que somente os termos lineares sejam considerados, como foi mencionado no caso paramétrico não linear, o erro decorrente dessa aproximação depende da qualidade dos valores dados ao ponto de expansão. Representando por X as correções aos valores aproximados X0 e por V as correções às observações Lb a expansão F pode ser escrita como: )(|)(|),(),( 00 0 ba LLa a XXa baa LLL FXX X FLXFLXF baa − ∂ ∂ +− ∂ ∂ += == ou AX + BV + W = 0 (7.2) Onde 0 | XXa aX FA =∂ ∂ = (7.3) ba LLaL FB =∂ ∂ = | (7.4) W = F(X0,Lb (7.5) e X = Xa - X0 (7.7) V = La - Lb (7.7) É oportuno notar que a aproximação expressa pela equação (7.2) tende ao valor da F(Xa,La) quando F(X0,Lb) → F(Xa,La). O propósito agora é resolver o sistema (7.2) com respeito a X e V, onde supõe-se independência entre os parâmetros. 7 - Ajustamento Método Implícito 46 Seja m o número de equações do sistema, u o número de parâmetros X e n o número de observações. O sistema (7.2): 0111 =++ WVBXA mnnmuum (7.8) constitui um sistema de equações lineares com (n+u) incógnitas a m equações, com (m<(n+u)) a ser resolvido em X e V. O princípio do MMQ, (5.11), então deve ser usado. 7.3 - SISTEMA DE EQUAÇÕES NORMAIS Para resolver o sistema (7.8) impondo também o princípio do MMQ, Φ = VTPV = min (7.9) usar-se-á o método de mínimos quadrados imposto através dos multiplicadores de Lagrange, que consiste em minimizar a função: Φ = VT PV + 2KT (AX + BV + W) (7.10) Notar que quando a equação (7.8) é satisfeita o parêntese da equação (7.10) se anula. Para minimizar Φ, suas derivadas parciais com respeito a X, K e V são igualadas a zero. Então tem-se: TTTT TT BKPV V e WBVAX K AK X )(2)(2 )(2 )(2 += ∂ Φ∂ ++= ∂ Φ∂ = ∂ Φ∂ que podem ser escritas como: ATK = 0 (7.11) PV + BTK = 0 (7.12) AX + BV + W = 0 (7.13) Tem-se agora um conjunto de (u+n+m) equações respectivamente procedentes das equações (7.12), (7.13) e (7.11) e o mesmo número de incógnitas. O sistema global pode ser escrito, em forma matricial, como: P B O B O A O A O . V K X + O W O = 0 T T (7.14) que constitui o sistema de equações normais. 47 Para pequenos problemas, é possível resolver o sistema de equações normais através da inversão da hipermatriz de coeficientes. Para inversa de Cayley, supondo não singularidade, tem-se: − O W O . OAO AOB OBP = X K V T T 1 (7.15) Esta solução, no entanto, não é recomendável porque é muito dispendiosa computacionalmente. Como se sabe, o tempo de processamento cresce com o cubo da ordem da matriz a ser invertida, além do problema de espaço de armazenamento. 7.4 - SOLUÇÃO DAS EQUAÇÕES NORMAIS Visando a obtenção de uma solução computacional mais atrativa, considere-se a equação (7.14). O O O = O W O + X K V . OAO AOB OBP T T ou NY + U = O (7.16) que pode ser particionada em: 11 12 21 22 1 2 1 2 N N N N Y Y + U U = 0 (7.17) e que pode ser desenvolvida em: N11Y1 + N12Y3 + U1 = 0 (7.18) N21Y1 + N22Y2 + U2 = 0 (7.19) Supondo N11 não singular a (7.18) pode ser escrita: )YN+U(N-=Y 2121-1111 (7.20) que substituída na (7.19), dá: 0=)UNN-U(+Y)NNN-N( 1-111212212-1112122 (7.21) Aplicando o deduzido na equação (7.21) ao sistema de equações normais após particioná-lo convenientemente: X = - (ATPA)-1 AT PW 48 P B O B O A O A O . V K X + O W O = 0 T T M K K K K M M K K tem-se [ ] [ ] 000 11 = − −− P O B - O W + X K BP O B OA AO T T ou efetuando - BP B A A O K X + W O = 0 -1 T T Repetindo o processo para eliminar a variável K tem-se: - BP B A ....... ...... A O K .... X + W .... O = 0 -1 T T (7.22) com a aplicação da (7.21) resulta: AT(BP-1BT)-1 A X + AT(BP-1BT)-1 W = 0 (7.23) ou X = - [AT(BP-1BT)-1 A]-1 AT(BP-1BT)-1 W (7.24) Da primeira equação matricial em (7.22), tem-se: K = (BP-1BT)-1 (AX + W) (7.25) e da primeira equação em (7.15) tem-se: PV + BTK = 0 donde V = - P-1 BT K (7.26) As equações (7.24), (7.25) e (7.26) pressupõem não singularidade das matrizes a serem invertidas por Cayley, e constituem a solução de mínimos quadrados do modelo implícito ou método combinado. 7.4.1 Particularização para o Caso Paramétrico Sendo o ajustamento paramétrico um caso particular do método combinado, suas equações (6.6) e (6.10) podem ser obtidas das (7.26), (7.25) e (7.24), fazendo B = -I (I = matriz identidade). Da (7.24) resulta: 49 e da (7.26) e (7.25) temos: V = +P-1K = P-1P(AX + W) V = AX + W Com W= L e L= F(X0 – Lb) 7.5 - MÉTODO DOS CORRELATOS COMO CASO PARTICULAR DO COMBINADO O ajustamento pelo método dos correlatos, classicamente chamado método das equações de condição ou das observações diretas condicionadas, consiste no ajustamento somente de observações (os parâmetros não participam do ajustamento). O modelo matemático assume então a forma: F(La) = 0 (7.27) ou na forma linear: BV + W = 0 (7.28) A equação (7.28) corresponde à (7.8) com A = 0 (derivada parcial com respeito aos parâmetros é zero, já que estes não existem no modelo). A solução da equação (7.28), para V, é obtida da (7.26) e (7.25) fazendo-se A = 0 nestas equações: V = -P-1BT(BP-1BT)-1 W (7.29) K = (BP-1BT)-1 W (7.30) e BP)BBP(BP-P(= -1-1T-1T-1-120La σ̂Σ Quando o modelo matemático é não linear, no caso paramétrico ou combinado, envolve a estimativa de X, e este deve ser adicionado aos valores aproximados dos parâmetros X0 para obter o valor ajustado Xa, isto é: Xa = X0 + X (7.32) Da mesma forma o vetor dos resíduos V, em todos os casos, deve ser adicionado ao vetor dos valores observados Lb, tal que: La = L b + V (7.33) 7.6 - ITERAÇÃO NO MÉTODO COMBINADO Os resultados das equações (7.32) e (7.33) só seriam os resultados finais se os valores utilizados como ponto de expansão da série de Taylor X0 e Lb estivessem suficientemente próximos dos pontos Xa e La. Geralmente este não é o caso e iterações são requeridas. 50 Chamando de ia i aeLX os valores finais após a iteração i; de Xi , Vi as correções estimadas na iteração i e de Ai, Bi e Wi os coeficientes da i-ésima iteração no ponto de expansão i -1. A expansão da função F em série de Taylor, dá: )L,XF(+)L - L( L F +XX X F = )L,X( F i a i a i a i a LL i a i a i a XX i a i a i a i a i a i a i a 111 1 1 1 | )(| −−− = − = − − ∂ ∂ − ∂ ∂ como 11 −− −+−=− iabb i a i a i a LLLLLL pode-se escrever: 0),()( 111 =+−++ −−− ia i a i abiiiii LXFLLBVBXA ou ainda AiXi + BiVi + Wi = 0 (7.34) onde: ),()( 111 −−− +−= ia i a i abii LXFLLBW (7.35) Na primeira solução (i = 1) o ponto de expansão 00 aa eLX devem ser dados com boa aproximação dentro dos limites da natureza da não linearidade do problema considerado. Para 0aL pode-se adotar Lb observado e para 0 aX é recomendável que se obtenha valores através de uma solução única a partir de um subsistema do sistema original. Ter-se-ia então: 1. Na solução inicial: A1X1 + B1V1 + W1 = 0 (7.36) Onde A1, B1 e W1 são as matrizes determinadas no ponto de expansão da série de Taylor ),( 0 ba LX e onde W1 tem um só termo como na (7.5) pois o primeiro termo do segundo membro da equação (7.35) desaparece já que b i a LL = −1 . Utiliza-se as equações (7.24), (7.26) (7.32) e (7.33) para obter: 1 1 1 01 VLL XXX ba aa += += 2. Primeira Iteração: o ponto de expansão é agora 11 , aa LX , e para i = 2 temos: A2X2 + B2V2 + W2 = 0 Onde A2 , B2 e W2 são matrizes cujos elementos são determinados com os valores ajustados na iteração anterior, assim: 51 ),( 11 −−= ia i aii LXAA (7.38) ),( 11 −−= ia i aii LXBB (7.39) ),()( 111 −−− +−= ia i a i abii LXFLLBW (7.40) e semelhantemente estima-se: ib i a i i a i a VLL XXX += += −1 (7.41) 3. Segunda Iteração: O processo iterativo continua até a convergência, admitida esta, numa iteração i ou através de um teste comparativo da diferença dos parâmetros ajustados numa iteração i com os da iteração i–1 ser menor que um δ pré estabelecido. Notar que Xi tende a zero no ponto de convergência e que Vi tende a se estabilizar num vetor que representa as correções mais prováveis às observações originais Lb. Considerando a equação (7.35) ),()( 111 −−− +−= ia i a i abii LXFLLBW e considerando que na convergência i a i a i a i a XX LL = = − − 1 1 então: 0),( =ia i a LXF e ii i abii VBLLBW −=−= )( (7.42) 7.7 - PRECISÃO DOS VALORES ESTIMADOS Considerando a equação (7.5) W = F(X0,Lb), tem-se: w L T = B BΣ Σ (7.43) que representa a propagação da variância-covariância para o erro de fechamento W. Da equação (7.24) tem-se: X = C.W onde C = -N-1 AT (BP-1BT)-1 C C = Twx ΣΣ ou, substituindo C pelo valor acima vem, com alguma simplificação algébrica N = )A )B (BA( = -1-1T-1TLTx ΣΣ Geralmente quando se efetua um ajustamento não se conhece ΣL plenamente. Então adota-se ou arbitra-se um certo (σ0) (a-priori), normalmente igual a unidade tal que: 52 12 0 −Σ= LP σ (7.44) e trabalha-se ao longo do ajustamento com esta expressão. Finalmente o fator 20σ̂ , deve ser estimado com a expressão: r PVV T =20σ̂ (7.45) com r graus de liberdade e introduzido a posteriori para estimar a precisão dos parâmetros: N = -120X a σ̂ˆΣ (7.46) A equação (7.46) seria usada somente quando ΣL não for plenamente conhecido, pois em caso contrário seria (σ0)2 neutro (= 1). Na prática estima-se sempre o fator 20σ̂ a posteriori e este serve para testar a qualidade do ajustamento e dos valores estimados ao mesmo tempo. Se 20σ̂ não passar no teste há a possibilidade da existência de erros grosseiros ou mal estimativa das variâncias das observações. O circunflexo acentua o fato do valor ser estimado: Lembrando que: La = Lb + V (7.47) e substituindo V e K das equações (7.26) e (7.25): V = -P-1 BT K K = (BP-1 BT)-1 (AX + W) temos La = Lb - P-1 BT (BP-1 BT)-1 (AX + W) (7.48) Substituindo ainda X por seu valor dado pela (7.24) tem-se: W)BBP(BP-W)BBP(A ]A)BBP(AA[)BBP(BP+L=L 1-T1-T1-1-T1-T -1-1T-1T-1T-1T-1 ba A matriz variância-covariância de La, pela lei de propagação de covariância será: ∂ ∂ Σ ∂ ∂ ∂ ∂ Σ ∂ ∂ Σ X L X L + L L L L = a T X a b a T L b a L aba (7.49) As expressões das duas derivadas parciais da (7.49) podem ser obtidas da (7.48); substituindo-se Lb por I e W por B para a derivada de La em relação a Lb , eliminando Lb e substituindo W por A para a derivada de La em relação a X. Efetuando a substituição das derivadas mencionadas na (7.48) e simplificando as expressões obtem-se: ) Q - Q ( = =)BPPBP-BPPAANPBP+P( = VL 2 0 -1 w T-1-1 w T-1 w T-1-12 0L a σ σ ˆ ˆΣ (7.50) onde 53 QL = P-1 Este mesmo resultado poderia ser obtido a partir da equação (7.47) com a aplicação da lei de propagação de covariâncias. )B (B = P BPPAANPBP-BPPBP=Q 1-T Lw -1 w T-1 w T-1-1 w T-1 v bΣ (7.51) A matriz variância-covariância dos resíduos seria portanto: Q - = v 2 0v σ̂Σ (7.52) 7.8 - EXERCÍCIOS 1.Determinar as coordenadas (X,Y,Z) do ponto P a partir das distâncias medidas com desvio padrão σ = 0,02mm de três pontos de coordenadas conhecidas A, B, C ao ponto P e dos ângulos verticais αA, αB,
Compartilhar