Baixe o app para aproveitar ainda mais
Prévia do material em texto
Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 87 CAPÍTULO III 3.1. Sistemas sensores de imageamento Existem diversos tipos de sensores de imageamento utilizados na fotogrametria e sensoriamento remoto. Os sistemas mais comuns são os detectores de arranjo matricial, arranjo linear, arranjo linear multiespectral, arranjo matricial multiespectral e os detectores de arranjo linear hiperespectral. Usualmente, os sensores são classificados como ativos e passivos. Neste capítulo, estão organizados de acordo com o tipo de tecnologia de imageamento utilizada pelo sensor. A Figura 3.1 mostra os sensores que serão estudados aqui. Figura 3.1. Tipos de tecnologia de imageamento. FONTE: Jensen, 2009. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 88 3.1.1. Sistemas passivos De todos os tipos de sistemas utilizados no processo de gravação de dados para medidas fotogramétricas, as câmeras ainda são muito empregadas. O marco inicial da evolução das câmeras aéreas se deve ao desenvolvimento do processo fotográfico e, posteriormente, à invenção das aeronaves. A partir deste instante, os tecnólogos iniciaram suas pesquisas em busca de tecnologia mais avançada, com a finalidade de melhorar os sensores para a aquisição dos dados, corrigir os efeitos de perspectiva, borramente provocado pelo arrastamento das imagens, resolução espacial, espectral, radiométrica, entre outros aspectos. A Figura 3.2 apresenta um breve histórico da evolução das câmeras aéreas destinadas ao mapeamento. Figura 3.2. Evolução das câmeras aéreas destinadas ao mapeamento. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 89 As câmeras aéreas tiveram sua primeira funcionalidade na I e II Guerra Mundial, com a finalidade da tomada de fotografias para fins de estratégia militar. A câmera do tipo handheld era utilizada de forma que um operador a segurava com as mãos para a tomada das fotografias. Percebe- se que, o uso desta câmera somente poderia ser útil para finalidades de reconhecimento, sendo totalmente desconsiderado seu uso para mapeamento cartográfico de precisão. Em 1922 surgiu a primeira câmera RMK C1, com dispositivos mecânicos mais avançados e um sistema de lentes superior à primeira câmera aérea desenvolvida. Com isto, o avanço graduado da tecnologia influenciou cada vez mais a melhoria dos sistemas de lentes. Desde então, câmeras aéreas com melhor qualidade geométrica e radiométrica estão sendo desenvolvidas. Na semana fotogramétrica (Photogrammetric Week) de 1999, foi anunciado o desenvolvimento da câmera digital de arranjo matricial DMC-Z/I e em 2002 ocorreu seu lançamento no mercado de mapeamento. Atualmente, existem três classificações de câmeras utilizadas na aquisição de imagens para mapeamento, isto é: Câmera métrica convencional; Câmeras digitais convencionais; e Câmeras métricas digitais. 3.1.1.1. Câmera métrica convencional Uma câmera métrica convencional é projetada especialmente para aquisição de fotografias para fins cartográficos, pois fornece precisão geométrica adequada para mapeamento. Uma câmera aérea com esta capacidade é denominada de câmera cartográfica. Esta classificação é Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 90 empregada na produção de mapas e cartas topográficas. As câmeras métricas são aquelas que possuem as denominadas marcas fiduciais, cuja finalidade é materializar o sistema referencial fiducial garantindo rigidez geométrica, devido ao plano focal ser estável. Este tipo de câmera utiliza rolos de filme para registro de objetos contidos na superfície física, no modo pancromático ou colorido. A Figura 3.3 apresenta algumas câmeras aéreas baseada em filmes. Figura 3.3. Câmeras aéreas baseadas em filmes. Fotografias tomadas com câmeras métricas convencionais são denominadas de fotografias analógicas e o processo de transformação de uma fotografia analógica para uma imagem digital ocorre por meio de digitalização da fotografia, via scanner fotogramétrico (ver capítulo I). As câmeras métricas convencionais são do tipo quadro fotográfico, ou seja, expõe um quadro de área do terreno em cada tomada de fotografia em um dado instante. Isto requer que as lentes forneçam uma cobertura Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 91 angular adequada para que seja gravada a porção da área de interesse. A Figura 3.4 apresenta um esquema gráfico de uma câmera de quadro fotográfico. Figura 3.4. Quadro de área no terreno. Este tipo de câmera fornece fotografias de tamanho 23x23 cm e permite recobrimento longitudinal de 60% à 90% e lateral de 10% à 30%, com uma resolução geométrica de 2,5 m (TOMMASELLI, 2001). As principais partes de uma câmera aérea métrica convencional de quadro fotográfico são o cone, o corpo da câmera e o magazine. O cone de uma câmera é utilizado como suporte para o sistema de lentes fixado em relação à superfície inferior do cone. A superfície superior do cone de uma câmera contém o plano focal que possui marcas de referência, denominadas marcas fiduciais. As marcas fiduciais materializam o sistema de coordenadas da fotografia resultante, ou sistema fotográfico. O corpo da câmera é constituído do cone externo (a função do cone externo é receber o cone interno e o mecanismo de avanço motorizado do Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 92 filme e servir de interface para o magazine) e de outras peças, tais como, suportes, alavancas de comando e dispositivos de controle automático do ciclo de funcionamento da câmera. Existem vários dispositivos para manter o filme plano, sendo o dispositivo de vácuo-sucção o mais comum. O magazine da câmera é utilizado para armazenar, avançar e aplainar o filme e possue um dispositivo de compensação de arrastamento (consiste em um borramento na imagem provocado pelo movimento relativo do objeto enquanto o obturador da câmera permanece aberto durante o tempo de exposição do filme). Para Tommaselli (2001), os dispositivos de compensação de arrastamento provocam um pequeno movimento sincronizado do negativo, na direção do voo, enquanto o obturador está aberto (Figura 3.5a). Este pequeno movimento elimina o arrastamento e melhora significativamente a qualidade da imagem (Figura 3.5b). Na Figura 3.5b mostra-se um magazine com um dispositivo de compensação, também chamado de FMC (Forward Motion Compensation) da câmera RMK-Top Zeiss. Figura 3.5. Compensação do arrastamento. (a) Borramento na imagemcausado pelo arrastamento. (b) Imagem sem arrastamento FONTE: Tommaselli, 2001. (a) (b) Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 93 A seguir serão apresentadas as características das câmeras digitais convencionais. 3.1.1.2. Câmeras digitais convencionais As câmeras digitais convencionais são classificadas em pequeno e médio formato, com modelos amadores e profissionais. As câmeras digitais amadoras não possuem rigidez geométrica e radiométrica da imagem. As câmeras digitais profissionais possuem lentes e componentes internos de melhor qualidade geométrica, porém ainda não alcançam a precisão das câmeras métricas convencionais. Estes modelos têm sido bastante utilizados em projetos de cunho científico e, desde que devidamente calibrados, podem ser utilizados para trabalhos fotogramétricos de baixa precisão. As câmeras de pequeno e médio formato possuem algumas vantagens em relação às câmeras métricas convencionais, tais como, são leves e de fácil manejo, seu custo é reduzido, possuem um intervalo de distâncias focais, flexibilidade de integração com sistemas GPS e INS, podem ser integrados em diversos tipos de aeronaves e grande disponibilidade no mercado. 3.1.1.3. Câmeras métricas digitais 3.1.1.3.1. Sistema Tri-Linear De acordo com Fricker et al (2000), o sistema Tri-Linear possui 3 sensores CCD com configuração de varredura linear, cuja amostragem do terreno é feita em 3 faixas. O sistema consiste de 3 sensores lineares posicionados no plano focal, cujas visadas são denominadas de anterior, nadir e posterior. Tal disposição garante a geometria e a cobertura Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 94 estereoscópica da superfície. Os sistemas Tri-lineares também possuem sensores multiespectrais com sensibilidade controlada por filtros RGB e infravermelho próximo, localizados próximos ao nadir. A Figura 3.6 mostra as visadas anterior, nadir e posterior do sistema Tri-Linear. Figura 3.6. Visadas de aquisição de imagens do sistema Tri-Linear. Com o sistema Tri-Linear todos os objetos aparecem em todas as três faixas coletadas pelos sensores. A Figura 3.7, mostra duas imagens adquiridas com o sistema supracitado nas visadas anterior e nadir. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 95 Figura 3.7. Imagens originais de visada anterior e nadir, adquiridas pelo sistema Tri-Linear. FONTE: Haala, 2001. Como pode ser percebido na Figura 3.7, as imagens originais apresentam-se distorcidas e por isso é necessário um tratamento da imagem (correção geométrica para ajustar as linhas imageadas). Tal tratamento é baseado no emprego dos parâmetros de posição e atitude fornecidos pelo sistema de integração GPS/INS. A partir destes parâmetros é realizada uma retificação inicial das imagens, seguida de fototriangulação para o refinamento da solução (para maiores detalhes ver HAALA, 2001). A Figura 3.8 apresenta as imagens retificadas. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 96 Figura 3.8. Imagens retificadas de visada anterior e nadir, adquiridas pelo sistema Tri-Linear. FONTE: Haala, 2001. Existem dois modelos de câmeras baseadas na abordagem Tri- Linear, isto é, as câmeras HRSC-A (desenvolvida pelo Centro Espacial da Alemanha) e ADS 40/80 (Desenvolvida pelo convênio Leica Geosystems e Centro Espacial da Alemanha). O crescente desenvolvimento dos sensores digitais fotogramétricos aerotransportados, aponta para a uma grande mudança na forma de aquisição, processamento, manuseio e geração de produtos a partir de imagens aéreas, permitindo a sua aplicação para diferentes áreas do conhecimento, proporcionando uma redução no tempo de produção (processamento totalmente digital), melhor resolução espacial e radiométrica, aquisição simultânea de imagens pancromáticas e multiespectrais, mais flexibilidade e custos mais baixos. Com base no tamanho do formato de aquisição da imagem os sensores podem ser divididos em: a) pequeno formato: geram imagens com tamanho de até 16 megapixels; b) médio formato: geram imagens entre 16 e 40 megapixel; Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 97 c) grande formato: geram imagens acima de 40 megapixel (PETRIE et alii, 2007) . De acordo com Petrie etl al. (2007) os sensores de grande formato existentes no mercado são os sensores matriciais (por exemplo, ITT, DIMAC, DMC Z/I, Ultracam-D e UltracamX), sensores de varredura linear no modo monocromático (GLOBAL SCAN), sensores de varredura linear no modo colorido (VOS 60 e VOS-80: Zeiss), sensores de varredura linear no modo hiperespectral (ITRES RESEARCH), sensor tri-lineares e varredura linear estéreo (HRSC-AX e HRSC-AXW, ADS40 e a 2ª geração ADS80 da Leica). Aqui será tratado apenas o sensor digital ADS 40 de varredura linear. Câmera ADS 40 Como descrito anteriormente, lançado no XIX Congresso ISPRS de Amsterdã realizado em Julho de 2000, o sensor digital aerotransportado, figura 3.11, da LH Systems inicia uma nova era da fotogrametria digital, apropriadamente colocado no início do novo milênio. Desenvolvido em conjunto com o Deutsche Zentrum für Luft - und Raumfahrt (Centro Aeroespacial Alemão – DLR) em Berlin (SANDAU et al., 2000), o ADS40 foi o primeiro dispositivo imageador digital aerotransportado com capacidade e performance, em termos de resolução e cobertura, nas medidas similares as estabelecidas pelas câmeras aéreas analógicas de filmes com formato 23 x 23 cm e resolução maior do que 100 linhas por milímetro (FRICKER et al., 2001). O ADS40 é uma câmera métrica digital com sensor linear de alta resolução espacial, radiométrica, cuja resolução espectral sensibiliza a região do espectroeletromagnético no visível e infravermelho próximo. Tal sensor utiliza o princípio de varredura linear com três sensores CCDs, Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 98 organizadas perpendicularmente à direção de voo (denominado pushbroom), obtendo desta forma uma visada anterior, uma visada vertical e outra visada posterior, possibilitando a geração de modelos estereoscópios. A Figura 3.9 mostra uma imagem da câmera instalada em uma aeronave. Figura 3.9. (a) Câmera ADS40 – LEICA. (b) Câmera instalada na aeronave. FONTE: Fricker, 2001. (a) (b) Este tipo de câmera utiliza três componentes básicos para aquisição de imagens,tais como, uma câmera digital de arranjo linear, receptor GPS para alimentação do sistema de navegação INS e o próprio sistema para determinação da posição e da atitude da aeronave, no momento da varredura de cada linha no terreno. O sensor digital linear fornece imagens do terreno por meio de varreduras contínuas com as características do sistema Tri-Linear. A câmera digital possui um sistema de lentes com uma ou mais distâncias focais, 3 a 5 sensores lineares no modo Pancromático (estéreo) e de 3 a 7 sensores multiespectrais (RGB e infravermelho). A Figura 3.10 apresenta a varredura contínua e o esquema de varredura para cada tipo de modo (PAN e Multiespectral). Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 99 Figura 3.10. Varredura contínua e seus modos de imageamento. O campo de visada (FOV) do modo PAN anterior é de 28.4 0 , enquanto que o PAN posterior é de -14.2 0 ambos em relação a visada nadiral. Isto faz com que se tenha uma imagem estereoscópica e possibilita a visualização tridimensional. Tais valores angulares estão fortemente correlacioandos com os diversos tipos de aplicações de mapeamento topográfico em terrenos planos (30-60 graus), terrenos montanhosos (10-40 graus) e aplicações em áreas suburbanas (20-40 graus) áreas urbanas (10- 25 graus) entre outras aplicações. Para os sensores multiespectrais a visada do infravermelho posterior é de -2.0 0 e a visada RGB anterior é de 16.1 0 . Algumas vantagens deste tipo de sistema em relação às câmeras convencionais são: A projeção da imagem é perspectiva paralela. Neste tipo de projeção a componente de deslicamento na direação da linha de voo é igual para diferentes altitudes, ao longo da faixa. Tornando possível a visualização tridimensional de imagens similar àquela vista em pares estereoscópicos; Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 100 Número de imagens para o recobrimento aéreo da região de interesse é menor; Resolução multiespectral melhor que as imagens de satélite de alta resolução; Produtos obtidos de forma ligeiramente mais rápida; Sem a necessidade de rolos de filme, laboratório fotográfico e scanners; e Resolução de 8 a 12 bits, permitindo a visualização de objetos obstruídos por sombra. Além das câmeras digitais de sensor linear também existem as câmeras digitais de sensor matricial. A Tabela 3.1 apresenta algumas diferenças entre a câmera digital de sensor linear e de sensor matricial. Tabela 3.1. Diferenças básicas entre câmera digital de sensor linear e matricial. Adaptado de Fricker, 2001. ADS – 40 (Airbone Digital Sensor) DMC (Digital Mapping Camera) Sensor CCD de arranjo linear Sensor CCD de arranjo matricial PAN (24000 pixels) PAN (13826 x 7680 pixels) MS – R,G,B e NIR * MS – R,G,B e NIR Tamanho do pixel 6,5 x 6,5 m Tamanho do pixel 12 x 12 m 1 lente telecêntrica 4 lentes da Zeiss (PAN) + 4 lentes (MS) Distância focal 62,7 mm Distância focal 120 mm (PAN) e 25,4 mm (MS) FOV 64 0 FOV 74 0 x 44 0 12 bits / 8 bits 12 bits Sistema inercial/GPS Sistema inercial/GPS (opcional) Resolução espacial mínima 15 cm Resolução espacial mínima 5 cm Memória 540 GB Memória 840 GB (> 2000 imagens) *NIR: infravermelho próximo. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 101 Figura 3.11. Sensor ADS 40. Adaptado de Fricker et al., 2005. Na aquisição de imagens aéreas com o ADS40, todos os objetos são gravados três vezes em 100% das cenas ou visadas, enquanto em uma câmera aérea analógica, a aquisição da imagem é obtida com 60% ou 50% de posição de todos os objetos em três fotografias diferentes (Figura 3.13). Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 102 Figura 3.13. Sobreposição de imagens na ADS40. Adaptado de Fricker et al., 2005. O ADS40 gera imagens de faixas contínuas sem emendas ao longo de cada linha de voo (Figura 3.14) e em diferentes perspectivas lineares (Figura 3.15) propiciando uma faixa de imagem denominada quase- ortogonal (Fricker, 2005). Figura 3.14. Imagem Pancromática com visada vertical e imagem retificada. Adaptado de Fricker et al., 2000. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 103 Figura 3.15. Efeito da perspectiva linear. Adaptado de Fricker et al., 2000. O ADS40 possui uma unidade de medida inercial composta pela integração GPS/INS. O uso de GPS/INS fornece ao sistema a capacidade de determinar continuamente o deslocamento espacial do sensor de forma autônoma, apresentando precisão suficiente para o georreferenciamento direto de imagens digitais (MCMILLAN et al., 1994; CRAMER et al., 2001; CRAMER, 2003) possibilitando a realização de mapeamento com maior flexibilidade e rapidez (RUY, 2004). A Figura 3.16 mostra um esquema representando o uso da tecnologia de integração GPS/INS. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 104 Figura 3.16. Esquema ilustrando a integração de sensores de posicionamento, navegação e imageamento. Adaptado de Fricker et al., 2000. O plano focal, figura 3.17a, consiste de quatro conjuntos lineares de CCD: dois deles contendo duas linhas e os outros dois contendo três linhas, figura 3.17b, cada linha com duas matrizes de 12.000 pixels (SANDAU et alli, 2000) separadas por uma distância de 3,5 m, sendo, 6,5 x 6,5 m a dimensão de cada pixel, que permitem medir os valores absolutos dos fótons que entram no sistema, como uma função de transferência linear. Os dois conjuntos de CCD externos, formados com 2x12.000 pixels operam a banda pancromática, e os dois conjuntos internos, divididos em, um conjunto contendo 3x12.000 pixels que opera as bandas RGB (vermelho, verde e azul) e o outro conjunto também com 3x12.000 pixels que opera, com duas linhas a banda pancromática e uma linha, a banda do infravermelho próximo (NIR). Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 105 Com esta disposição o sensor tem capacidade de gerar imagens no pancromático anterior com o primeiro conjunto linear de CCD, imagens multiespectrais nas bandas RGB (vermelho, verde e azul) com o segundo conjunto, imagens no pancromático (visada vertical) com as duas primeiras linhas e na banda do infravermelhopróximo com a terceira linha do terceiro conjunto de CCD e imagem no pancromático (visada posterior) com o primeiro quarto conjunto, figura 3.17c. Figura 3.17. Plano focal com a posição do sensor CCD linear e a composição de bandas da imagem. Adaptado de FRICKER et alli, 2000. Sistema Óptico Digital e Filtros A ótica inovadora da ADS40 é projetada para uso em fotogrametria e sensoriamento remoto. A lente é semelhante em suas dimensões externas, peso e resolução as lentes da câmera RC-30 com filme, sendo diferentes em relação ao modo de gravação, pois, enquanto nas câmeras com filme a Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 106 minimização da distorção é primordial, a maior demanda requerida em câmeras digitais é o telecentrismo das imagens, em função do trabalho com bandas multiespectrais, (SANDAU et alli, 2000). O sistema ótico digital possuí, uma lente telecêntrica de distância focal de 62,5 mm, figura 3.18, tamanho de pixel na imagem de 6,5 m, uma abertura de visualização no solo com campo de visão FOV (em inglês, Field of View) com ângulo de cobertura de 64°, diafragma com abertura f:4, ângulos estéreos de 16° (visada vertical para anterior), 26° (visada posterior para vertical) e 42° (visada anterior para posterior), faixa espectral entre 428 e 887 nanômetro (R:608,662nn; G:533-587nn; B:428-492nn; NIR1:703- 757nn e NIR2:833-887nn), resolução de 150 linhas por mm, precisão geométrica de 1 m, medida dinâmica de 12-bit, resolução radiométrica de 8-bit; vermelho com freqüência de 200-800 HZ, capacidade de armazenamento com capacidade de 200-500 GB, estabilização térmica e barométrica na faixa de alta precisão de +10° até +30°, distorção radial menor ou igual a 3%, filtros de bandas e de interferência metálica além dos filtros para bandas RGB mantendo a qualidade campo visual do sensor (SANDAU et alli, 2000 e FRICKER et alli, 2005a). Figura 3.18. Sistema Ótico Digital ADS40. Adaptado de FRICKER et alli, 2000. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 107 Sistema de Feixes Trichroid (Tricóide) O sistema de divisão de feixes Trichroid desenvolvido pela Leica especialmente para a ADS40, foi concebido com uma perda mínima de energia, e garante que a luz, a partir da mesma área do solo, seja detectada por três arranjos lineares sensíveis ao RGB. Outra matriz linear sobre o plano focal captura os dados no infravermelho próximo, figura 3.19 (FRICKER et alli, 2001). Figura 3.19. Sistema Trichroid desenvolvido pela Leica para a ADS40. Adaptado de FRICKER et alli, 2000. Processamento e Aerotriangulação dos Dados do ADS40 Os metadados originais, com as imagens e parâmetros posicionais e de atitude do sensor no momento da tomada das imagens, permitem, a obtenção de uma visão estéreo, medidas manuais de pontos de controle e medidas automáticas de pontos fotogramétricos, e isto, garante o processamento e o ajustamento do bloco, resultando em uma imagem retificada com precisão e livre de paralaxe, que pode ser vista estereoscopicamente, e ser usada, por exemplo, para coleta e edição de feições cartográficas (FRICKER et alli, 2001). Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 108 As imagens são classificadas de acordo com os níveis de processamento em: a) Nível 0 (zero) – Dados Brutos: consistem em imagem geométricas básicas (formato TIFF e outros formatos) e dados de orientação processados; b) Nível 1 (um) – Dados Corrigidos: consistem em imagens multiespectrais e pancromáticas estéreo totalmente retificadas; c) Nível 2 (dois) – Dados Geoposicionais: consistem em ortofotos pancromáticas e multiespectrais. Os dados de nível zero utilizam o LH Systems ADS gerador nível zero e o pós processamento applanix, já os níveis um e dois utilizam o systems ADS gerador nível um, SOCET SET, DPW, ORIMA ou três pares fotogramétricos na estação de trabalho com sensor de modelo ADS (FRICKER et alli, 2001). Aplicações e contribuições para sistema digital aerotransportado Em função do sensor aerotransportado ADS40 possuir uma resolução espacial variando entre 0,8 m e 0,01m e uma resolução espectral no pancromático e no multiespectral este sensor é indicado para aplicações de fotogrametria e sensoriamento remoto. O produto gerado pelo sensor pode ser utilizado em áreas clássicas da cartografia como, defesa, mapeamento topográfico, construção civil, infra-estrutura, telecomunicações, energia, agricultura, floresta, seguro e desastres (HEIER, 1999). Novos métodos, em comparação com os já existentes para o processamento de filmes aéreos digitalizados, foram introduzidos ao longo dos últimos anos e investigações cuidadosas têm demonstrado que o desempenho, a arquitetura, direção, georreferenciamento, modelagem do sensor, processamento de pontos, aerotriangulação do sensor aerotransportado ADS40 (FRICKER, 2001; HINSKEN et alli, 2002; SANDAU et alli, 2000; TEMPELMANN et alli, 2000) e outros sistemas Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 109 (FRITSCH, 1997; HAALA et alli, 2000; HOFFMANN et alli, 2000; LEBERL et alli, 2003; TIANEN et alli, 2003; WEWEL et alli, 1998; apud PATERAKI et alli, 2003a). As pesquisas envolvendo o ADS40 demonstram a construção, o desempenho, geometria e resolução do sensor (SANDAU et alli, 2000; ECKARDT et alli, 2000; ZHU, 2004; CRAMER, 2006), a acurácia e a precisão no uso da fotogrametria e do sensoriamento remoto (FRICKER et alli, 2001; GREEN et alli, 2007; WASER et alli, 2007; DAI et alli, 2008; ADDULLAH, 2009), o processamento, análise da qualidade radiométrica da imagem, extração de feições por correlação de pixels e a geração de modelos digitais de superfície (GWINNER et alli, 1999; NEUKUM, 1999; SCHOLTEN, 2000; PATERAKI et alli, 2002; PATERAKI et alli, 2003a; PATERAKI et alli, 2003b; HONKAVAARA et alli, 2007), a obtenção da aerotriangulação usando os parâmetros determinados pelo sistema de navegação inercial GPS/IMU (HINSKEN et alli, 2002), a investigação da acurácia de mapeamentos topográficos (YOTSUMATA et alli, 2002) e a comparação radiométrica entre o sensor ADS40 e outros sensores (HONKAVAARA; 2007). Resolução espacial do pixel no terreno e a escala do mapa Quando tratamos de imagens aéreas da superfície terrestre por meio de sensores digitais aerotransportado, o detalhe mais importante para a definição da precisão e acurácia com que necessitamos obter o produto cartográfico não, é a escala da foto e a altitude de vôo, como no caso de câmeras aéreas convencionais, e sim o tamanho ou resolução espacial do pixel no terreno, também conhecido como GSD (em inglês, Ground Sample Distance). Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 110 A tabela3.2 apresenta a relação entre o GSD do sensor ADS40 e a escala do mapa. Tabela 3.2. Relação GSD e escala do mapa. Adaptado de FRICKER et alli, 2000. GSD com ADS4 0 Escala do Mapa Mapa Padrão Comparação com filme fotográfico Acurácia x,y RMSE Intervalo de Curva de Nível Escala da Foto Tamanho do pixel do filme digitalizado 5 – 10 cm 1:500 0,125 m 0,25 m 1:3.000 até 1:5.500 2,50 – 5,00 cm 10 – 15 cm 1:1.000 0,250 m 0,50 m 1:5.000 até 1:8.000 5,00 – 7,50 cm 15 – 20 cm 1:1.500 0,400 m 0,75 m 1:6.500 até 1:10.000 7,50 – 10,0 cm 20 – 30 cm 1:2.000 0,500 m 1,00 m 1:8.000 até 1:11.000 10,0 – 15,0 cm 25 – 35 cm 1:2.500 0,600 m 1,25 m 1:8.500 até 1:13.000 12,5 – 17,5 cm 30 – 50 cm 1:5.000 1,250 m 2,50 m 1:12.000 até 1:18.000 15,0 – 25,0 cm 40 – 60 cm 1:10.000 2,500 m 5,00 m 1:17.000 até 1:27.000 20,0 – 30,0 cm 50 – 70 cm 1:20.000 5,000 m 10,00 m 1:25.000 até 1:35.000 25,0 – 35,0 cm 50 – 80 cm 1:25.000 6,250 m 12,50 m 1:28.000 até 1:42.000 25,0 – 40,0 cm 50 – 100 cm 1:50.000 12,50 m 20,00 m 1:40.000 até 1:60.000 25,0 – 50,0 cm 50 – 100 cm 1:100.000 25,00 m 50,00 m 1:60.000 até 1:90.000 25,0 – 50,0 cm Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 111 Figura 3.20. Exemplo de imagem de saída da ADS40. Adaptado de FRICKER et alli, 2000. De forma similar a tabela 3.3 apresenta a relação entre o campo de visada instantânea (IFOV) de um digitalizador medido em pontos por polegada (DPI - dots per inch) ou micrômetros ( m), usado na transformação de uma fotografia aérea convencional em uma imagem digital, e a resolução espacial do pixel no terreno para fotografias em diferentes escalas (JENSEN, 2009). Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 112 Tabela 3.3. Relação “pixel” no terreno e a escala da fotografia. Adaptado de JENSEN, 2009. IFOV do Digitalizador Resolução do “pixel” no terreno para diversas escalas das fotografias (m) DPI m 1:25.000 1:12.500 1:10.000 1:8.000 1:6.000 1:4.000 100 254,000 6,350 31,750 2,540 2,032 1,524 1,016 200 127,000 3,175 15,875 1,270 1,016 0,762 0,508 300 84,667 2,117 10,583 0,847 0,677 0,508 0,339 400 63,500 1,588 7,938 0,635 0,508 0,381 0,254 500 50,800 1,270 6,350 0,508 0,406 0,305 0,203 600 42,333 1,058 5,292 0,423 0,339 0,254 0,169 700 36,286 0,907 4,536 0,363 0,290 0,218 0,145 800 31,750 0,794 3,969 0,318 0,254 0,191 0,127 900 28,222 0,706 3,528 0,282 0,226 0,169 0,113 1000 25,400 0,635 3,175 0,254 0,203 0,152 0,102 1200 21,167 0,529 2,646 0,212 0,169 0,127 0,085 1500 16,933 0,423 2,117 0,169 0,135 0,102 0,068 2000 12,700 0,318 1,588 0,127 0,102 0,076 0,051 3000 8,467 0,212 1,058 0,085 0,068 0,051 0,034 4000 6,350 0,159 0,794 0,064 0,051 0,038 0,025 Conversões úteis de digitalizadores (Adaptado de JENSEN, 2009) DPI= pontos por polegada; m =micrômetro; I = polegada; M=metros De DPI para micrômetros: m = (2,54/DPI)×10.000 De micrômetros para DPI: DPI=(2,54/ m)×10.000 De polegadas para metros: M=I×0,0254 De metros para polegadas: I = M×39,37 Cálculo do GSD (Adaptado de JENSEN, 2009) PM = tamanho do “pixel” em metros; PF = tamanho do “pixel” em pés; S= escala da foto Utilizando DPI: PM =((S/DPI)/39,37) ×100 PF=(S/DPI)/12 Utilizando micrômetros: PM = (S× m)×0,00001 PF=(S× m)×0,00000328 Por exemplo, se uma fotografia na escala 1:6.000 é digitalizada em 1200 DPI, o tamanho do pixel será (6000/1200)/39,27=0,127 metros por pixel. Se uma fotografia na escala de 1:8.000 é digitalizada com 21,167 m o tamanho do pixel será (8000×21,167)×0,000001)=0,169 metros (JENSEN, 2009). Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 113 A seguir será apresentada a teoria sobre sistema SVL (em inglês, Light Detection and Ranging). 3.1.2. Sistemas Ativos Dentre os sistemas baseados em técnicas ópticas de medidas tridimensionais (3D) o sistema de varredura a Laser (em inglês, Light Amplification by Stimulated Emission of Radiation) é parte constituinte dos sistemas conhecidos como time-of-flight, que usam uma fonte Laser para varrer uma superfície com a finalidade de adquirir densa quantidade de dados 3D, e será discutido nesta subseção do capítulo 3. O quadro 3.1 mostra uma classificação dos sistemas de medidas ópticas de medidas 3D. Quadro 3.1. Sistemas ópticos de medidas tridimensionais. Adaptado de Vosselman e Maas (2010). No esquema a aquisição de medidas 3D realizadas com sistemas passivos é baseada em processamento a partir de modelos fotogramétricos Interfero metria Técnicas de medida por fase e pulso Técnicas ópticas de medidas 3D Triangulação Luz coerente Passivo Ativo Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 114 (estéreo fotografias); com sistemas ativos podem ser obtidas através de um único ponto de projeção, varredura Laser, projeção de feixes de luz, luz estruturada, entre outras. No caso de aquisição de medidas 3D baseada em luz coerente, as técnicas de medidas por pulso é conhecida como time-of- flight e compõe a maioria dos sistemas de varredura a Laser (SVL). A interferometria pode ser classificada separadamente e não será tratada neste capítulo. 3.1.2.1 Sistema de varredura a Laser De acordo com Vosselman e Maas (2010) nos últimos 50 anos diversos avanços nas áreas da eletrônica, visão computacional e gráfica tem sido realizados; tornando possível a construção de SVL aerotransportado e/ou terrestre de forma confiável, acurada e com alta resolução. Além disso, a possibilidade de processamento de uma densa nuvem de pontos tridimensionais de forma eficiente e com custo/benefício tem suprido a deficiência de uma grande quantidade de aplicações topográficas, ambientais, industriais, preservação de monumentos históricos, etc; que dependem da aquisição de dados tridimensionais. O SVL aerotransportado ou terrestre captura e registra informações geométricas e, em alguns sistemas, as informações de textura dos objetos contidos na superfície física. Para Shan e Toth (2008) o SVL foi o maior avanço tecnológico de sistema de aquisição de dados espaciais introduzido no mapeamento topográfico, do final do século XX. Sua principal vantagem é a capacidade de fornecer dados tridimensionais de forma direta, rápida, segura, autônoma e acurada. Ao contrário do método tradicional de Fotogrametria, o sistema de varredura Laser aerotransportado ou terrestre pode adquirir, de forma direta, dados espaciais sobre a superfície física com uma superabundância Capítulo III Fotogrametria I (1ª. Edição)última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 115 de informações, que podem ser utilizadas em inúmeras aplicações da engenharia. O desenvolvimento do sistema supracitado interveio na interdisciplinaridade das técnicas de visão computacional, computação gráfica e a fotogrametria. A adaptação gradual destas técnicas está relacionada com a calibração do sistema, processamento e registro dos dados adquiridos e a extração das informações. O sistema tem possibilitado uma leitura ousada no que tange as perspectivas na automação dos processos fotogramétricos, sobretudo para geração de ortofotos digitais verdadeiras (true ortophotos), autonomia na recuperação dos parâmetros de orientação exterior de imagens, reconhecimento e reconstrução automática de objetos presentes nas imagens digitais, abrindo novos caminhos para a fotogrametria em diversos ramos do mercado nacional. A seguir será apresentado o princípio básico de funcionamento do sistema SVL. Princípio de funcionamento SVL é um sistema de registro de informação com princípio ativo, que possibilita a determinação de coordenadas tridimensionais de cada ponto varrido pelo sistema num curto período de tempo e de forma direta. A característica mais marcante do sistema de emissão e recepção do pulso é a sua propriedade em medir distâncias com alto grau de acurácia, usualmente, baseada em um instrumento preciso para medida de tempo. Existem dois métodos de medida de tempo que podem ser empregados nos instrumentos supracitados, isto é, o time-of-flight e o CBLR (em inglês, Continuous Beam of Laser Radiation). Aqui será tratado apenas o primeiro método. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 116 O método time-of-flight foi muito utilizado nos experimentos de Hertz na década de 1880, com ondas de rádio. Com o advento do Laser na década de 1950 foi possível seu uso para aquisição de imagens com resolução angular e métrica muito melhor que aquelas obtidas por ondas de rádio. O princípio teórico é o mesmo para todos os sistemas que usam radiação de energia eletromagnética. A propriedade fundamental de uma onda de luz é sua velocidade e propagação. Em um dado meio de propagação, a onda de luz viaja com velocidade constante e finita. Então, a medida do tempo de resposta (também conhecida como time-of-flight) é dada em função do tempo entre a emissão de um pulso curto com alta potência de radiação por Laser e recepção da luz partindo de uma fonte de luz conhecida até um alvo qualquer e seu retorno. Neste caso, o pulso emitido interage com o objeto contido na superfície física. Uma porcentagem da energia emitida é absorvida, outra porcentagem é transmitida e a energia refletida retorna ao sistema, sendo a mesma armazenada na “unidade de controle de armazenamento”, juntamente com as informações fornecidas pelo GPS e INS. O intervalo de tempo (t) entre a emissão e recepção do pulso é calculado com precisão e a distância entre a plataforma e o objeto perfilado ( R ) é calculada em função de t e a velocidade da radiação eletromagnética ( v = 3x10 8 m/s), a saber: 2 tv R (3.1) Da relação acima, se pode extrair a seguinte equação, a saber (Shan e Toth, 2008): 22 tvvt R (3.2) Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 117 Onde, R é a precisão da distância, v é a precisão da velocidade da luz e t é o valor correspondente da precisão de t. A precisão de R é determinada em função de t . É importante notar que a luz viaja em um meio de propagação ( , aqui considerado o ar e igual a 1). Em alguns sistemas de varredura a Laser mais que um eco do pulso Laser pode ser medido, devido aos múltiplos retornos que são causados pelas características da superfície, especialmente quando áreas de vegetação são perfiladas (Hofton et al.,2000; Wagner et al., 2006; Pfeifer e Briese, 2007). É importante observar com maiores detalhes as características da forma do pulso emitido e recebido pelo sensor Laser. As características do pulso emitido podem ser vistas na Figura 3.21, com largura (tP) e com tempo de suavização tr. Figura 3.21. Características do pulso Laser. Adaptado de Vosselman e Maas (2010). Na velocidade da luz, o comprimento de um pulso típico com largura tP= 5 ns corresponde à 1.5 m, enquanto com o tempo de suavização tr= 1 Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 118 ns corresponde à um comprimento de 0.3 m. De acordo com a Equação 3.3 a relação entre R (a distância entre o sensor do SVL e o alvo) e o tempo de resposta (time-of-flight, ) é dado por: c R n 2 (3.3) Com n = 1, o valor de é 6.7 s numa altura de vôo de 1000 m. Ao considerar que a partir de uma distância R são gerados dois ou mais pulsos de retorno (ecos) derivados de um único pulso P1, diferentes intervalos de tempo podem ser discriminados se e somente se os ecos (retornos) E11 e E12 são separados, isto é, não são sobrepostos. Isto significa que 12 11 +tp. Então, o comprimento do pulso lp que é dado por pp l c n t , nos conduzirá à seguinte expressão, a saber: p p lRR l c n R c n R c n 2 1 22 1112 1112 (3.4) Dois ecos do pulso podem ser discriminados somente se suas distâncias são maiores que a metade do comprimento do pulso (lp). Isto significa que para um pulso com largura de 5 ns, objetos podem ser detectados como objetos distintos caso a diferença entre suas distâncias for, no mínimo, maior que 0.75 m. O intervalo de incerteza para um único pulso Laser é dado, aproximadamente, por (Vosselman e Maas (2010)): SNR tc r pr 2 (3.5) Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 119 Onde, tr é o tempo de suavização do pulso Laser (ver Fig. 3.21) e SNR é a relação da potência do sinal sobre o ruído. Assumindo SNR igual a 100, tr igual a 1 ns, e um contador de intervalo de tempo com resolução adequada, então o intervalo de incerteza será em torno de 15 mm. Muitos SVL comerciais baseados no método time-of-flight fornecem um intervalo de incerteza na ordem de 5-10 mm, enquanto for mantido um alto SNR. No caso de amostras 3D não correlacionadas, a média independente das medidas dos pulsos reduzirá pr por um fator proporcional à raiz quadrada da média. Em relação às técnicas de medidas do pulso Laser existem, basicamente: técnica de medida por fase; e técnica de medida por triangulação. Aqui será tratada apenas a técnica de medida baseada em triangulação. Medidas 3D baseadas em triangulação O princípio básico da triangulação óptica para um único pulso Laser estático pode ser visto na Figura3.22. Uma fonte Laser projeta um pulso numa superfície de interesse. A luz refletida pela superfície é registrada a partir de um ponto de vista distinto daquele onde se encontra a fonte de luz. O conhecimento dos ângulos ( e ) de projeção e registro relativos á linha de base (B) determina as dimensões do triangulo (leis do cosseno) e, conseqüentemente, as coordenadas bidimensionais de um ponto na superfície (X, Y). O ângulo que corresponde a um deslocamento de um perfil da superfície ( Z) é medido por uma mudança equivalente na posição do detector, que atua como um sensor angular e fornece sinais que são interpretados com uma posição (p). Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 120 Figura 3.22. Princípio de funcionamento da técnica conhecida como triangulação óptica. Sistemas dinâmicos ou aerotransportados Existem dois tipos de sistemas disponíveis no mercado, isto é, o sistema dinâmico (Figura 3.21a) e o sistema estático (Figura 3.21b). Figura 3.21. (a) Sistema aerotransportado. (b) Sistema estático. (a) (b) Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 121 Instalados em plataformas aéreas e terrestres, o sistema pode coletar uma nuvem de pontos tridimensionais perfilados sobre a superfície física, com grande volume de dados determinados com acurácia, cuja facilidade no tratamento dos dados implicou na inserção do sistema em diversas aplicações. Ambos os sistemas utilizam um feixe ótico de alta potência e bem direcionado, coerente no espaço e no tempo que proporciona, em pós- processamento, a qualidade da medida da distância entre o sistema LASER e o objeto. O desenvolvimento do sistema supracitado se deve, principalmente, ao sucesso no desenvolvimento da tecnologia INS. No entanto, a introdução de sistemas aerotransportados se deu a partir do desenvolvimento da tecnologia GNSS, o que possibilitou o desenvolvimento da tecnologia de georeferenciamento direto, isto é, a integração GNSS/INS, na década de 1990, que foram capazes de fornecer dados de posição e atitude da plataforma aerotransportada com uma precisão de 4 – 7 cm e 20–60 arco-segundos, respectivamente (Shan e Toth, 2008). Os sistemas aerotransportados podem ser acoplados em aeronaves. Seu princípio de funcionamento depende basicamente da integração de três componentes, isto é: o GPS; o INS; e o próprio LASER. A acurácia do sistema se deve à precisão dos componentes que integram o sistema, como por exemplo, o sensor LASER (em inglês, Light Amplification by Stimulated Emission of Radiation) e dos sensores de integração GNNS (em inglês, Global Navy-Star Navegation System) e INS (em inglês, Inertial Navegation System); além de outros fatores. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 122 GPS: registra a posição da aeronave em intervalos de tempo fixos, enquanto outro receptor de base (no terreno) possibilita correção diferencial do posicionamento do sensor (pós-processamento); INS: registra os ângulos de atitude ( , , ) do sensor durante o vôo. Posteriormente, são utilizados em pós-processamento para determinação precisa das coordenadas dos pontos tridimensionais no terreno; e Laser: armazena o tempo de emissão e recepção de cada pulso, bem como a resposta espectral de cada objeto varrido. Os pulsos laser são gerados por um componente denominado “gerador de pulsos” e emitidos pelo sistema (na faixa espectral do infravermelho) com o auxílio de um espelho de varredura que redireciona o pulso - com uma freqüência de varredura e diâmetro de espessura -, para a superfície de interesse a ser mapeada ou reconstruída tridimensionalmente. Os sistemas aerotransportados registram no mínimo o primeiro retorno do pulso (ou eco) e também o último retorno para cada pulso emitido pelo sistema. Muitos sistemas aerotransportados são capazes de armazenar e diferenciar 4 ou 5 retornos do pulso emitido. Sistemas capazes de reconhecer múltiplos retornos do pulso também tem sido desenvolvidos para sistemas terrestres. A Figura 3.23 apresenta um esquema do princípio de funcionamento do sistema aerotransportado. Figura 3.23. Princípio de funcionamento do sistema aerotransportado. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 123 O pulso laser emitido pelo sistema possui um diâmetro que aumenta na medida em que ocorre sua propagação no meio. De acordo com a Figura 3.22 verifica-se visualmente que, o diâmetro do pulso no momento da emissão é consideravelmente inferior quando o mesmo interage com a superfície. O diâmetro do pulso varia de acordo com a altitude de vôo estabelecida no levantamento aéreo. Apesar do fator descrito, a luz do laser foi escolhida para a concepção do sistema por apresentar baixa divergência, cuja propagação é similar à concepção geométrica da linha reta. Por isso, ocorrem múltiplas reflexões na iteração laser/objetos como, por exemplo, quando um pulso laser atinge a folha de uma árvore, uma parte do pulso é refletido pelas folhas e outra parte pelo terreno (este é considerado segundo retorno, pois sua reflexão atinge o sistema após o primeiro retorno do pulso – reflexões das folhas). Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 124 Ainda ao observar a Figura 3.22 é possível verificar que a varredura do terreno é realizada aleatória e transversalmente à direção do vôo, o que possibilita o perfilamento tridimensional da área de interesse com uma freqüência que depende das especificações do projeto. A Figura 3.23 ilustra esquemas de alta e baixa freqüência de perfilamento. Figura 3.23. Freqüência de perfilamento. (a) Alta freqüência de perfilamento. (b) Baixa freqüência de perfilamento. (a) (b) A reconstrução do pulso laser emitido é dada no sistema de projeção WGS84, isto é, a distância percorrida pelo pulso entre a plataforma e o objeto perfilado é calculada em pós-processamento baseada na determinação do ângulo que o pulso formou com a aeronave no momento de sua emissão, juntamente com os dados de posição e atitude da aeronave, fornecidos pelo sistema de integração GPS/INS, bem como em função da velocidade da luz (c) e tempo de emissão e recepção do pulso Laser ( t). Em termos gerais, as coordenadas tridimensionais de um ponto qualquer na superfície física são determinadas em função de uma Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 125 seqüênciade rotações e translações aplicadas entre os componentes que compõem o sistema. A Figura 3.24 mostra a relação entre os sistemas envolvidos na determinação de coordenadas de um ponto no sistema do espaço-objeto ou referencial terrestre. Figura 3.24. Determinação de coordenadas tridimensionais de um ponto na superfície. Os pontos tridimensionais de um ponto são obtidos por meio da Equação, a saber: (3.1) Onde, PPP ZYX : coordenadas tridimensionais de um ponto na superfície física; INSTT , : translação entre sistema do espaço-objeto e o INS; P errosTT d RRT Z Y X INSGINSLINSLINSTINST P P P ,,,,, 0 0 Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 126 INSLT , : translação entre o LASER e o INS; INSGT , : translação entre o centro de fase da antena GPS e o INS; INSTR , : matriz de rotação entre o sistema do espaço-objeto e o INS; INSLR , : matriz de rotação entre o LASER e o INS; erros : erros inerentes aos componentes que integram o sistema SVL. Para garantir a precisão plani-altimétrica de cada ponto perfilado pelo sistema SVL a distância entre os receptores, aerotransportado e de base, não deve ultrapassar 50 km. Um conjunto de receptores de base deverá ser estabelecido, caso não seja possível manter a exigência descrita anteriormente. Calculadas as coordenadas tridimensionais de cada ponto ( PPP ZYX ) na superfície física devem ser aplicadas as devidas transformações entre sistemas de coordenadas, que neste caso, referem-se às conversões das coordenadas entre os sistemas WGS84 e algum sistema de referência adotado no trabalho, por exemplo, SAD-69. Assim como, as transformações das altitudes elipsoidais (fornecidas pelo GPS) para as altitudes ortométricas. Como descrito anteriormente, o GPS é utilizado em modo cinemático pós-processado, que requer um receptor de base (Figura 3.11) em um ponto de coordenadas conhecidas (por exemplo, uma RBMC – Rede Brasileira de Monitoramento Contínuo – desde que a mesma esteja próxima à área do levantamento). De acordo com Wher e Lohr (1999), o sistema SVL fornece coordenadas planimétricas em torno de 50 cm e altimétricas em torno de 15 cm. O sistema da Optech ALTM 3100 (sistema canadense) possui precisão planimétrica igual a 1/2000 da altura utilizada no perfilamento a LASER (1 Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 127 sigma). No entanto, a precisão do sistema depende das características dos componentes utilizados, tipo de terreno, qualidade do INS empregado e altura de vôo. A qualidade dos dados obtidos pelo sistema de varredura a LASER depende da qualidade dos dados fornecidos pelos componentes que compõem o sistema supracitado. Em relação ao GPS os fatores internos, externos e operacionais, tais como, solução da ambigüidade, perda de sinal dos satélites, freqüências L1 e L2, geometria e número de satélites disponíveis, deslocamentos orbitais, modelagem do geóide, multicaminhamento, erro de propagação do sinal na atmosfera, interferências eletromagnéticas e parâmetros incorretos, são os fatores mais importantes a serem cuidadosamente estudados. Além de considerar todos os possíveis erros descritos acima, ainda é necessário tomar algumas precauções para a obtenção da precisão requerida, tais como, realizar planejamento adequado, operações de vôo dentro de limites apropriados (para evitar perda de sinal do GPS) e uma boa distribuição das estações GPS de base em solo. O INS apresenta precisão melhor que 0,02 0 e os pulsos laser são afetados pelas diferentes camadas existentes na atmosfera. A altura de vôo é fator a ser considerado na degradação da precisão das medidas relacionadas ao sistema LASER. Outra característica a ser evidenciada é o problema de divergência dos pulsos, que resultam em pequenas diferenças na interpretação dos resultados que aqui serão chamados de borda de divergência. Os erros de divergência podem ser visualizados através de uma operação de subtração de imagens do primeiro (Figura 3.25a) e último retorno do pulso (Figura 3.25b). A Figura 3.25 mostra imagens em níveis de cinza obtida por meio de um processo de quantização das coordenadas Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 128 brutas altimétricas fornecidas pelo sistema da TopoSys GmbH, desenvolvido na Alemanha. Figura 3.25. Imagens em níveis de cinza obtidos por um processo de quantização de coordenadas altimétricas. (a) Imagem do primeiro retorno do pulso. (b) Imagem do último retorno do pulso. (c) Resultado da subtração entre as imagens a e b. (a) (b) (c) Verifica-se visualmente na Figura 3.25c que o resultado da operação de subtração entre as imagens não apresentou apenas a informação de vegetação, mas também as bordas das edificações, dadas pela diferença entre as dimensões das edificações (bordas de divergência) apresentadas em ambas às imagens. Esta diferença ocorre porque um pulso laser ao incidir sobre a borda do telhado de uma edificação, dependendo do tamanho de seu diâmetro, pode interceptar parcialmente a borda do telhado Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 129 e ocorrer resposta de retorno devido às reflexões no solo e na fachada lateral do edifício (Figura 3.26), ou outras diversas reflexões do pulso, dependendo do tipo de material perfilado, até seu retorno ao sistema. A Figura 3.26 mostra as interceptações parciais do pulso e um exemplo do processo de reflexão do pulso. Figura 3.26. Interceptação parcial do pulso na borda do telhado e duas reflexões do pulso (solo e fachada lateral). Verifica-se também que as bordas das edificações contidas na imagem do último retorno do pulso (Figura 3.25b) são mais estreitas que as do primeiro retorno do pulso. Fato ocorrido devido ao último retorno incidir sobre o solo e posteriormente na fachada lateral da edificação (reta pontilhada na cor preta, Figura 3.26) enquanto o primeiro retorno do pulso incide diretamente na borda do telhado (retas vermelhas, Figura 3.26). Outro fator relacionado ao erro de divergência é a resposta de retorno do pulso após interagir com o objeto perfilado. Por ser esta uma função de dispersão de energia eletromagnética dentro da área do diâmetro do pulso pode-se dizer que, quanto maior a inclinação do pulso em relação ao objeto perfilado na superfície, maior será o erro de divergência e Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 130 conseqüentemente maior a incerteza posicional do alvo. Para que não ocorram áreas de oclusão, devido ao fator supracitado, é necessário realizarum recobrimento da área de interesse com o mínimo de sobreposição possível. Tipos de espelhos de varredura Como descrito anteriormente o sistema SVL utiliza espelhos de varredura ótico-mecânica. Existe, basicamente, 3 tipos de espelhos de varredura. A Figura 3.27 apresenta os espelhos de varredura mais utilizados nos sistemas desenvolvidos. Figura 3.27. Mecanismos de varredura. (a) Espelho oscilador. (b) Varredura Palmer. (c) Polígono de rotação. (FONTE: WEHR e LOHR, 1999) (a) (b) (c) Os espelhos osciladores (Figura 3.27a) produzem uma configuração de perfilamento denominada linha em “zig-zag” (Figura 3.27a). Os espelhos Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 131 de polígono de rotação (Figura 3.27b) produzem uma varredura unidirecional com linhas paralelas (Figura 3.28b). Já os espelhos do tipo Palmer (Figura 3.28c) produzem efeitos de modelos elípticos na superfície (Figura 3.28c). Figura 3.28. Configuração da varredura em relação ao tipo de espelho. (a) Linhas em “zig-zag”. (b) Linhas paralelas. (c) Modelos elípticos. (a) (b) (c) Os pontos ao longo de uma linha são varridos em incrementos de ângulos iguais. De acordo com Wehr e Loher (1999), devido ao Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 132 perfilamento aleatório e à aceleração e desaceleração do espelho de varredura, os pontos perfilados no extremo da largura da faixa exibem características diferentes dos demais pontos e devem ser removidos, em pós-processamento, do conjunto de dados brutos . A Figura 3.29a apresenta uma imagem de intensidade LASER resultante da varredura de um sistema com tipo de espelho oscilador. Os pontos na cor preta representam objetos que não foram perfilados pelo sistema devido à característica da configuração de perfilamento do tipo de espelho supracitado. Neste caso é necessário realizar uma amostragem dos dados por meio de técnicas de interpolação (vizinho mais próximo, bilinear, triangulação de Delanay etc). Figura 3.29. Imagem de intensidade LASER. (a) Derivada de espelhos osciladores. (b) derivada de espelhos tipo Palmer. (a) (b) A Figura 3.29b apresenta uma imagem de intensidade derivada de espelhos do tipo Palmer. Nota-se a diferença na qualidade geométrica entre as imagens apresentadas em as ambas figuras. Os sistemas de varredura LASER com espelhos do tipo Palmer oferecem precisão duas vezes melhor que os sistemas com espelhos do tipo oscilador. Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 133 Outro tipo de espelho de varredura que possui vantagens em relação aos demais espelhos descritos anteriormente é o espelho de fibra ótica, cujo uso é característico apenas em sistemas da TopoSys GmbH. A Figura 3.30 mostra um espelho de fibra ótica. Figura 3.30. Espelho de fibra ótica. Adaptado de WEHR e LOHR (1999). Eles se diferenciam por terem um processo ótico de emissão e recepção do pulso idêntico. Segundo Wehr e Lohr (1999), matrizes lineares de fibra ótica idênticas são dispostas no plano focal das lentes de emissão e recepção. Através dos espelhos de rotação, cada fibra ótica no caminho da emissão e recepção é varrida seqüencialmente e sincronicamente. Estes espelhos propagam o sinal por meio da fibra central, fibra a fibra. Devido às pequenas aberturas das fibras, pequenos movimentos mecânicos são requeridos com alta velocidade de varredura (acima de 630 Hz). O sistema SVL fornece como produto final uma nuvem de pontos distribuídos irregularmente armazenados em um arquivo ASCII de linhas por ponto, composto por um conjunto de coordenadas tridimensionais Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 134 referenciadas no sistema de projeção admitido no trabalho, cuja manipulação pode-se gerar um MDT e um MDS da região perfilada. A densidade dos pontos obtidos atinge vários pontos por m 2 , dependendo da altura de vôo e a frequência de perfilamento. A frequência do sistema se situa na faixa de 500 a 1500 nm, com valores de 1040 a 1060 nm, sendo as mesmas refletidas pelos objetos contidos no terreno. Os pontos coletados podem ser utilizados diretamente ou podem ser filtrados e interpolados de forma a gerar uma grade regular de pontos. Existem alguns tipos de sistemas de varredura LASER, tais como, o sistema da Toposys GmbH II (desenvolvido na Alemanha) e Optech ALTM 2050 (desenvolvido no Canadá). O Quadro 3.1, apresenta as diferenças básicas entre os sistemas supracitados. QUADRO 3.1. Características de sistemas Toposys GmbH II e Optech ALTM 2050. Características/Sistemas Toposys GmbH II ALTM 2050 Espelho de varredura Fibra ótica Oscilador Resposta espectral não sim Frequência de varredura Até 63 Hz Até 35 Hz Ângulo de varredura 7 0 20 0 Altura de operação 250 - 1000 m 250 - 2000 m Modo (pulso) 1º e/ou 2º 1º e/ou 2º Resposta espectral não sim Câmera digital não 4k x 4k pixels Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 135 A partir dos dados da resposta espectral armazenada pelo sistema da Optech ALTM pode-se gerar, em pós-processamento, uma imagem de intensidade LASER (Figura 3.31). Figura 3.31. Imagem de intensidade LASER. Esta imagem é obtida a partir da interpolação dos valores da resposta espctral de cada ponto varrido pelo sistema, gerando uma imagem bidimensional de valores de intensidade. Para cada ponto é atribuído um valor de intensidade, no qual é agregado aos mesmos suas coordenadas tridimensionais compostas num arquivo de um ponto por linha de texto (arquivo bruto ASCII). Os dados são interpolados de acordo com a resolução ao qual foram perfilados os pontos no terreno. A seguir será apresentada a teoria sobre sistemas estáticos. Sistemas estáticos Existem várias aplicações que necessitam de modelagem tridimensional de objetos e superfícies e que podem ser atendidas tanto por Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 136 outras técnicas de obtenção de dados dimensionais e posicionais (p. ex., técnicas fotogramétricas) quanto pela tecnologia De varredura LASER terrestre. Algumas delas, entretanto, de acordo com os requisitos de rapidez e exatidão, podem requerer um grande número de medidas, portanto, são melhores atendidas por uma nuvem de pontos proveniente do sistema de varredura LASER terrestre.O sistema de varredura LASER terrestre, basicamente, é compreendido por um sensor LASER (em inglês, light amplification by stimulated emission of radiation) e sistemas de espelho de varredura que direcionam o pulso para a superfície. O sistema é capaz de fornecer uma nuvem de pontos 3D sobre pontos localizados na superfície física, em um curto período de tempo. A nuvem de pontos é gerada por meio da medição simultânea de intervalo de inclinação de um sensor LASER e dois ângulos associados por encoders angulares correspondentes aos planos horizontais e verticais, passantes pelo centro do instrumento. Por isso, o sistema fornece uma nuvem de pontos de igual reamostragem no sistema de coordenadas polares. Essas medidas de distância e ângulo simultâneos são realizadas automaticamente com um ângulo de varredura de 1000 Hz ou mais, dependendo do sistema utilizado. Basicamente, o sistema emite pulsos de LASER que interagem com a superfície e são refletidos e recuperados pelo receptor do sistema. A distância entre o sensor e o alvo é calculada, em pós-processamento, em função da diferença do tempo entre a emissão e recepção do pulso. O resultado final do processo de medição e processamento é uma nuvem de pontos, que poderia ser chamada, genericamente, de Modelo Digital de Superfície (MDS), ao qual o valor de Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 137 intensidade também pode ser associado. A figura 3.32 apresenta a geometria de funcionamento do referido sistema. Figura 3.32. Geometria de funcionamento do sistema de varredura LASER terrestre. Em princípio, pode-se dizer que o sistema estático funciona como um medidor de distâncias (distanciômetro), em função do tempo de emissão e recepção do pulso. Existem basicamente dois princípios geométricos de cálculos de coordenadas, isto é: triangulação; por intervalo de tempo (time of flight). No princípio de funcionamento por intervalo de tempo a distância é estimada por meio do tempo de emissão e recepção do pulso laser, cuja reflexão do pulso ocorre difusamente dependendo do tipo de material do Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 138 objeto perfilado. Este sistema é capaz de estimar distâncias para objetos mais distantes, porém oferecem precisão de pior qualidade que o sistema de princípio por triangulação. O princípio de triangulação funciona de forma que um pulso laser é emitido pelo sistema e seu retorno é registrado por uma ou mais câmeras de sensores CCD. O ângulo de varredura de cada pulso emitido é registrado no sistema a cada pulso emitido. Conhecendo-se a base fixa entre o sensor LASER e a câmera, por meio de um processo de calibração, determina-se a posição dos pontos refletidos pelo objeto. A distância entre o sensor LASER e o CCD é conhecida e permite o cálculo das coordenadas tridimensionais de cada ponto perfilado pelo sistema. A precisão dos pontos determinados depende da relação base/distância. Com um comprimento de base fixa, o desvio padrão ( ) da distância medida, aumentará em proporção ao quadrado da distância. Figura 3.33. Mecanismos de varredura do sistema de varredura LASER terrestre (Adaptado de Staiger, 2003). Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 139 Além das técnicas de medidas do sistema se deve considerar o tipo de mecanismo de varredura do sistema. Staiger (2003) classifica o sistema de varredura LASER terrestre como: varredura panorâmica; varredura híbrida; e varredura por quadro. A Figura 3.33 apresenta três tipos de mecanismos de varredura do sistema. Dentro da primeira dessas três categorias, varreduras de tipo panorâmico procedem de forma que a distância e as medições angulares em um padrão sistemático fornecem uma cobertura angular total de 360° no plano horizontal, que passa pelo centro do instrumento, e normalmente uma cobertura mínima de 180° no plano vertical perpendicular ao plano horizontal, o que possibilita uma cobertura hemisférica. Este padrão de varredura panorâmico é muito útil no contexto do mapeamento topográfico, é ainda mais desejável, de fato muitas vezes obrigatória, a medição de instalações industriais complexas, grandes pedreiras e minas de céu aberto e as fachadas de edifícios nas áreas urbanas. Uma vantagem da maioria dos sistemas de varredura LASER terrestre é o registro da informação espectral dos alvos perfilados pelo sistema. Por meio desta informação é possível gerar, em pós- processamento, imagens de intensidade. Os valores de intensidade são relativos e não absolutos, e, para os sistemas estáticos, variam de acordo com as propriedades de reflexão direcional e a reflectividade do alvo. Uma das vantagens do sistema de varredura LASER terrestre é que a nuvem de pontos gerada em campo pode ser confrontada com as informações geradas por técnicas fotogramétricas ou sensores imageadores. Atualmente, a integração entre dados derivados de sistemas de aquisições diferentes tem apontado grande potencial como conteúdo de informações complementares, ou seja, a integração de dados derivados do sistema de varredura LASER terrestre e Fotogrametria fornece uma riqueza Capítulo III Fotogrametria I (1ª. Edição) última atualização 2013 Prof. Daniel Rodrigues dos Santos – Departamento de Geomática UFPR 140 abundante de informação, que permite a automação dos processos fotogramétricos com melhor eficiência, além de autonomia e redução da necessidade dos métodos de prospecção convencional, tais como, os levantamentos geodésicos e topográficos. Isto reduz o custo operacional e, principalmente, o tempo na linha de produção. A integração dos dados tem ganhado tanto prestígio na comunidade que, diversos são os trabalhos relacionados com o tema, podendo-se citar: Habib e Schenk (1999), Schenk et al. (2001), Schenk e Csatho (2002), Habib et al. (2004a, 2004b, 2004c), Furkuo e King (2004), Delara et al. (2004), Chen et al. (2004), Zhang et al. (2005), Habib et al. (2005), Habib et al. (2006), Habib et al. (2007), Abdelhafiz et al. (2007), Mitishita et al. (2008), Delara et al. (2008); etc. No caso do sistema de varredura LASER terrestre em funcionamento em um Unidade de Mapeamento Móvel (UMMT), por exemplo, é necessário integrar os sistemas de posicionamento e medida inercial de forma que a nuvem de pontos derivadas do perfilamento De varredura LASER terrestre seja adequadamente georeferenciada e acurada. Isto se deve ao movimento dinâmico da plataforma em questão (veículo transportado – UMMT), onde para cada varredura haverá uma posição e atitude diferente do sistema, ao longo do mapeamento. Sendo assim, é necessário integrar os referidos sistemas de forma que o sistema funcione com autonomia e precisão. Aqui, a precisão e acurácia do sistema estarão relacionadas com a precisão dos sistemas GPS e INS, erros no alinhamento dos dois subsistemas supracitados, modelagem matemática envolvida na transformação das coordenadas, etc. Um dos sistemas de varredura
Compartilhar