Baixe o app para aproveitar ainda mais
Prévia do material em texto
Geografia e Cartografia Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Material Teórico Responsável pelo Conteúdo: Prof. Ms. Carlos Eduardo Martins Revisão Textual: Prof. Ms. Luciano Vieira Francisco 5 Nesta unidade abordaremos aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos, por meio dos quais você terá acesso a diversos recursos de aprendizagem. Não deixe de “baixar” o arquivo em formato pdf do material teórico. Assim você poderá ter acesso às nossas discussões onde quer que esteja. Veja o mapa mental que sintetiza a estrutura assunto tratado nesta unidade. Fique atento(a) aos prazos das atividades que serão colocados no ar. Recorra sempre que possível às videoaulas e ao PowerPoint narrado para tirar eventuais dúvidas sobre o conteúdo textual. Participe do fórum de discussão proposto para estes temas. Em seu tempo livre, procure pesquisar as fontes do material complementar. Além disto, procure pesquisar o máximo que puder sobre aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos. Há inúmeros conteúdos na Internet que são úteis para o seu estudo e para a sua formação profissional. Analisar os temas aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos, atualmente consideradas as ferramentas mais comuns na aquisição de dados e informações geográficas para a produção de cartas e mapas sistemáticos e temáticos. Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos · Introdução · O funcionamento da aerofotogrametria · O eletromagnetismo e o SR · O sistema GPS 6 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Contextualização Os temas tratados nesta unidade, embora sejam analisados de forma individualizada, são considerados na Cartografia Sistemática como técnicas para aquisição de dados e informações geográficas para fins de mapeamento e geração de produtos como os mapas ou cartas. Nosso ponto de partida será discutir o papel das fotografias aéreas enquanto instrumento de composição visual vertical da paisagem. Por uma questão de ordenamento lógico separamos o tema aerofoto de sensoriamento remoto e Global Positioning System (GPS), embora todos sejam ferramentas remotas de obtenção de dados e informações. 7 Introdução Aerofotogrametria e aerofotointerpretação A aerofotogrametria envolve uma série de atividades que tem por fim obter aerofotografias para fins de produção cartográfica. Diversos recursos materiais e pessoais são empregados nesta atividade e que serão detalhados em seguida. Ante disto, vejamos uma pequena narrativa histórica dos registros fotográficos como recursos ao mapeamento até os dias atuais. Histórico da fotogrametria As origens da fotogrametria podem recuar ao fim do século XV, quando Leonardo da Vinci criou a perspectiva nas suas obras, contribuindo com os rudimentos da Geometria Projetiva, desenvolvida pelo matemático francês Desargues, no início do século XVII, definindo Geometria Projetiva à generalização do uso dos pontos de fuga. O pioneirismo da fotogrametria pode ser atribuído ao geodesista Dominique François Jean Arago que, em 1840, utilizou um processo chamado daguerreótipo, considerado o embrião da fotografia moderna. Em 1849, Aimé Laussedat foi o primeiro a utilizar as fotografias terrestres como base para compor mapas topográficos. Em 1858, Laussedat fez as primeiras tentativas de fotografar a superfície do céu utilizando uma pipa. Em 1862, passou a utilizar balões, que inspiraram de maneira decisiva a Gaspard Felix Tournachon (também conhecido como Nadar) a dar início às diversas campanhas de registros fotográficos do solo a partir de balões (Figura 1). Figura 1 – Nadar fotografando de seu balão. Fonte: mentalfloss.com Em pleno processo de expansão das suas forças militares, em 1859, Napoleão ordenou a Nadar que obtivesse fotografias de reconhecimento para planejar a Batalha de Solferino, na Itália, da qual o exército napoleônico sagrou-se vitorioso. Estavam lançadas as bases para o uso estratégico-militar da aerofotogrametria. 8 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Em 1893, Albrecht Meydenbauer foi o primeiro a cunhar o termo “fotogrametria”, tornando- se o fundador do Instituto Fotogramétrico Real da Prússia. Meydenbauer projetou sua própria câmera fotogramétrica em 1867, fazendo uso de uma grande angular de 105°, utilizada nos levantamentos topográficos de Freyburg, Alemanha. As particularidades da câmera que criou ainda são encontradas em câmeras aerofotogramétricas atuais. Internacionalmente, o marco da invenção do avião é atribuído aos irmãos Wright, em 1903. Entretanto, a primeira fotografia aérea para fins de mapeamento foi capturada por Cesare Tardivo, em 1908. A primeira câmera montada diretamente na estrutura de um avião ocorreu em 1914 com os irmãos Arthur Brock Jr. e Norman H. Brock, nos EUA. Até então, as câmeras eram carregadas e as fotos feitas manualmente. Em 1920, Sherman Mills Fairchild elaborou um mosaico com mais de cem fotos aéreas da ilha de Manhattan, criando, provavelmente, o protótipo do que chamamos atualmente de fotoíndice, sendo um dos primeiros a montar uma companhia de desenvolvimento de câmeras fotogramétricas, em 1920, a Fairchild Aerial Camera Corporation. Glossário Fotoíndice: mapa-índice elaborado através da união das fotografias aéreas em suas devidas posições, sendo tirada uma cópia fotográfica do conjunto em escala reduzida (MINEROPAR, [20--]). Por fim, em 1937, Talbert Abrams criou a Escola de Mapeamento Aéreo e Fotointerpretação para dar treinamento aos militares norte-americanos. A partir do entre guerras mundiais o desenvolvimento passou a centrar atenção sobre as câmeras aerofotogramétricas, filmes especiais, fotorrestituidores etc. Tudo em prol da melhoria na qualidade das imagens e fundamentalmente dos produtos dessas imagens analógicas: os mapas. A Guerra Fria trouxe consigo as corridas aeroespacial, eletrônica e computacional que, em conjunto, revolucionaram a aquisição, tratamento, processamento e confecção de aerofotos a partir de então. 9 O funcionamento da aerofotogrametria O que é a aerofotogrametria? No que concerne às fotografias aéreas, há duas formas consideradas possíveis: - Fotografias verticais: tomadas como eixo ótico da câmera na vertical ao nadir e consideradas para os mapeamentos oficiais, com aeronaves, voos, altitude e câmeras especiais; - Fotografias oblíquas: tomadas com o eixo ótico da câmera inclinado obliquamente ao campo de observação, feitas de forma menos rigorosa com equipamentos mais simples. Outro aspecto de grande importância na aerofotogrametria é a escala da fotografia aérea. Essa decorre da relação entre a distância focal da câmara e a altura de voo da aeronave e deve ser padronizada (Figura 2). Figura 2 – Interior de uma aeronave especialmente adaptada à aerofotogrametria. Fonte: aerosat.com.br Voo fotogramétrico O voo fotogramétrico, em geral, é precedido de um planejamento que avalia diversas condições relacionadas ao ambiente a ser fotografado e ao produto que se deseja obter. Além da área a ser fotografada, é necessário considerar o relevo, a posição do Sol na hora do voo, o tipo de vegetação que recobre a superfície, entre outros aspectos. Quanto ao produto a ser obtido no trabalho de fotogrametria, deve-se considerar a altura do voo, o intervalo de curvas e a distância focal da câmera com base na escala da fotografia desejada. 10 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Cobertura aerofotográfica ou linha de voo A área coberta pelo voo fotogramétrico (Figura 3a) é um conjunto de faixasdo terreno organizado de tal forma que entre duas fotos sucessivas em cada faixa, haja uma superposição ou recobrimento longitudinal de cerca de 60% entre ambas (Figura 3b). Entre cada faixa sucessiva deve haver uma superposição ou recobrimento lateral de cerca de 30% (Figura 3c). Figura 3 – Voo fotogramétrico e recobrimento longitudinal e lateral. Fonte: fao.org Ainda que todas essas condições sejam antevistas podem acontecer imprevistos atmosféricos, falhas técnicas no voo e desvios de trajeto. Essas ocorrências podem gerar anomalias observáveis apenas no arranjo das fotos no fotoíndice da área coberta pela campanha aerofotogramétrica (Figura 4). 11 Figura 4 – Fotoíndice de Lauro de Freitas, BA. Fonte: informs.conder.ba.gov.br Os recobrimentos longitudinal e lateral são necessários para a restituição estereoscópica por parte do técnico que fará a restituição dos objetos fotografados no overlay que é a matriz da carta ou mapa sistemático. [A estereoscopia é a:] Justaposição dos termos gregos stereo, relativo a dois (duplo), e scopos, relativo a visão (observador), estereoscopia diz respeito a visualização de um mesmo foco por dois mecanismos de captação de imagens. Em linhas gerais, quando em seres humanos, diz-se que a imagem percebida pelo cérebro resulta da combinação de duas imagens captadas uma em cada olho. Este par de imagens recebe o nome de par estereoscópico (do inglês stereo image pair) (MALARD, 2008, p. 6). Escala das aerofotos A Escala (E) das fotos aéreas é baseada na relação entre a altura (H) do voo e a distância focal (f) da lente utilizada na câmera aerofotogramétrica, isto é, dividindo-se H por f obtemos E ou a escala da foto aérea. 12 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Como exemplo, se a lente for de 153mm (15,3cm) e a altura do voo for de 1.224m (122.400cm), a escala será de 1:8.000. Aerofotointerpretação Há diversos aspectos que devem ser observados na aerofotointerpretação. Na maior parte dos casos, o trabalho é de grande responsabilidade da capacidade de visualizar a estereoscopia do par de fotos e interpretar os objetos criando signos para representá-los. A esta atividade denominamos de restituição aerofotogramétrica. Como são múltiplas as finalidades ou temas (Geologia, Geomorfologia, Hidrografia, vegetação natural, vegetação antropizada, Pedologia, Topografia, Edificações etc.) que a aerofotogrametria pode abranger, a aerofotointerpretação que é a identificação, delimitação e classificação dos objetos registrados dependem de uma série de critérios técnicos, tais como: · Forma; · Padrão de distribuição; · Textura; · Sombra; · Tonalidade. No conjunto de imagens a seguir na Figura 5 podemos observar a conversão dos fenômenos registrados pela câmera aerofotogramétrica em signos que, posteriormente serão transferidos para a carta sistemática (Figura 6) do mesmo local apresentado. Figura 5 – Ortofoto de Ribeirão Preto, Instituto Geográfico e Cartográfico do Estado de São Paulo (IGC). Fonte: datageo.ambiente.sp.gov.br 13 Figura 6 – Carta topográfica 1:10.000, Instituto Geográfico e Cartográfico do Estado de São Paulo (IGC). Fonte: datageo.ambiente.sp.gov.br Sensoriamento remoto A rigor, podemos explicar a expressão Sensoriamento Remoto (SR) como o conjunto de recursos humanos e materiais destinados à percepção de objetos sem que haja contato físico com os mesmos. Historicamente podemos associar o SR ao tema analisado nos itens anteriores, pois a origem do SR está intimamente ligada ao pioneirismo do uso das fotografias aéreas que implicou diretamente em pesquisas do ambiente atmosférico e extraterrestre. Isto inclui a descoberta da decomposição da luza branca, feita por Newton (1643-1727). O aperfeiçoamento das técnicas de aquisição de informações remotas teve um grande salto na década de 1960 a partir do uso dos sistemas detecção de ondas eletromagnéticas por radar (Radio Detection and Ranging). O funcionamento do SR é baseado no princípio da óptica de Newton que defendeu três princípios fundamentais: - As cores dos os corpos são em função simplesmente do fato de que refletem a luz de certa cor em maior quantidade do que outras; - A luz branca não é pura, mas constituída da superposição de todas as cores do espectrum; - A luz se decompõe por causa das diferenças de refração ao passar de um meio para outro. Esses princípios de Newton podem ser observados na Figura 7, essa que simplifica toda a arquitetura do SR construída para obter, tratar ou processar, armazenar e divulgar dados e informações em meio digital. 14 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Figura 7 – Esquematização do SR. Fonte: Adaptado de auracle.ca Do espaço, os sensores dos satélites detectam a radiação (solar) refletida ou o calor emitido, isto é, o brilho dos objetos (“alvos”) existentes na superfície terrestre. Internamente os prismas dos sensores subdividem as cores refletidas pelos alvos e decompõem-nas em “bandas espectrais” que nada mais são do que os intervalos dos comprimentos de onda eletromagnética. Como a detecção abrange grandes extensões, teoricamente todos os objetos são detectados, cada qual com seu brilho específico, compondo a imagem espectral. O eletromagnetismo e o SR Para entender como os sensores captam o brilho dos objetos temos que considerar e compreender o papel do eletromagnetismo. A Radiação Eletromagnética (REM) constitui- se de ondas elétricas e magnéticas que oscilam perpendicularmente entre si, propagando-se na velocidade da luz e permeando todo o espaço-tempo. A Figura 8 apresenta um esquema próximo do que é a REM e suas propriedades. Figura 8 – Esquema de uma onda eletromagnética. Legenda: E = campo elétrico; M = campo magnético; Z = direção de propagação da onda eletromagnética; L = comprimento de onda; XZ = plano de excitação do campo elétrico; YZ = plano de excitação do campo magnético. Fonte: dpi.inpe.br 15 O conjunto de comprimentos de onda que compõe a REM é conhecido como espectro eletromagnético, o qual é “dividido” em certo número de “regiões” chamadas bandas espectrais, ou simplesmente “bandas”. Figura 9 – Espectro eletromagnético. Fonte: wikimedia Commons Como se pode observar na Figura 9, há diversas bandas espectrais. Seres humanos que somos, percebemos a banda ou região visível do espectro eletromagnético, portanto, somos totalmente dependentes da presença da luz. Em termos comparativos, alguns animais, os quais identificamos como de “hábito noturno”, na verdade conseguem perceber em suas presas, além do visível, a banda que corresponde ao infravermelho termal, isto é, o calor latente existente nos corpos sobre a Terra. Agora vejamos como são recompostas as imagens multiespectrais capturadas pelos sensores dos satélites (Figura 10). Figura 10 – Recomposição colorida de bandas espectrais 3, 4 e 5. Fonte: Adaptado de globalgeo.com.br O vermelho (Red), o verde (Green) e o azul (Blue) formam o sistema de cores aditivas chamado de RGB de arranjo de cores em ambiente digital. Há sobreposição das cores RGB geral às cores substrativas magenta, ciano e amarelo. A sobreposição do conjunto pode gerar, dependendo da sobreposição, tanto o preto como o branco. Com essas condições é possível recolorir os objetos registrados pelos sensores dos satélites para que esses se aproximem das suas cores reais e, assim, tornarem-se reconhecíveis pelo usuário dos produtos de SR. 16 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Os programas espaciais surgidos pelo mundo nas décadas de 1960, 1970 e 1980 lançaram satélites equipados com inúmeros tipos de sensores para “perceberem” as mais diversas bandas do espectroeletromagnético, como veremos adiante. Principais missões de SR Além das aplicações para fins estratégicos e militares, os sensores remotos passaram a levantar dados climáticos e ambientais ainda durante a década de 1960. Isto se transformou em uma tendência durante a década de 1970, quando foi lançado o satélite orbital Earth Resources Technology para levantamentos de recursos naturais, atividade aprimorada com o lançamento da série Land Remote Sensing Satellite (Landsat). Foram lançados sete satélites da série Landsat, sendo que apenas o de número cinco, com sensor TM que detecta sete bandas espectrais, revistas a cada dezesseis dias e 30m de resolução espacial máxima, ainda está operando. O satélite Landsat tem uma resolução moderada. Não pode detectar um poste de luz em uma quadra urbana ou uma árvore a ser preservada, mas consegue identificar os contornos de uma floresta e de uma cidade, estando aí a sua importância, pois nos permite monitorar as modificações na paisagem como, por exemplo, o desmatamento da floresta amazônica (Figura 11). Figura 11 – Composição multiespectral para cobertura vegetal. Fonte: adaptado de Florenzano (2002, p. 60-61). O programa aeroespacial brasileiro O programa aeroespacial brasileiro tem, em parceria com o governo da China, o China-Brazil Earth Resources Satellite (CBERS), isto é, o Satélite Sino-Brasileiro de Recursos Terrestres. A finalidade do programa CBERS é basicamente o monitoramento ambiental, especificamente do território brasileiro, desde 1999, quando foi lançado da China, o CBERS 1 e, em 2003 a mesma base lançou o CBERS 2. Em 2004, Brasil e China iniciaram a construção do CBERS-2B lançando-o em 2007. O CBERS-2B operou até 2010. Em 2013, uma falha no lançador chinês impediu o lançamento do CBERS-3. Segundo o Instituto Nacional de Pesquisas Espaciais (Inpe), o lançamento do CBERS-4 está previsto para o dia 7 de dezembro de 2014. 17 Algumas particularidades do CBERS Os satélites CBERS 1, 2 e 2B são equipados com uma diversidade de câmeras com diferentes resoluções espaciais e frequências de coleta de dados e observações ópticas de todo o globo terrestre, além de um sistema de coleta de dados ambientais. É decisivo no monitoramento das queimadas florestais. Importante Os satélites CBERS 1, 2 e 2B caracterizam-se por estarem em uma órbita síncrona com o Sol a uma altitude de 778km, completando quatorze revoluções da Terra por dia. Esse tipo de órbita é tal que o satélite sempre cruza o Equador às 10h30 da manhã, hora local, provendo assim as mesmas condições de iluminação solar para tornar possível a comparação de imagens adquiridas em dias diferentes (INPE, [20--]). Outros programas de SR A série Satellite pour l’Observation de la Terre (Spot), foi iniciada em 1986 com o lançamento do satélite franco-europeu Spot 1, pelo Centre National d’Etudes Spatiales (Cnes), França. Esta missão tem três satélites (2, 4 e 5) com giros completos ao redor da Terra, ou revisitas de três a cinco dias. Os satélites da missão Spot dispõem de sensores ópticos, detectando as bandas do visível, do infravermelho próximo e do infravermelho médio. O Spot 5, lançado em 2002, obtém visada lateral de até 27º (estereoscopia cilíndrica), o que permite a aquisição de imagens orbitais tridimensionais, além de oferecer imagens pancromáticas com resolução de cinco metros. Assim como a família Landsat, a Spot também tem aplicações em planejamento e gestão ambiental, rural e urbana. Nas décadas de 1960 a National Aeronautics and Space Administration (Nasa) desenvolveu ou sistema Television and Infrared Observation Satellite (Tiros) para obter informações meteorológicas, esse foi desenvolvido pela Nasa devido a necessidade de se ter um sistema de satélites meteorológicos. Em 1970, a Nasa lançou o Tiros A (também denominado de NOAA- 01), equipado com um sensor infravermelho para obtenção de senas noturnas. A missão passou a denominar-se National Oceanic and Atmospheric Administration (NOAA) e a ser administrada pelo consórcio National Environmental Satellite Data and Information Service (Nesdis) e National Aeronautics and Space Administration (Nasa), ambos pertencentes ao governo dos EUA. O NOAA pode gerar cenas de dimensões continentais (campo de visada largo) e suas aplicações são concentradas em áreas como a análise da cobertura vegetal; o monitoramento de queimadas; a meteorologia e a agrometeorologia. O European Remote Sensing Satellite (ERS) da European Space Agency (ESA), foi um programa constituído de dois satélites: o ERS-01 e o ERS-02 que operaram de 1991 a 2000 e de 1995 a 2011, respectivamente. Os satélites ERS eram equipados com sensores de micro-ondas que cobriam uma faixa de cem por cem quilômetros, com resolução espacial de trinta metros, colhendo informações ambientais 18 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos das terras emersas e da superfície do mar, independentemente da taxa de nebulosidade da área registrada. Os ciclos de revisita giravam em torno de 35 dias. Em 1995, a Canadian Space Agency (CSA) lançou o Radarsat-1 com especificações e finalidades muito similares aos do ERS. Um sensor capaz de detectar micro-ondas registrava dados ambientais independentemente da cobertura de nuvens existentes. As cenas variavam de 45 a 500km de largura com resolução espacial variando, respectivamente, entre dez e cem metros. O Radarsat-1 operou até 2013 quando foi declarado não operacional. O Radarsat-2 de observação da superfície terrestre, lançado em 2007, continua em operação, com revisitas de 24 em 24 dias. O satélite Ikonos é parte de um programa privado de fornecimento de imagens multiespectrais e pancromáticas da superfície terrestre. As imagens multiespectrais são detectadas por meio de múltiplos comprimentos de onda do espectro eletromagnético que, por sua vez, são recebidas em sensores capazes de “ver” diversas bandas espectrais. Já as imagens pancromáticas são aquelas em que os sensores captam a luz visível transmitida pelos objetos na superfície em tons que vão do branco ao preto passando pelos diversos tons de cinza. A Figura 12 é um exemplo de imagem multiespectral. As diversas bandas captadas pelo satélite ALOS são decodificadas em “falsas” cores que se assemelham às cores visíveis dos objetos. Figura 12 – Exemplo de imagem multiespectral do satélite Alos. Fonte: globalgeo.com.br A Figura 13 representa o tipo de imagem pancromática tratada acima. Também obtida pelo satélite Alos, esta imagem capta uma única banda visível com resolução espacial de 2,5m. Figura 13 – Exemplo de imagem pancromática do satélite Alos. Fonte: globalgeo.com.br 19 Em 2006, a Japan Aerospace Exploration Agency (Jaxa) lançou o Advanced Land Observing Satellite (Alos). Este satélite apresenta tecnologia avançada de observação terrestre, tendo aplicações mais frequentes em Cartografia, monitoramento de desastres e levantamento de recursos naturais. Os produtos Alos são um bom exemplo do que chamamos de sensores passivos e ativos. Os sensores passivos são aqueles que detectam a radiação proveniente dos alvos em terra, seja a radiação emitida pelo próprio objeto ou a refletida nesse a partir do Sol. Já os sensores ativos, como é o caso dos radares de micro-ondas, são assim chamados pois emitem radiação artificial na direção dos alvos e avaliam as respostas que esses transferem de volta. Há no espaço outro grupo de satélites voltados para outro fim. São os satélites do sistema GPS, ao qual passaremos a tratar em seguida. O sistema GPS O ponto de partida para entendermos a tal revolução é o lançamento do satélite Vanguard, em 1958, nos EUA, que, pode-se dizer, deu início ao programa Navigation Satellite with Timing and Ranging (Navstar). Este pioneirismo acompanhou o projeto Sputnik,da ex-URSS e deu origem aos Sistemas de Navegação por Satélite, ou Global Navigation Satellite System (GNSS), compreendidos por dois projetos: · O Global Positioning System (GPS), dos EUA; e · O Sistema de Navegação Global por Satélite (Glonass), da Rússia. Há dois outros GNSS em desenvolvimento: o sistema europeu Galileo e o sistema chinês Compass. O Sistema de Posicionamento Global, ou Global Positioning System (GPS), dirigido pelo departamento de defesa (DoD) dos EUA, surgiu em 1973, a partir da fusão de um projeto chamado Transit/Timation, da Marinha dos EUA (US Navi) e de um sistema de navegação chamado 621B criado pela Força Aérea dos EUA (US Air Force). A arquitetura do programa consiste em implantar um modelo elipsoidal em um sistema que integra estações de controle, satélites orbitais e receptores de sinal de satélite para localizar com precisão um ponto na superfície e, ou, sua velocidade em deslocamento. A vantagem desse modelo em relação aos demais é o fato de que tem por referência o centro de massa da Terra (geocêntrico) e não a superfície (topocêntrico). Com o aumento do número de satélites que hoje é de mais de vinte, toda a superfície da Terra é coberta pela órbita dos satélites do sistema GPS, o que permite que se tenha posicionamento e rastreamento em todos os lugares do mundo. O World Geodetic System, de 1984, ou simplesmente WGS84, é um sistema de referência geodésico global estabelecido pelo DoD, que tem por objetivo fornecer posicionamento e navegação em qualquer parte do mundo. Trata-se do mesmo referencial que orienta o sistema GPS. 20 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Estrutura do sistema GPS O sistema GPS é constituído de três segmentos: espacial, controle e usuário. Segmento espacial O segmento espacial é formado pela constelação de satélites GPS, também chamados de veículos espaciais – Space Vehicles (SV). A constelação é composta de seis planos orbitais com inclinação de 55° ao Equador. Os satélites encontram-se a uma altitude de 20.200km e cumprem a revolução ao redor da Terra a cada doze horas (Figura 14). Figura 14 – Constelação e órbitas de satélites GPS. Fonte: colorado.edu Como é possível observar na Figura 14, como os satélites têm órbitas inclinadas e posição longitudinal e latitudinal específicas, não há nenhuma área na superfície terrestre que não seja coberta pelos sinais dos satélites GPS (Figura 15). Figura 15 – Satélite do Block II-F do sistema GPS. Fonte: wikimedia Commons 21 Diferentemente dos satélites GPS, outros satélites como os do programa Geostationary Operational Environmental Satellite (Goes), com finalidades de monitoramento meteorológico- climático são geoestacionários, ou seja, mantêm posições fixas no espaço, tornando-se muito precisos. Os satélites de comunicação, dadas as suas particularidades, também são geoestacionários. Importante Os produtos dos satélites meteorológicos permitem aos agricultores, entre outras ações, o planejamento do plantio, o controle das pragas e a previsão da colheita de forma mais precisa. Segmento de controle O segmento de controle é constituído por cinco estações de controle (Figura 16), uma principal, a Colorado Springs, nos EUA e quatro de monitoramento, distribuídas ao longo da faixa equatorial, com a função de monitorar os satélites, efetuando eventuais correções em suas órbitas e em seus relógios. Com essa distribuição, além de um monitoramento contínuo, a qualquer instante todos os satélites podem ser corrigidos. Figura 16 – Estações de controle e monitoramento do sistema GPS Fonte: colorado.edu Segmento dos usuários O segmento dos usuários é composto pelos portadores de receptores (Figura 17) de sinal dos satélites GPS, obtendo com isto o posicionamento geográfico e/ou a velocidade e direção do seu deslocamento sobre a superfície terrestre. 22 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Figura 17 – Receptores GPS. Fonte: wikimedia Commons Sinal de satélite GPS Os satélites do sistema GPS transmitem posição geográfica e velocidade por meio de ondas de rádio. As faixas de onda utilizadas para transmissão GPS são: · Onda portadora L1 (1575,42Mhz); · Onda portadora L2 (1227,6oMhz). Destas ondas são extraídos dois tipos de sinal: · A onda portadora L1 modula o código C/A (1.023Mhz), que é um código livre para uso civil; · A onda portadora L2 modula o código P (1.023Mhz), que é um código exclusivamente fornecido para uso militar. Determinação de posicionamento geográfico e velocidade de deslocamento A determinação da posição geográfica e/ou a velocidade do deslocamento é feita por meio de um cálculo, chamado de trilateração, de pseudodistâncias entre o receptor GPS e, no mínimo, quatro satélites do segmento espacial. Essa conjunção permite que o ponto ou o trajeto seja registrado em três dimensões: a latitude, a longitude e a altitude em relação ao elipsoide. Pseudodistância (pseudo-range) A pseudodistância (Figura 18) tem este nome porque, na verdade, é o resultado do intervalo decorrido de tempo entre a saída do sinal a partir do satélite e a entrada no receptor, isto é, trata-se do tempo de percurso que o sinal faz no espaço e não uma distância propriamente dita. 23 Figura 18 – Esquema da pseudodistância (pseudo-range). Fonte: Adaptado de copter.ardupilot.com Além disso, o tempo do percurso do sinal ou pseudodistância sobre diversas interferências age tanto devido às imprecisões nos relógicos dos satélites e dos receptores, quanto aos fatores externos ligados à física da atmosfera. A tomada das pseudodistâncias entre o receptor e, ao menos, quatro satélites de tais interferências é matematicamente anulada, permitindo então o posicionamento geográfico preciso. É inegável que a disponibilização maciça desses produtos, além de servir aos interesses produtivos no campo, na cidade, na iniciativa privada e pública, tem popularizado as ferramentas de SR para inúmeras atividades domésticas, de lazer e trabalho. As imagens dos satélites ou dos radares meteorológicos nos telejornais e nos sites de agrometeorologia; o GPS automotivo e os mapas para smartphones são os exemplos mais populares que o SR proporciona hoje. Contudo, a finalidade inicial e mais importante do SR é, de fato, a melhora na produção e atualização dos produtos da Cartografia Sistemática e Temática (Figura 19). Figura 19 – Parâmetros de cartas topográficas 1:50.000 do IBGE Fonte: downloads.ibge.gov.br 24 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Material Complementar Explore Sobre o programa China-Brazil Earth Resources Satellite (CBERS), disponível em: · http://www.cbers.inpe.br e · http://www.inpe.br. Sobre a série Land Remote Sensing Satellite (Landsat), disponível em: · http://www.goes.noaa.gov e · http://www.cdbrasil.cnpm.embrapa.br/txt/landsat.htm. Sobre a aquisição de dados ambientais, disponível em: · http://www.noaa.gov e · http://www.goes.noaa.gov. Sobre o Global Positioning System, ou sistema GPS, disponível em: · http://www.gps.gov, · http://www.colorado.edu/geography/gcraft/notes/gps/gps_f.html e · http://www.montana.edu/gps/understd.html. 25 Referências FIGUEIREDO, D. Conceitos básicos de sensoriamento remoto. set. 2005. Disponível em: <http://www.conab.gov.br/conabweb/download/SIGABRASIL/manuais/conceitos_sm.pdf>. Acesso em; 15 nov. 2014. FITZ, P. R. Cartografia básica. 3. ed. São Paulo: Oficina de Textos, 2008. FLORENZANO, T. G. Imagens de satélite para estudos ambientais. São Paulo: Oficina de Textos, 2002. FONTANA, S. Sistema de Posicionamento Global – GPS: a navegação do futuro.2. ed. Porto Alegre, RS: Mercado Aberto, 2002. HISTORY of photogrammetry. [20--]. Disponível em: <https://spatial.curtin.edu.au>. Acesso em: 9 nov. 2014. INSTITUTO BRASILEIRO DE GEOGRÁFIA E ESTATÍSTICA (IBGE). Noções básicas de Cartografia. Rio de Janeiro, 1998. Disponível em: <ftp://geoftp.ibge.gov.br/documentos/ cartografia/nocoes_basicas_cartografia.pdf>. Acesso em: 31 out. 2014. INSTITUTO NACIONAL DE PESQUISAS ESPACIAIS (INPE). Câmeras imageadoras CBERS-1, 2 e 2B. [20--]. Disponível em: <http://www.cbers.inpe.br/sobre_satelite/cameras_ imageadoras_cbers1e2e2b.php>. Acesso em: 11 nov. 2014. JOLY, F. A Cartografia. 6. ed. Campinas, SP: Papirus, 2004. LIBAULT, A. Geocartografia. São Paulo: Edusp, 1975. MALARD, M. L. Princípios Teóricos da estereoscopia. [S.l.]: UFMG, [20--]. Disponível em: <http://www.arq.ufmg.br/eva/aivit.s/Princ%EDpios%20Te%F3ricos%20da%20Estereoscopia. pdf>. Acesso em: 10 nov. 2014. MENESES, P. R.; ALMEIDA, T (Org.). Introdução ao processamento de imagens de sensoriamento remoto. Brasília, DF: Unb; CNPq, 2012. Disponível em: <http://www.cnpq. br/documents/10157/56b578c4-0fd5-4b9f-b82a-e9693e4f69d8>. Acesso em: 15 out. 2014. MINEROPAR. Glossário. [20--]. Disponível em: <http://www.mineropar.pr.gov.br/modules/ glossario>. Acesso em: 15 out. 2014. 26 Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos Anotações
Compartilhar