Buscar

Unidade V Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos

Prévia do material em texto

Geografia e Cartografia
Aerofoto, sensoriamento remoto, sistema GPS e produtos 
cartográficos temáticos
Material Teórico
Responsável pelo Conteúdo:
Prof. Ms. Carlos Eduardo Martins
Revisão Textual:
Prof. Ms. Luciano Vieira Francisco
5
Nesta unidade abordaremos aerofoto, sensoriamento remoto, sistema GPS e produtos 
cartográficos temáticos, por meio dos quais você terá acesso a diversos recursos de aprendizagem.
Não deixe de “baixar” o arquivo em formato pdf do material teórico. Assim você poderá ter 
acesso às nossas discussões onde quer que esteja.
Veja o mapa mental que sintetiza a estrutura assunto tratado nesta unidade.
Fique atento(a) aos prazos das atividades que serão colocados no ar.
Recorra sempre que possível às videoaulas e ao PowerPoint narrado para tirar eventuais 
dúvidas sobre o conteúdo textual.
Participe do fórum de discussão proposto para estes temas.
Em seu tempo livre, procure pesquisar as fontes do material complementar.
Além disto, procure pesquisar o máximo que puder sobre aerofoto, sensoriamento remoto, 
sistema GPS e produtos cartográficos temáticos. Há inúmeros conteúdos na Internet que são 
úteis para o seu estudo e para a sua formação profissional.
Analisar os temas aerofoto, sensoriamento remoto, sistema GPS e produtos 
cartográficos temáticos, atualmente consideradas as ferramentas mais comuns 
na aquisição de dados e informações geográficas para a produção de cartas e 
mapas sistemáticos e temáticos.
Aerofoto, sensoriamento remoto, 
sistema GPS e produtos cartográficos 
temáticos
 · Introdução
 · O funcionamento da aerofotogrametria
 · O eletromagnetismo e o SR
 · O sistema GPS
6
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
Contextualização
Os temas tratados nesta unidade, embora sejam analisados de forma individualizada, são 
considerados na Cartografia Sistemática como técnicas para aquisição de dados e informações 
geográficas para fins de mapeamento e geração de produtos como os mapas ou cartas. 
Nosso ponto de partida será discutir o papel das fotografias aéreas enquanto instrumento de 
composição visual vertical da paisagem. Por uma questão de ordenamento lógico separamos 
o tema aerofoto de sensoriamento remoto e Global Positioning System (GPS), embora todos 
sejam ferramentas remotas de obtenção de dados e informações.
7
Introdução
Aerofotogrametria e aerofotointerpretação
A aerofotogrametria envolve uma série de atividades que tem por fim obter aerofotografias 
para fins de produção cartográfica. Diversos recursos materiais e pessoais são empregados 
nesta atividade e que serão detalhados em seguida. Ante disto, vejamos uma pequena narrativa 
histórica dos registros fotográficos como recursos ao mapeamento até os dias atuais.
Histórico da fotogrametria
As origens da fotogrametria podem recuar ao fim do século XV, quando Leonardo da Vinci 
criou a perspectiva nas suas obras, contribuindo com os rudimentos da Geometria Projetiva, 
desenvolvida pelo matemático francês Desargues, no início do século XVII, definindo Geometria 
Projetiva à generalização do uso dos pontos de fuga.
O pioneirismo da fotogrametria pode ser atribuído ao geodesista Dominique François Jean 
Arago que, em 1840, utilizou um processo chamado daguerreótipo, considerado o embrião da 
fotografia moderna.
Em 1849, Aimé Laussedat foi o primeiro a utilizar as fotografias terrestres como base para 
compor mapas topográficos. Em 1858, Laussedat fez as primeiras tentativas de fotografar a 
superfície do céu utilizando uma pipa. Em 1862, passou a utilizar balões, que inspiraram de 
maneira decisiva a Gaspard Felix Tournachon (também conhecido como Nadar) a dar início às 
diversas campanhas de registros fotográficos do solo a partir de balões (Figura 1).
Figura 1 – Nadar fotografando de seu balão.
 
Fonte: mentalfloss.com
Em pleno processo de expansão das suas forças militares, em 1859, Napoleão ordenou a 
Nadar que obtivesse fotografias de reconhecimento para planejar a Batalha de Solferino, na 
Itália, da qual o exército napoleônico sagrou-se vitorioso. Estavam lançadas as bases para o uso 
estratégico-militar da aerofotogrametria.
8
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
Em 1893, Albrecht Meydenbauer foi o primeiro a cunhar o termo “fotogrametria”, tornando-
se o fundador do Instituto Fotogramétrico Real da Prússia. Meydenbauer projetou sua própria 
câmera fotogramétrica em 1867, fazendo uso de uma grande angular de 105°, utilizada nos 
levantamentos topográficos de Freyburg, Alemanha. As particularidades da câmera que criou 
ainda são encontradas em câmeras aerofotogramétricas atuais.
Internacionalmente, o marco da invenção do avião é atribuído aos irmãos Wright, em 1903. 
Entretanto, a primeira fotografia aérea para fins de mapeamento foi capturada por Cesare 
Tardivo, em 1908.
A primeira câmera montada diretamente na estrutura de um avião ocorreu em 1914 com os 
irmãos Arthur Brock Jr. e Norman H. Brock, nos EUA. Até então, as câmeras eram carregadas 
e as fotos feitas manualmente.
Em 1920, Sherman Mills Fairchild elaborou um mosaico com mais de cem fotos aéreas 
da ilha de Manhattan, criando, provavelmente, o protótipo do que chamamos atualmente de 
fotoíndice, sendo um dos primeiros a montar uma companhia de desenvolvimento de câmeras 
fotogramétricas, em 1920, a Fairchild Aerial Camera Corporation.
Glossário
Fotoíndice: mapa-índice elaborado através da união das fotografias aéreas em suas devidas posições, 
sendo tirada uma cópia fotográfica do conjunto em escala reduzida (MINEROPAR, [20--]).
Por fim, em 1937, Talbert Abrams criou a Escola de Mapeamento Aéreo e Fotointerpretação 
para dar treinamento aos militares norte-americanos.
A partir do entre guerras mundiais o desenvolvimento passou a centrar atenção sobre as câmeras 
aerofotogramétricas, filmes especiais, fotorrestituidores etc. Tudo em prol da melhoria na qualidade 
das imagens e fundamentalmente dos produtos dessas imagens analógicas: os mapas.
A Guerra Fria trouxe consigo as corridas aeroespacial, eletrônica e computacional que, em 
conjunto, revolucionaram a aquisição, tratamento, processamento e confecção de aerofotos 
a partir de então.
9
O funcionamento da aerofotogrametria
O que é a aerofotogrametria? 
No que concerne às fotografias aéreas, há duas formas consideradas possíveis: 
- Fotografias verticais: tomadas como eixo ótico da câmera na vertical ao nadir e consideradas 
para os mapeamentos oficiais, com aeronaves, voos, altitude e câmeras especiais; 
- Fotografias oblíquas: tomadas com o eixo ótico da câmera inclinado obliquamente ao 
campo de observação, feitas de forma menos rigorosa com equipamentos mais simples.
Outro aspecto de grande importância na aerofotogrametria é a escala da fotografia aérea. 
Essa decorre da relação entre a distância focal da câmara e a altura de voo da aeronave e deve 
ser padronizada (Figura 2).
Figura 2 – Interior de uma aeronave especialmente adaptada à aerofotogrametria.
Fonte: aerosat.com.br
Voo fotogramétrico
O voo fotogramétrico, em geral, é precedido de um planejamento que avalia diversas 
condições relacionadas ao ambiente a ser fotografado e ao produto que se deseja obter.
Além da área a ser fotografada, é necessário considerar o relevo, a posição do Sol na hora do 
voo, o tipo de vegetação que recobre a superfície, entre outros aspectos.
Quanto ao produto a ser obtido no trabalho de fotogrametria, deve-se considerar a altura do 
voo, o intervalo de curvas e a distância focal da câmera com base na escala da fotografia desejada.
10
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
Cobertura aerofotográfica ou linha de voo
A área coberta pelo voo fotogramétrico (Figura 3a) é um conjunto de faixasdo terreno 
organizado de tal forma que entre duas fotos sucessivas em cada faixa, haja uma superposição 
ou recobrimento longitudinal de cerca de 60% entre ambas (Figura 3b). Entre cada faixa 
sucessiva deve haver uma superposição ou recobrimento lateral de cerca de 30% (Figura 3c).
Figura 3 – Voo fotogramétrico e recobrimento longitudinal e lateral.
Fonte: fao.org
Ainda que todas essas condições sejam antevistas podem acontecer imprevistos 
atmosféricos, falhas técnicas no voo e desvios de trajeto. Essas ocorrências podem gerar 
anomalias observáveis apenas no arranjo das fotos no fotoíndice da área coberta pela 
campanha aerofotogramétrica (Figura 4). 
11
Figura 4 – Fotoíndice de Lauro de Freitas, BA.
Fonte: informs.conder.ba.gov.br
Os recobrimentos longitudinal e lateral são necessários para a restituição estereoscópica por 
parte do técnico que fará a restituição dos objetos fotografados no overlay que é a matriz da 
carta ou mapa sistemático.
[A estereoscopia é a:] Justaposição dos termos gregos stereo, relativo a dois 
(duplo), e scopos, relativo a visão (observador), estereoscopia diz respeito a 
visualização de um mesmo foco por dois mecanismos de captação de imagens. 
Em linhas gerais, quando em seres humanos, diz-se que a imagem percebida 
pelo cérebro resulta da combinação de duas imagens captadas uma em cada 
olho. Este par de imagens recebe o nome de par estereoscópico (do inglês stereo 
image pair) (MALARD, 2008, p. 6).
Escala das aerofotos
A Escala (E) das fotos aéreas é baseada na relação entre a altura (H) do voo e a distância 
focal (f) da lente utilizada na câmera aerofotogramétrica, isto é, dividindo-se H por f obtemos E 
ou a escala da foto aérea.
12
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
Como exemplo, se a lente for de 153mm (15,3cm) e a altura do voo for de 1.224m 
(122.400cm), a escala será de 1:8.000.
Aerofotointerpretação
Há diversos aspectos que devem ser observados na aerofotointerpretação. Na maior parte 
dos casos, o trabalho é de grande responsabilidade da capacidade de visualizar a estereoscopia 
do par de fotos e interpretar os objetos criando signos para representá-los. A esta atividade 
denominamos de restituição aerofotogramétrica.
Como são múltiplas as finalidades ou temas (Geologia, Geomorfologia, Hidrografia, vegetação 
natural, vegetação antropizada, Pedologia, Topografia, Edificações etc.) que a aerofotogrametria 
pode abranger, a aerofotointerpretação que é a identificação, delimitação e classificação dos 
objetos registrados dependem de uma série de critérios técnicos, tais como:
 · Forma;
 · Padrão de distribuição;
 · Textura;
 · Sombra;
 · Tonalidade.
No conjunto de imagens a seguir na Figura 5 podemos observar a conversão dos fenômenos 
registrados pela câmera aerofotogramétrica em signos que, posteriormente serão transferidos 
para a carta sistemática (Figura 6) do mesmo local apresentado.
Figura 5 – Ortofoto de Ribeirão Preto, Instituto Geográfico e Cartográfico do Estado de 
São Paulo (IGC).
Fonte: datageo.ambiente.sp.gov.br
13
Figura 6 – Carta topográfica 1:10.000, Instituto Geográfico e Cartográfico do Estado de São 
Paulo (IGC).
Fonte: datageo.ambiente.sp.gov.br
Sensoriamento remoto
A rigor, podemos explicar a expressão Sensoriamento Remoto (SR) como o conjunto de 
recursos humanos e materiais destinados à percepção de objetos sem que haja contato físico 
com os mesmos.
Historicamente podemos associar o SR ao tema analisado nos itens anteriores, pois a origem 
do SR está intimamente ligada ao pioneirismo do uso das fotografias aéreas que implicou 
diretamente em pesquisas do ambiente atmosférico e extraterrestre. Isto inclui a descoberta da 
decomposição da luza branca, feita por Newton (1643-1727). 
O aperfeiçoamento das técnicas de aquisição de informações remotas teve um grande salto 
na década de 1960 a partir do uso dos sistemas detecção de ondas eletromagnéticas por radar 
(Radio Detection and Ranging).
O funcionamento do SR é baseado no princípio da óptica de Newton que defendeu três 
princípios fundamentais:
- As cores dos os corpos são em função simplesmente do fato de que refletem a luz de certa 
cor em maior quantidade do que outras;
- A luz branca não é pura, mas constituída da superposição de todas as cores do espectrum;
- A luz se decompõe por causa das diferenças de refração ao passar de um meio para outro.
Esses princípios de Newton podem ser observados na Figura 7, essa que simplifica toda 
a arquitetura do SR construída para obter, tratar ou processar, armazenar e divulgar dados e 
informações em meio digital.
14
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
Figura 7 – Esquematização do SR.
Fonte: Adaptado de auracle.ca
Do espaço, os sensores dos satélites detectam a radiação (solar) refletida ou o calor emitido, 
isto é, o brilho dos objetos (“alvos”) existentes na superfície terrestre. Internamente os prismas dos 
sensores subdividem as cores refletidas pelos alvos e decompõem-nas em “bandas espectrais” 
que nada mais são do que os intervalos dos comprimentos de onda eletromagnética. Como a 
detecção abrange grandes extensões, teoricamente todos os objetos são detectados, cada qual 
com seu brilho específico, compondo a imagem espectral.
O eletromagnetismo e o SR
Para entender como os sensores captam o brilho dos objetos temos que considerar e 
compreender o papel do eletromagnetismo. A Radiação Eletromagnética (REM) constitui-
se de ondas elétricas e magnéticas que oscilam perpendicularmente entre si, propagando-se 
na velocidade da luz e permeando todo o espaço-tempo. A Figura 8 apresenta um esquema 
próximo do que é a REM e suas propriedades.
Figura 8 – Esquema de uma onda eletromagnética.
Legenda: E = campo elétrico; M = campo magnético; 
Z = direção de propagação da onda eletromagnética; L = 
comprimento de onda; XZ = plano de excitação do campo 
elétrico; YZ = plano de excitação do campo magnético.
Fonte: dpi.inpe.br
15
O conjunto de comprimentos de onda que compõe a REM é conhecido como espectro 
eletromagnético, o qual é “dividido” em certo número de “regiões” chamadas bandas 
espectrais, ou simplesmente “bandas”.
Figura 9 – Espectro eletromagnético.
Fonte: wikimedia Commons
Como se pode observar na Figura 9, há diversas bandas espectrais. Seres humanos que 
somos, percebemos a banda ou região visível do espectro eletromagnético, portanto, somos 
totalmente dependentes da presença da luz. Em termos comparativos, alguns animais, os quais 
identificamos como de “hábito noturno”, na verdade conseguem perceber em suas presas, além 
do visível, a banda que corresponde ao infravermelho termal, isto é, o calor latente existente 
nos corpos sobre a Terra.
Agora vejamos como são recompostas as imagens multiespectrais capturadas pelos sensores 
dos satélites (Figura 10).
Figura 10 – Recomposição colorida de bandas espectrais 3, 4 e 5.
Fonte: Adaptado de globalgeo.com.br
O vermelho (Red), o verde (Green) e o azul (Blue) formam o sistema de cores aditivas 
chamado de RGB de arranjo de cores em ambiente digital. Há sobreposição das cores RGB 
geral às cores substrativas magenta, ciano e amarelo. A sobreposição do conjunto pode gerar, 
dependendo da sobreposição, tanto o preto como o branco.
Com essas condições é possível recolorir os objetos registrados pelos sensores dos satélites 
para que esses se aproximem das suas cores reais e, assim, tornarem-se reconhecíveis pelo 
usuário dos produtos de SR.
16
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
Os programas espaciais surgidos pelo mundo nas décadas de 1960, 1970 e 1980 lançaram 
satélites equipados com inúmeros tipos de sensores para “perceberem” as mais diversas bandas 
do espectroeletromagnético, como veremos adiante.
Principais missões de SR
Além das aplicações para fins estratégicos e militares, os sensores remotos passaram a levantar 
dados climáticos e ambientais ainda durante a década de 1960. Isto se transformou em uma 
tendência durante a década de 1970, quando foi lançado o satélite orbital Earth Resources 
Technology para levantamentos de recursos naturais, atividade aprimorada com o lançamento 
da série Land Remote Sensing Satellite (Landsat).
Foram lançados sete satélites da série Landsat, sendo que apenas o de número cinco, com 
sensor TM que detecta sete bandas espectrais, revistas a cada dezesseis dias e 30m de resolução 
espacial máxima, ainda está operando. O satélite Landsat tem uma resolução moderada. Não 
pode detectar um poste de luz em uma quadra urbana ou uma árvore a ser preservada, mas 
consegue identificar os contornos de uma floresta e de uma cidade, estando aí a sua importância, 
pois nos permite monitorar as modificações na paisagem como, por exemplo, o desmatamento 
da floresta amazônica (Figura 11).
Figura 11 – Composição multiespectral para cobertura vegetal.
Fonte: adaptado de Florenzano (2002, p. 60-61).
O programa aeroespacial brasileiro
O programa aeroespacial brasileiro tem, em parceria com o governo da China, o China-Brazil 
Earth Resources Satellite (CBERS), isto é, o Satélite Sino-Brasileiro de Recursos Terrestres.
A finalidade do programa CBERS é basicamente o monitoramento ambiental, especificamente 
do território brasileiro, desde 1999, quando foi lançado da China, o CBERS 1 e, em 2003 a 
mesma base lançou o CBERS 2.
Em 2004, Brasil e China iniciaram a construção do CBERS-2B lançando-o em 2007. O 
CBERS-2B operou até 2010. Em 2013, uma falha no lançador chinês impediu o lançamento 
do CBERS-3. Segundo o Instituto Nacional de Pesquisas Espaciais (Inpe), o lançamento do 
CBERS-4 está previsto para o dia 7 de dezembro de 2014.
17
Algumas particularidades do CBERS
Os satélites CBERS 1, 2 e 2B são equipados com uma diversidade de câmeras com diferentes 
resoluções espaciais e frequências de coleta de dados e observações ópticas de todo o globo 
terrestre, além de um sistema de coleta de dados ambientais. É decisivo no monitoramento das 
queimadas florestais.
 
 Importante
Os satélites CBERS 1, 2 e 2B caracterizam-se por estarem em uma órbita síncrona com o Sol a 
uma altitude de 778km, completando quatorze revoluções da Terra por dia. Esse tipo de órbita é tal 
que o satélite sempre cruza o Equador às 10h30 da manhã, hora local, provendo assim as mesmas 
condições de iluminação solar para tornar possível a comparação de imagens adquiridas em dias 
diferentes (INPE, [20--]). 
Outros programas de SR
A série Satellite pour l’Observation de la Terre (Spot), foi iniciada em 1986 com o lançamento do 
satélite franco-europeu Spot 1, pelo Centre National d’Etudes Spatiales (Cnes), França. Esta missão 
tem três satélites (2, 4 e 5) com giros completos ao redor da Terra, ou revisitas de três a cinco dias. 
Os satélites da missão Spot dispõem de sensores ópticos, detectando as bandas do visível, do 
infravermelho próximo e do infravermelho médio. O Spot 5, lançado em 2002, obtém visada 
lateral de até 27º (estereoscopia cilíndrica), o que permite a aquisição de imagens orbitais 
tridimensionais, além de oferecer imagens pancromáticas com resolução de cinco metros. Assim 
como a família Landsat, a Spot também tem aplicações em planejamento e gestão ambiental, 
rural e urbana.
Nas décadas de 1960 a National Aeronautics and Space Administration (Nasa) desenvolveu 
ou sistema Television and Infrared Observation Satellite (Tiros) para obter informações 
meteorológicas, esse foi desenvolvido pela Nasa devido a necessidade de se ter um sistema de 
satélites meteorológicos. Em 1970, a Nasa lançou o Tiros A (também denominado de NOAA-
01), equipado com um sensor infravermelho para obtenção de senas noturnas.
A missão passou a denominar-se National Oceanic and Atmospheric Administration (NOAA) 
e a ser administrada pelo consórcio National Environmental Satellite Data and Information 
Service (Nesdis) e National Aeronautics and Space Administration (Nasa), ambos pertencentes 
ao governo dos EUA. O NOAA pode gerar cenas de dimensões continentais (campo de visada 
largo) e suas aplicações são concentradas em áreas como a análise da cobertura vegetal; o 
monitoramento de queimadas; a meteorologia e a agrometeorologia.
O European Remote Sensing Satellite (ERS) da European Space Agency (ESA), foi um 
programa constituído de dois satélites: o ERS-01 e o ERS-02 que operaram de 1991 a 2000 e 
de 1995 a 2011, respectivamente.
Os satélites ERS eram equipados com sensores de micro-ondas que cobriam uma faixa de cem 
por cem quilômetros, com resolução espacial de trinta metros, colhendo informações ambientais 
18
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
das terras emersas e da superfície do mar, independentemente da taxa de nebulosidade da área 
registrada. Os ciclos de revisita giravam em torno de 35 dias.
Em 1995, a Canadian Space Agency (CSA) lançou o Radarsat-1 com especificações e 
finalidades muito similares aos do ERS. Um sensor capaz de detectar micro-ondas registrava 
dados ambientais independentemente da cobertura de nuvens existentes. As cenas variavam 
de 45 a 500km de largura com resolução espacial variando, respectivamente, entre dez e cem 
metros. O Radarsat-1 operou até 2013 quando foi declarado não operacional. O Radarsat-2 de 
observação da superfície terrestre, lançado em 2007, continua em operação, com revisitas de 
24 em 24 dias.
O satélite Ikonos é parte de um programa privado de fornecimento de imagens multiespectrais 
e pancromáticas da superfície terrestre. As imagens multiespectrais são detectadas por meio de 
múltiplos comprimentos de onda do espectro eletromagnético que, por sua vez, são recebidas 
em sensores capazes de “ver” diversas bandas espectrais. Já as imagens pancromáticas são 
aquelas em que os sensores captam a luz visível transmitida pelos objetos na superfície em tons 
que vão do branco ao preto passando pelos diversos tons de cinza.
A Figura 12 é um exemplo de imagem multiespectral. As diversas bandas captadas pelo satélite 
ALOS são decodificadas em “falsas” cores que se assemelham às cores visíveis dos objetos.
Figura 12 – Exemplo de imagem multiespectral do satélite Alos.
Fonte: globalgeo.com.br
A Figura 13 representa o tipo de imagem pancromática tratada acima. Também obtida pelo 
satélite Alos, esta imagem capta uma única banda visível com resolução espacial de 2,5m.
Figura 13 – Exemplo de imagem pancromática do satélite Alos.
Fonte: globalgeo.com.br
19
Em 2006, a Japan Aerospace Exploration Agency (Jaxa) lançou o Advanced Land Observing 
Satellite (Alos). Este satélite apresenta tecnologia avançada de observação terrestre, tendo 
aplicações mais frequentes em Cartografia, monitoramento de desastres e levantamento de 
recursos naturais.
Os produtos Alos são um bom exemplo do que chamamos de sensores passivos e ativos.
Os sensores passivos são aqueles que detectam a radiação proveniente dos alvos em terra, 
seja a radiação emitida pelo próprio objeto ou a refletida nesse a partir do Sol. Já os sensores 
ativos, como é o caso dos radares de micro-ondas, são assim chamados pois emitem radiação 
artificial na direção dos alvos e avaliam as respostas que esses transferem de volta.
Há no espaço outro grupo de satélites voltados para outro fim. São os satélites do sistema 
GPS, ao qual passaremos a tratar em seguida.
O sistema GPS
O ponto de partida para entendermos a tal revolução é o lançamento do satélite Vanguard, 
em 1958, nos EUA, que, pode-se dizer, deu início ao programa Navigation Satellite with Timing 
and Ranging (Navstar). 
Este pioneirismo acompanhou o projeto Sputnik,da ex-URSS e deu origem aos Sistemas 
de Navegação por Satélite, ou Global Navigation Satellite System (GNSS), compreendidos por 
dois projetos:
 · O Global Positioning System (GPS), dos EUA; e
 · O Sistema de Navegação Global por Satélite (Glonass), da Rússia.
Há dois outros GNSS em desenvolvimento: o sistema europeu Galileo e o sistema chinês Compass.
O Sistema de Posicionamento Global, ou Global Positioning System (GPS), dirigido pelo 
departamento de defesa (DoD) dos EUA, surgiu em 1973, a partir da fusão de um projeto 
chamado Transit/Timation, da Marinha dos EUA (US Navi) e de um sistema de navegação 
chamado 621B criado pela Força Aérea dos EUA (US Air Force).
A arquitetura do programa consiste em implantar um modelo elipsoidal em um sistema que 
integra estações de controle, satélites orbitais e receptores de sinal de satélite para localizar com 
precisão um ponto na superfície e, ou, sua velocidade em deslocamento. A vantagem desse 
modelo em relação aos demais é o fato de que tem por referência o centro de massa da Terra 
(geocêntrico) e não a superfície (topocêntrico). Com o aumento do número de satélites que hoje 
é de mais de vinte, toda a superfície da Terra é coberta pela órbita dos satélites do sistema GPS, 
o que permite que se tenha posicionamento e rastreamento em todos os lugares do mundo.
O World Geodetic System, de 1984, ou simplesmente WGS84, é um sistema de referência 
geodésico global estabelecido pelo DoD, que tem por objetivo fornecer posicionamento e navegação 
em qualquer parte do mundo. Trata-se do mesmo referencial que orienta o sistema GPS.
20
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
Estrutura do sistema GPS
O sistema GPS é constituído de três segmentos: espacial, controle e usuário. 
Segmento espacial
O segmento espacial é formado pela constelação de satélites GPS, também chamados de 
veículos espaciais – Space Vehicles (SV). A constelação é composta de seis planos orbitais com 
inclinação de 55° ao Equador. Os satélites encontram-se a uma altitude de 20.200km e cumprem 
a revolução ao redor da Terra a cada doze horas (Figura 14).
Figura 14 – Constelação e órbitas de satélites GPS.
Fonte: colorado.edu
Como é possível observar na Figura 14, como os satélites têm órbitas inclinadas e posição 
longitudinal e latitudinal específicas, não há nenhuma área na superfície terrestre que não seja 
coberta pelos sinais dos satélites GPS (Figura 15).
Figura 15 – Satélite do Block II-F do sistema GPS.
Fonte: wikimedia Commons
21
Diferentemente dos satélites GPS, outros satélites como os do programa Geostationary 
Operational Environmental Satellite (Goes), com finalidades de monitoramento meteorológico-
climático são geoestacionários, ou seja, mantêm posições fixas no espaço, tornando-se 
muito precisos. Os satélites de comunicação, dadas as suas particularidades, também são 
geoestacionários.
 
 Importante
Os produtos dos satélites meteorológicos permitem aos agricultores, entre outras ações, o planejamento 
do plantio, o controle das pragas e a previsão da colheita de forma mais precisa.
Segmento de controle
O segmento de controle é constituído por cinco estações de controle (Figura 16), uma 
principal, a Colorado Springs, nos EUA e quatro de monitoramento, distribuídas ao longo da 
faixa equatorial, com a função de monitorar os satélites, efetuando eventuais correções em 
suas órbitas e em seus relógios. Com essa distribuição, além de um monitoramento contínuo, a 
qualquer instante todos os satélites podem ser corrigidos.
Figura 16 – Estações de controle e monitoramento do sistema GPS
Fonte: colorado.edu
Segmento dos usuários
O segmento dos usuários é composto pelos portadores de receptores (Figura 17) de sinal dos 
satélites GPS, obtendo com isto o posicionamento geográfico e/ou a velocidade e direção do 
seu deslocamento sobre a superfície terrestre.
22
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
Figura 17 – Receptores GPS.
Fonte: wikimedia Commons
Sinal de satélite GPS
Os satélites do sistema GPS transmitem posição geográfica e velocidade por meio de ondas 
de rádio. As faixas de onda utilizadas para transmissão GPS são:
 · Onda portadora L1 (1575,42Mhz);
 · Onda portadora L2 (1227,6oMhz).
Destas ondas são extraídos dois tipos de sinal:
 · A onda portadora L1 modula o código C/A (1.023Mhz), que é um código livre para uso civil;
 · A onda portadora L2 modula o código P (1.023Mhz), que é um código exclusivamente 
fornecido para uso militar.
Determinação de posicionamento geográfico e velocidade de deslocamento
A determinação da posição geográfica e/ou a velocidade do deslocamento é feita por meio de 
um cálculo, chamado de trilateração, de pseudodistâncias entre o receptor GPS e, no mínimo, 
quatro satélites do segmento espacial. Essa conjunção permite que o ponto ou o trajeto seja 
registrado em três dimensões: a latitude, a longitude e a altitude em relação ao elipsoide.
Pseudodistância (pseudo-range)
A pseudodistância (Figura 18) tem este nome porque, na verdade, é o resultado do intervalo 
decorrido de tempo entre a saída do sinal a partir do satélite e a entrada no receptor, isto é, 
trata-se do tempo de percurso que o sinal faz no espaço e não uma distância propriamente dita.
23
Figura 18 – Esquema da pseudodistância (pseudo-range).
Fonte: Adaptado de copter.ardupilot.com
Além disso, o tempo do percurso do sinal ou pseudodistância sobre diversas interferências 
age tanto devido às imprecisões nos relógicos dos satélites e dos receptores, quanto aos fatores 
externos ligados à física da atmosfera.
A tomada das pseudodistâncias entre o receptor e, ao menos, quatro satélites de tais interferências 
é matematicamente anulada, permitindo então o posicionamento geográfico preciso.
É inegável que a disponibilização maciça desses produtos, além de servir aos interesses 
produtivos no campo, na cidade, na iniciativa privada e pública, tem popularizado as ferramentas 
de SR para inúmeras atividades domésticas, de lazer e trabalho. As imagens dos satélites ou dos 
radares meteorológicos nos telejornais e nos sites de agrometeorologia; o GPS automotivo e os 
mapas para smartphones são os exemplos mais populares que o SR proporciona hoje.
Contudo, a finalidade inicial e mais importante do SR é, de fato, a melhora na produção e 
atualização dos produtos da Cartografia Sistemática e Temática (Figura 19). 
Figura 19 – Parâmetros de cartas topográficas 1:50.000 do IBGE 
 
Fonte: downloads.ibge.gov.br
24
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
Material Complementar
 
 Explore
Sobre o programa China-Brazil Earth Resources Satellite (CBERS), disponível em: 
 · http://www.cbers.inpe.br e 
 · http://www.inpe.br.
Sobre a série Land Remote Sensing Satellite (Landsat), disponível em: 
 · http://www.goes.noaa.gov e 
 · http://www.cdbrasil.cnpm.embrapa.br/txt/landsat.htm.
Sobre a aquisição de dados ambientais, disponível em: 
 · http://www.noaa.gov e 
 · http://www.goes.noaa.gov.
Sobre o Global Positioning System, ou sistema GPS, disponível em: 
 · http://www.gps.gov, 
 · http://www.colorado.edu/geography/gcraft/notes/gps/gps_f.html e 
 · http://www.montana.edu/gps/understd.html.
25
Referências
FIGUEIREDO, D. Conceitos básicos de sensoriamento remoto. set. 2005. Disponível em: 
<http://www.conab.gov.br/conabweb/download/SIGABRASIL/manuais/conceitos_sm.pdf>. 
Acesso em; 15 nov. 2014.
FITZ, P. R. Cartografia básica. 3. ed. São Paulo: Oficina de Textos, 2008.
FLORENZANO, T. G. Imagens de satélite para estudos ambientais. São Paulo: Oficina 
de Textos, 2002.
FONTANA, S. Sistema de Posicionamento Global – GPS: a navegação do futuro.2. ed. 
Porto Alegre, RS: Mercado Aberto, 2002.
HISTORY of photogrammetry. [20--]. Disponível em: <https://spatial.curtin.edu.au>. 
Acesso em: 9 nov. 2014.
INSTITUTO BRASILEIRO DE GEOGRÁFIA E ESTATÍSTICA (IBGE). Noções básicas de 
Cartografia. Rio de Janeiro, 1998. Disponível em: <ftp://geoftp.ibge.gov.br/documentos/
cartografia/nocoes_basicas_cartografia.pdf>. Acesso em: 31 out. 2014.
INSTITUTO NACIONAL DE PESQUISAS ESPACIAIS (INPE). Câmeras imageadoras 
CBERS-1, 2 e 2B. [20--]. Disponível em: <http://www.cbers.inpe.br/sobre_satelite/cameras_
imageadoras_cbers1e2e2b.php>. Acesso em: 11 nov. 2014.
JOLY, F. A Cartografia. 6. ed. Campinas, SP: Papirus, 2004. 
LIBAULT, A. Geocartografia. São Paulo: Edusp, 1975.
MALARD, M. L. Princípios Teóricos da estereoscopia. [S.l.]: UFMG, [20--]. Disponível em: 
<http://www.arq.ufmg.br/eva/aivit.s/Princ%EDpios%20Te%F3ricos%20da%20Estereoscopia.
pdf>. Acesso em: 10 nov. 2014.
MENESES, P. R.; ALMEIDA, T (Org.). Introdução ao processamento de imagens de 
sensoriamento remoto. Brasília, DF: Unb; CNPq, 2012. Disponível em: <http://www.cnpq.
br/documents/10157/56b578c4-0fd5-4b9f-b82a-e9693e4f69d8>. Acesso em: 15 out. 2014.
MINEROPAR. Glossário. [20--]. Disponível em: <http://www.mineropar.pr.gov.br/modules/
glossario>. Acesso em: 15 out. 2014.
26
Unidade: Aerofoto, sensoriamento remoto, sistema GPS e produtos cartográficos temáticos
Anotações

Outros materiais