Baixe o app para aproveitar ainda mais
Prévia do material em texto
Física para Sensoriamento Remoto Organizador Jefferson William Lopes Almeida ESTADO DE MINAS GERAIS Sr. Fernando Damata Pimentel GOVERNADOR Sr. Antônio Eustáquio Andrade Ferreira VICE-GOVERNADOR Profª. Macaé Maria Evaristo dos Santos SECRETÁRIA DE ESTADO DA EDUCAÇÃO Prof. Miguel Correa da Silva Junior SECRETÁRIO DO ESTADO DE CIÊNCIA TECNOLOGIA E ENSINO SUPERIOR Prof. Márcio Rosa Portes SUBSECRETÁRIO DE ENSINO SUPERIOR Universidade Estadual de Montes Claros – UNIMONTES Prof. João Canela dos Reis REITOR Prof. Antônio Alvimar Souza VICE-REITOR Prof. João Felício Rodrigues Neto PRÓ-REITOR DE ENSINO Prof. Geraldo Antônio dos Reis DIRETOR DA ESCOLA TÉCNICA DE SAÚDE DO CENTRO DE EDUCAÇÃO PROFISSIONAL E TECNOLÓGICA – ETS/CEPT Profª. Jacqueline Maia Lima COORDENADORA PEDAGÓGICA DA ESCOLA TÉCNICA DE SAÚDE DO CENTRO DE EDUCAÇÃO PROFISSIONAL E TECNOLÓGICA – ETS/CEPT Profª. Kátia Cilene Gonçalves Maia COORDENADORA GERAL DO PRONATEC Profª. Renata Flávia Nobre Canela Dias COORDENADORA ADJUNTA DO PRONATEC Física para Sensoriamento Remoto Ementa: Princípios físicos em sensoriamento remoto, a radiação eletromagnética, Leis da Radiação, Conceitos fundamentais (Irradiância, Emitância, Radiância), Efeitos Atmosféricos, o Espectro Eletromagnético, Sistemas sensores, Sensores fotográficos e não fotográficos, Comportamento espectral de alvos, Colocação de um satélite em órbita, Imageamento por satélite e utilização de programas para correção das distorções geométricas e atmosféricas em imagens. Sumário 1. Principais conceitos e breve histórico ........................................................................ 1 2. Princípios Físicos em Sensoriamento Remoto ........................................................... 2 2.1 Conceitos fundamentais (Irradiância, Emitância, Radiância) ............................ 7 2.2. Fontes de Radiação Eletromagnética ................................................................. 9 2.3 Interferências Atmosféricas ............................................................................. 11 3. Comportamento Espectral de Alvos ........................................................................ 12 3.1 Comportamento espectral da Vegetação .......................................................... 13 3.2 - Comportamento espectral de minerais e rochas ............................................ 14 3.3 – Comportamento espectral dos solos.............................................................. 14 3.4 - Comportamento espectral da água ................................................................. 15 4. Plataformas de sensoriamento remoto ..................................................................... 17 5. Sistemas fotográficos ............................................................................................... 18 6. Sistema Sensores ...................................................................................................... 19 6.1 Sistemas sensores: RADAR ............................................................................. 20 6.2 Características dos satélites Landsat (Sistema passivo) ................................... 21 7. Imagem digital ......................................................................................................... 23 8. Resoluções das Imagens .......................................................................................... 25 8.1 Resolução Espacial .......................................................................................... 26 8.2 Resolução Espectral ......................................................................................... 28 8.3 Resolução Radiométrica .................................................................................. 29 8.4 Resolução Temporal ........................................................................................ 30 9. Interpretação visual .................................................................................................. 32 10. Formatos de Arquivos ......................................................................................... 35 1 1. Principais conceitos e breve histórico Os primeiros estudos envolvendo Sensoriamento Remoto (SR) estão ligados ao advento das fotografias e às pesquisas espaciais. Com efeito, os primeiros produtos de sensoriamento remoto de que se tem notícia são as fotografias aéreas. Os próprios termos Fotogrametria e fotointerpretação são mais antigos do que o termo Sensoriamento Remoto (ÁLVARES 2002; INPE 2001). Fato é que desde 1858 as fotografias aéreas já estavam sendo utilizadas em levantamentos topográficos pelos franceses. Contudo, os levantamentos sistemáticos realizados a partir de fotografias aéreas datam de 1956 com os Estados Unidos e 1958 no Brasil. Por volta de 1960 o termo Sensoriamento Remoto aparece na literatura compreendido apenas sobre a premissa de falta de contato físico entre sensor e alvo. (WUTKE, Et…Ale, 2006; INPE 2001) Novo (2008) argumenta que após a criação do programa Earth Resources Technology Satellite Program (ERTS), em 1969, pela NASA, juntamente com o Department of Agriculture, Department of Interior e o Naval Oceanographic Office dos Estados Unidos da América e a criação dos centros de pesquisa que formam o National Centre for Geographical Information and Analysis (NCGIA), o termo sensoriamento remoto passa a guardar muito mais conteúdo do que apenas a falta de contato entre sensor e alvo. Diante disso, o quadro 01 traz algums dos principais conceitos sobre o termo. No entender de Álvares (2002) os levantamentos, embora ainda utilizados, tendo por base as fotografias aéreas, vêm perdendo comércio para os produtos orbitais, isto é, imagens de satélites. Este fato é possível por uma simples lógica entre custo benefício sendo que é economicamente mais viável trabalhar com imageamento por satélite do que por fotografias aéreas. Além do mais os satélites possuem sensores que captam as imagens em diferentes bandas do espectro eletromagnético o que representa vantagens adicionais se comparadas com o imageamento por fotografia aérea. Autoria Definição INPE, 2005 Utilização de sensores para aquisição de informações sobre objetos ou fenômenos sem que haja contato direto entre eles, através de sensores, energia e sensores remotos. Novo, 1989 Utilização conjunta de modernos sensores, equipamentos para processamento e transmissão de dados, aeronave, espaçonaves, e etc., com o objetivo de estudar o ambiente terrestre através do registro e análise das interações entre a radiação eletromagnética e as substâncias componentes do planeta Terra. Em suas mais diversas manifestações. Rosa, 2003 Forma de obter informações de um objeto ou alvo, sem que haja contato físico com o mesmo. As informações são obtidas utilizando-se a radiação eletromagnética, geradas por fontes naturais como o sol e a Terra, ou por fontes artificiais como, por exemplo, o radar. Campbell, 1996 É uma prática de aquisição da informação sobre a superfície terrestre e das águas, utilizando as imagens adquiridas a partir da perspectiva de cima, com emprego da radiação eletromagnética numa ou em várias zonas do espectro eletromagnético, refletido ou emitido pela superfície terrestre. Quadro 01 – Autoria e definição de Sensoriamento Remoto. Org.: LEITE, R. M. 2009 CAMPBEL, J.B. apud. Karnaukhova, E. Loch, C.2000 2 O primeiro satélite especializado em captar e registrar as feições terrestres foi o ERTS 1, Earth ResourcesTechnology Satellite Program (ERTS). O sucesso deste programa rendeu-lhe em 14 de Janeiro de 1975 o nome de Landsat tornando-se o mais extenso programa de sensoriamento remoto com o lançamento de 7 satélites, sendo eles: a primeira geração de satélites Landsat-1, 2, 3, a segunda geração com o Landsat 4, 5 e o 6. Este último, devido a problemas, caiu no oceano ao entrar na órbita da terra. O sétimo, Landsat 7, que marca o início da terceira geração, devido a falha imprevista , está indisponível. As falhas ocorridas com os Landsat e a natural concorrência mercadológica possibilitaram o surgimento de outros programas espaciais voltados para o monitoramento das feições terrestres, como por exemplo: SKYLAB, NOAA/AVHRR, SPOT, JERS, ERS, IRS, MECB, RADARSAT, CBEBRS entre outros. 2. Princípios Físicos em Sensoriamento Remoto No processo de sensoriamento remoto há duas fases gerais: a fase de aquisição de dados e a fase de análise dos dados. Os elementos da fase de aquisição são: 1) as fontes de energia, 2) propagação da energia através da atmosfera, 3) interação da energia com os elementos da superfície terrestre, 4) sensores aéreos e orbitais, 5) os dados gerados em forma numérica ou gráfica (analógica). Ou seja, os sensores são usados para gravar as variações na forma como os objetos da Terra refletem e emitem a energia eletromagnética. O processo de análise dos dados envolve o exame dos dados utilizando diversos dispositivos de visualização e interpretação para analisar os dados gráficos (analógicos) ou computadores para fazer análise numérica dos dados. Dados de referência acerca dos recursos a serem analisados (tais como mapas de solos, dados de cultivo e dados de verificação de campo, etc) são utilizados para refinar a análise. Com a ajuda dos dados de referência o analista extrai informação sobre o tipo, tamanho, localização e as condições dos vários recursos sobre os quais o sensor adquiriu dados. A informação é apresentada sob a forma de mapas, tabelas, relatórios, arquivos ou planos de informação de SIG. Por fim estas informações são disponibilizadas para os usuários que as utilizam para fundamentar seus processos de tomada de decisão. Figura 1- Visão geral do método de sensoriamento remoto dos recursos da Terra 3 O principal objetivo do sensoriamento remoto é expandir a percepção sensorial do ser humano (INPE 2001). Para isto, utiliza-se um conjunto de técnicas capazes de identificar e diferenciar os elementos da superfície terrestre em diversos comprimentos de ondas, ou seja, com o sensoriamento remoto o homem pode ver além do que seus olhos lhe mostram. Com efeito, este conjunto de técnicas precisa de quatro elementos fundamentais para se obter a visão a partir do sensoriamento remoto, como ilustra a figura 2. Figura 2 – Representação dos quatro elementos fundamentais para técnicas de sensoriamento remoto. Fonte: Adaptado do INPE, 2001. Os três elementos, pontuando os vértices do triangulo, representam, no caso dos estudos ambientais, as fontes naturais e artificiais de radiação, tais como: o Sol, a Terra e as antenas de radares. Os sensores são equipamentos capazes de registrar a Radiação Eletromagnética refletida ou emitida pelos alvos, esses que são os elementos sobre os quais se pretende subtrair informações (INPE 2005). De fato, a Radiação Eletromagnética REM é o “veículo” capaz de conduzir as informações dos alvos para os sensores. Essa radiação é explicada pela teoria ondulatória e também pela teoria quântica. Na perspectiva ondulatória a REM se propaga devido à oscilação dos campos elétrico e magnético como demonstra a figura 3, já na perspectiva quântica a REM é o resultado da emissão de pequenos pulsos de energia. Em ambas a perspectiva admite-se que a REM viaje na velocidade da luz no vácuo. (INPE 2001; INPE 2005; ROSA 2003; NOVO1989; NOVO 2008) Figura 3 – Flutuações dos campos elétricos e magnéticos. Fonte: Adaptado de NOVO (1989) 4 A REM é caracterizada pelos comprimentos de ondas de igual intensidade para os campos (E) e (M). Ao passar pela atmosfera a REM, advinda do sol, nossa fonte natural, sofre refração e passa a ser absorvida seletivamente pelos constituintes da atmosfera. Neste caso diz-se que houve absorção; existe ainda o espalhamento, isto é, ao interagir com atmosfera a REM gera um campo de luz difusa o que a faz se propagar em todas as direções (ROSA, 2003). Rosa (2003) destaca que a REM ao interagir com os elementos da superfície da Terra possibilita a ocorrência de três fenômenos: Reflectância, que é a quantidade de energia refletida por um elemento por unidade de área; Absortância, que é a quantidade de energia absorvida, e a transmitância, que é a quantidade de energia transmitida. A REM ao incidir sobre os elementos (alvos) acelera suas cargas fazendo com que os átomos e moléculas comecem a vibrar e passem a emitir radiação, já as diferentes constituições físico-químicas destes elementos promovem a maior ou menor reflexão de REM para o espaço. Sobre esta proposição Planck apud Eisberg (1979, p. 20) argumenta que: A radiação emitida por um corpo é chamada de radiação térmica. Todo corpo emite este tipo de radiação para o meio que o cerca e dele absorve. Se um corpo está inicialmente mais quente do que o meio, ele irá se resfriar, porque a sua taxa de emissão de energia excede à sua taxa de absorção. Quando o equilíbrio térmico é atingido, as taxas de emissão e absorção são iguais. A matéria em um estado condensado emite um espectro contínuo de radiação. Os detalhes do espectro são praticamente independentes do material particular do qual o corpo é composto, mas dependem bastante da temperatura. As temperaturas usuais a maioria dos corpos é visível para nós não pela luz que emitem, mas pela luz que refletem. Os alvos refletem com maior ou menor intensidade a radiação eletromagnética de acordo com suas propriedades biogeoquímicas e, assim, uma floresta que absorve energia para a realização da fotossíntese refletirá menos REM do que uma área de solo arenoso exposto. À capacidade de medir em diferentes comprimentos de ondas as respostas destes alvos dá-se o nome de Espectro eletromagnético. O Espectro eletromagnético registra as características dos alvos em diferentes bandas espectrais, isto é, o registro visual ou não dos diferentes comprimentos de ondas dos alvos. A figura 4 exemplifica esta argumentação. Figura 4 – O Espectro eletromagnético. Fonte: Adaptado do INPE, 2001. 5 Podemos destacar algumas bandas do espectro e suas características mais notáveis: 1. A pequena banda denominada luz compreende o conjunto de radiações para as quais o sistema visual humano é sensível; 2. A banda do ultravioleta é formada por radiações mais energéticas que a luz (tem menor comprimento de onda); é por isso que penetra mais profundamente na pele, causando queimaduras quando você fica muito tempo exposto à radiação solar. 3. A banda de raios X é mais energética que a ultravioleta e mais penetrante; isso explica porque é utilizada em medicina para produzir imagens do interior do corpo humano. 4. As radiações da banda infravermelha são geradas em grande quantidade pelo Sol, devido à sua temperatura elevada; entretanto podem também ser produzidas por objetos aquecidos (como filamentos de lâmpadas). 5. O conjunto de radiações geradas pelo Sol, se estendem de 300 até cerca de 3000nm e essa banda é denominada espectro solar. A REM deve ser vista como um espectro contínuo. Porém, o espectro eletromagnético foi arbitrariamente dividido pelo homem em intervalos de comprimentos de onda com base nos mecanismos físicos geradores da energia eletromagnética e nos mecanismos físicos de sua detecção. A nomenclatura de cada um dos intervalos foi feita em função do uso que o homem encontroupara as suas aplicações. Para os usuários do sensoriamento remoto é essencial saber os valores dos comprimentos de onda desses intervalos, as denominações que recebem, e quais comprimentos de ondas são possíveis de serem detectados por cada tipo de sensor. Isso porque, quando se estiver com uma imagem de sensoriamento remoto em mãos, a primeira pergunta que se faz é: qual o comprimento de onda dessa imagem? Usando uma terminologia mais correta, perguntar-se-ia: qual é a banda espectral dessa imagem? Um dos intervalos ou faixas de comprimentos de onda que é mais familiar é a faixa de luz visível da radiação solar, por ser aquela que o olho humano é capaz de detectar. O intervalo espectral da luz visível foi decomposto pela primeira vez em 1766 por Isaac Newton, atravessando a luz branca por um prisma de vidro (dispersão) e emergindo do lado oposto do prisma em raios de luz coloridos. Cada raio colorido tem o seu específico comprimento de onda. A inclinação de cada raio, ao emergir da outra face do prisma, é devido à relação entre o comprimento da onda e o índice de refração do prisma (vidro). Essa experiência se repete toda vez que no céu vemos a formação de um arco-íris, provocado pela dispersão da luz pelas gotas de água, num dia chuvoso. Foi a partir dessa experiência que o homem propôs a divisão do espectro eletromagnético. A tabela1 apresenta a divisão que é a mais aceita no sensoriamento remoto. Tabela 1 Divisão do espectro eletromagnético 6 Sabendo que a radiação eletromagnética de cada comprimento de onda interage de formas distintas e com intensidades diferentes com os objetos terrestres, um dos parâmetros mais importantes para definir as características de um sensor são os comprimentos de onda das imagens que o sensor irá adquirir. As imagens não são definidas num específico comprimento de onda, mas abrangendo pequenos intervalos, chamados de bandas espectrais. Em função das absorções da radiação eletromagnética pela atmosfera, os intervalos discriminados na síntese a seguir são aqueles em que, realmente, se podem obter imagens a partir de sensores instalados em aeronaves ou satélites: Visível (0,45-0,76 µm) - É a região do espectro solar com a mais alta intensidade de fluxo radiante e onde há a melhor janela atmosférica, bastante transparente, deixando passar uma grande quantidade de radiação. Por isso, é muito usada em sensoriamento remoto. É a região responsável pela interação com os minerais e que dá origem às suas cores e com os pigmentos da vegetação. O problema dessa faixa espectral é o alto espalhamento da radiação solar incidente pelos gases atmosféricos, que pode reduzir o contraste da reflectância dos alvos terrestres. É chamada de visível, porque o olho humano é sensível a essa região espectral. Infravermelho próximo (0,76 - 1,2 µm) - Região do espectro solar onde a atmosfera também é bastante transparente, mas ocorrem algumas bandas de absorções, impedindo que todo o intervalo possa ser continuamente utilizado por sensoriamento remoto. É o intervalo onde ocorrem importantes interações da REM com os níveis de energia eletrônica dos átomos, gerando feições espectrais que são diagnósticas para identificar a natureza de vários tipos de rochas, principalmente as de composição mineral com metais de transição (Fe, Ni, Cr, Mn...) Infravermelho de ondas curtas (1,2 – 3,0 µm) - É a região espectral geológica, porque é nesta faixa espectral que os vários minerais de alteração hidrotermal têm as suas diagnósticas feições de absorção. Também é a região onde os comprimentos de onda em 1,4 μm e em 1,9 μm são totalmente absorvidos pelas moléculas de vapor d’água da atmosfera, proibindo o uso do sensoriamento remoto e, por consequência, de se determinar nos materiais terrestres a presença de água molecular nas suas estruturas. Infravermelho médio (3,0 - 5,0 µm) - Região onde o Sol e a Terra não emitem quantidades suficientes de energia que possam ser detectadas pelos sensores. Somente alvos com elevadas temperaturas, como vulcões e incêndios, podem ser detectados, pois agem como fontes próprias de emissão de radiação. É uma região espectral pouco usada no sensoriamento remoto, à exceção de sensores metereológicos ou atmosféricos. Infravermelho termal (5,0 – 1,0 mm) - É conhecido como a região termal, devido á radiação emitida pelos objetos terrestres em função das suas temperaturas de superfícies. A melhor janela atmosférica nessa região espectral para imageamento orbital é o intervalo de 8,0 Pm a 14,0 Pm, porque acima de 30 km, a camada de ozônio absorve toda a radiação além de 14 Pm emitida pela Terra. Ótima faixa espectral para detecção de quartzo de veios nas rochas. Micro-ondas (3,0 - 100 cm) – Região de uso de sensores ativos (radar), que utilizam fontes artificiais para a geração da REM. Por causa do tamanho do comprimento de onda, o radar tem a habilidade de operar em condições atmosféricas adversas, com coberturas de nuvens ou chuvas, e pode operar tanto de dia como à noite. Importante para a geologia estrutural e mapeamento geológico, porque a interação das micro-ondas com as rochas é controlada pelas texturas de relevo. Atualmente, o intervalo útil ao sensoriamento remoto estende-se de 3,0 cm a 100 cm. 7 2.1 Conceitos fundamentais (Irradiância, Emitância, Radiância) Para que se possa compreender melhor como se viabiliza a aplicação das técnicas de SR no estudo dos recursos naturais, faz-se necessária a apresentação de pelo menos quatro parâmetros radiométricos. O primeiro deles, refere-se à Irradiância. Em termos bastante simplificados, a Irradiância representa a intensidade do fluxo radiante, proveniente de todas as direções, que atinge uma dada superfície. A Figura 5 ilustra o aspecto geométrico mencionado. Vale salientar que neste fluxo radiante estão contidos todos os diversos comprimentos de onda que são radiados pela fonte, segundo suas próprias características. Assim que um determinado fluxo radiante atinge uma superfície, ele sofre três fenômenos: reflexão, transmissão e absorção. Estes fenômenos são dependentes das características físico-químicas do próprio objeto, que definem as intensidades de reflexão, transmissão e absorção da REM em cada comprimento de onda incidente no objeto. Figura 5 - Representação gráfica dos possíveis ângulos de incidência sobre um alvo. FONTE: Ponzoni e Disperati (1995) Imaginando então somente a porção refletida pelo objeto, um novo fluxo será originado em sentido contrário ao incidente, mas nas mesmas direções. A intensidade deste fluxo pode também ser quantificada e é expressa pela chamada Excitância. Parte deste fluxo refletido pelo objeto pode ser coletado por um sensor localizado remotamente. O termo “parte” refere-se a dois aspectos: um de ordem geométrica e outro de ordem espectral. O de ordem geométrica refere-se por sua vez ao fato de que não há instrumentos capazes de registrar a Excitância, uma vez que seria necessário o desenvolvimento de um sensor que envolvesse todo o objeto, o que comprometeria a incidência da REM. Evidentemente poderiam ser desenvolvidos métodos que permitissem sua estimativa, mas outra solução foi adotada. Todo sensor possui uma abertura pela qual a REM refletida ou emitida pelos objetos passa em direção ao chamado “detector”, que é o elemento que realmente “sente” a REM. Essa abertura possui dimensões variáveis e dependentes das características tecnológicas do instrumento ou da própria natureza das operações de coleta de dados. De qualquer forma, entre esta abertura e o ponto da superfície do objeto passa a ser definido um cone por onde trafega a REM. Esse cone é denominado de ângulo sólido. Fica claro que somente a REM que estiver contida neste ângulo sólido será sentida pelo detector, mas ao mesmotempo, o sensor não observa somente um ponto na superfície e sim uma determinada área desta superfície, a qual é constituída por infinitos pontos. Assim, o que realmente é medido pelo sensor é a intensidade de todos os infinitos fluxos contidos nos ângulos sólidos dos pontos da área da qual ele é capaz de observar. Esta intensidade é denominada de Radiância. A Radiância é, portanto, a intensidade do fluxo radiante por unidade de ângulo sólido e seu conceito pode ser comparado ao conceito de 8 brilho, ou seja, um objeto é considerado mais brilhante quanto maior for sua Radiância medida. O aspecto espectral refere-se ao fato de que a composição espectral do fluxo que deixa a superfície sofre alterações que são dependentes das suas características físico- químicas. Assim, a Radiância medida por um sensor pode ser determinada para um intervalo específico de comprimentos de onda (região ou banda espectral). No esquema apresentado na Figura 6, fica claro que o sensor “observa” instantaneamente uma determinada porção da superfície do terreno. A área desta superfície define o chamado elemento de resolução espacial. Desta área é registrado um único valor de Radiância para cada faixa ou região espectral que o sensor é capaz de perceber a REM refletida ou emitida pelos objetos contidos em seu elemento de resolução espacial. Figura 6 - Representação esquemática do conceito de Radiância medida através de um sensor remotamente localizado. Nota-se, portanto, a existência de dois principais aspectos intrínsecos às técnicas de SR: o aspecto espacial e o aspecto espectral. Estes aspectos são comumente denominados de domínios espacial e espectral, respectivamente. O domínio espacial é expresso pela resolução espacial do sensor, a qual é definida como a menor área da qual o sensor é capaz de registrar a REM. O domínio espectral refere-se à largura da faixa espectral que este mesmo sensor é sensível. Faixas mais largas conferem uma resolução espectral menor ao sensor. Contrariamente, elementos de resolução espacial menores, conferem aos sensores maiores resoluções espaciais. Existe ainda um terceiro domínio que é o domínio temporal, o qual refere-se ao período de tempo compreendido entre duas coletas de dados sobre uma mesma superfície do terreno. Este domínio é expresso pela resolução temporal da plataforma que sustenta o sensor, podendo ser ela uma haste portátil, uma aeronave ou até mesmo um satélite. Diz- se que um sensor possui maiores resoluções temporais, quanto menores forem os períodos de tempo entre coletas de dados. Pelo já exposto, pode ser verificado que a Radiância é também dependente da intensidade do fluxo radiante que atinge o objeto (Irradiância). 9 Quanto maior for essa intensidade, maior também será aquela referente ao fluxo que deixa o objeto, e consequentemente, maior será a Radiância. Para que se conheça as propriedades intrínsecas dos objetos em termos de sua interação com a REM, faz-se necessária a apresentação de mais um conceito importante que é o da Reflectância. A Reflectância representa uma relação entre a Radiância refletida de um dado objeto pela Irradiância. Nota-se, portanto, que a Reflectância expressa as propriedades intrínsecas dos objetos em refletir a REM sobre eles incidente. Ela é expressa em percentagem, possuindo então um caráter relativo. É através da Reflectância que são estudadas as características intrínsecas dos objetos em refletir a REM incidente, pois ela é dependente das suas propriedades físico-químicas. Este estudo é denominado de estudo do Comportamento espectral de alvos, cujos principais aspectos serão apresentados oportunamente. 2.2. Fontes de Radiação Eletromagnética Todos os objetos do mundo real que estejam a uma temperatura acima de zero absoluto (–273,15oC ou zero Kelvin) apresentam uma movimentação aleatória das partículas dos átomos e das moléculas. Quando essas partículas se colidem elas mudam o seu estado de energia e emitem radiação eletromagnética. E quanto maior é a temperatura da fonte, maior é a sua potência irradiante de energia. As imagens de sensoriamento remoto não dependem apenas das qualidades técnicas dos sensores, mas, também, da qualidade e intensidade irradiante das fontes de REM. No nosso sistema planetário o Sol é a mais potente fonte de radiação eletromagnética devido a sua alta temperatura de superfície, próxima a 6000°C. A Terra também é uma fonte de REM, embora bem menos potente que o Sol, pois a sua temperatura média é de apenas 27°C. Essas duas fontes naturais de radiação eletromagnética são as mais usadas em sensoriamento remoto, mas como veremos adiante, elas não conseguem emitir radiação de todos os comprimentos de onda. Por isso, o homem construiu fontes artificiais capazes de emitirem altas intensidades em comprimentos de onda, além da capacidade do Sol ou da Terra, como na região das micro-ondas. O cálculo da intensidade da energia que uma fonte de REM emite foi modelado por Planck, que idealizou uma fonte padrão de radiação eletromagnética, chamada de corpo negro. Um corpo negro é um modelo físico teórico de um perfeito absorvedor e emissor de energia eletromagnética. Planck utilizou esse modelo de corpo negro para calcular a quantidade máxima de intensidade radiante que uma fonte emite em um dado comprimento de onda, em função de sua temperatura de superfície. Para cada temperatura há um pico máximo de emissão dentro do intervalo de comprimento de onda que a fonte emite. Por lei, qualquer material real não pode emitir termalmente a uma taxa que exceda à do corpo negro. Entre as várias curvas de emitância radiante espectral da Figura 7, a que mostra a distribuição da energia a 6000 K é a que mais se aproxima da curva de emitância espectral do Sol. 10 Figura 7 - fontes de radiação com diferentes temperaturas, segundo o modelo de corpo negro de Planck. Observe nesta figura que o pico máximo de emitância situa-se no comprimento de onda de 0,49 μm, ou seja, na região espectral da luz visível. Já para a curva de emitância radiante da fonte a 300 K, que é comparável à temperatura média da superfície da Terra, o seu pico máximo de energia emitida está situado no comprimento de onda de 9,6 μm. O Sol e a Terra, que são fontes reais naturais, mostram curvas de emitância radiante próximas aos padrões das fontes de corpo negro de Planck. A Terra, por ter uma temperatura interna muito mais baixa que o núcleo solar, transmite calor para a superfície por radioatividade, apenas o suficiente para colocar a temperatura superficial numa média de 27oC. É, portanto, uma fonte de radiação eletromagnética muito menos intensa que o Sol e de qualidade espectral bastante limitada. Emite radiação eletromagnética somente na faixa espectral do termal. É por causa da sua baixa temperatura de superfície, que não é uma fonte de luz visível. Semelhante ao que se vê na Figura 7 para as fontes de corpo negro, na Figura 8 é mostrado, comparativamente, a configuração do fluxo de energia radiante eletromagnética do Sol e da Terra. Nesta figura a intensidade da energia radiante da fonte solar decresce abruptamente abaixo dos comprimentos de ondas do ultravioleta e atinge valores mínimos além dos comprimentos de onda de 3,0 μm. Devido a isso, somente o intervalo espectral da REM de 0,45 μm a 2,5 μm é útil ao sensoriamento remoto, e nesse intervalo, o pico máximo de intensidade de radiação encontra-se na faixa de 0,45 μm a 0,76 μm, conhecida como a região do visível. A Terra tem uma intensidade de fluxo de 11 energia bem abaixo do fluxo solar, tendo o seu máximo de emitância radiante em torno de 9,6 μm e um intervalo espectral útil ao sensoriamento remoto entre 8,0 μm a 14,0 μm. Figura.8 - Distribuiçãoda intensidade da energia emitida pelas fontes naturais de radiação eletromagnética, medidas no topo da atmosfera. Barras indicam a região de comprimento de onda de máxima emitância. 2.3 Interferências Atmosféricas Durante a sua passagem através da atmosfera, a REM vinda do Sol ou emitida pela Terra, interage com as moléculas dos constituintes gasosos e com o material particulado suspenso na atmosfera. Nessa passagem, a atmosfera interfere na intensidade do fluxo radiante, na distribuição espectral e na direção dos raios incidentes, tanto na sua trajetória descendente entre o Sol e a Terra como na trajetória ascendente da radiação refletida e emitida da superfície terrestre para o sensor. Se não houvesse atmosfera o céu seria preto com um disco brilhante (o Sol) do qual receberíamos radiação direta. Na média, 47% do fluxo de radiação que incide na superfície terrestre é absorvido pelos materiais da superfície terrestre, 37% é refletido pela Terra (incluindo nuvens e atmosfera) e 17% é absorvido pela atmosfera. A parte da REM que interage diretamente com a atmosfera sofre dois efeitos, absorção e espalhamento da radiação, e esse comportamento da atmosfera é questão crucial para o sensoriamento remoto de alta altitude ou orbital. A absorção é o efeito mais prejudicial ao sensoriamento remoto. Como pode ser observado na Figura 9, em vários intervalos de comprimentos de onda a atmosfera mostrasse parcial ou totalmente opaca às passagens da radiação solar e da radiação emitida pela Terra, em razão da absorção pelos gases nela presentes. Como consequência, a radiação solar pode ser impedida de atingir a superfície terrestre ou no mínimo sua intensidade é atenuada, o mesmo acontecendo com a radiação emitida pela Terra. Dessa forma, o sensor colocado no espaço ficará impedido de obter imagens da superfície terrestre nesses comprimentos de onda. Esses intervalos de comprimentos de onda são chamados de bandas de absorção da atmosfera e são proibitivos para o uso de sensoriamento remoto. As demais regiões onde a atmosfera não absorve total ou intensamente a radiação solar são chamadas de janelas atmosféricas, as únicas em que é possível usar o sensoriamento remoto. 12 Figura 9 - Transmitância (T) da radiação eletromagnética através da atmosfera. Observe na Figura 9 que a região de maior absorção, e sem uso ao sensoriamento remoto, é no intervalo espectral termal de 14 μm a 1000 μm, devido à total absorção da radiação pelo vapor de água atmosférica. Em contrapartida, na região das micro-ondas a atmosfera é quase 100% transparente. No intervalo do visível ao infravermelho, que é a região espectral mais usada em sensoriamento remoto, a atmosfera também mostra a sua danosa influência para o uso do sensoriamento remoto. Por exemplo, nos comprimentos de onda de 1,4 μm e 1,9 μm, 100% da radiação solar é absorvida pelas moléculas de vapor de água, impedindo totalmente o uso de sensoriamento remoto nesses comprimentos de ondas. 3. Comportamento Espectral de Alvos O comportamento espectral de alvos pode ser entendido como a medida da reflectância deste alvo ao longo do espectro eletromagnético, conforme ilustra a figura 10. Figura 10 – Comportamento espectral de Alvos. Em termos mais abrangentes, estudar como um objeto se comporta espectralmente, deveria contemplar os três fenômenos já mencionados que ocorrem após a indecência da REM sobre um dado objeto: reflexão, transmissão e absorção. Assim, o comportamento espectral de um alvo só é plenamente compreendido quando são estudadas suas propriedades de refletir, transmitir e absorver a REM. Contudo, serão enfatizadas aqui as propriedades de reflexão dos alvos (recursos naturais), uma vez que a maioria dos sensores atualmente disponíveis para o estudo dos recursos naturais, utilizam a REM refletida por eles. A caracterização de como e de quanto um objeto reflete de REM pode ser feita em diversos níveis e formas. Nos primeiros estão incluídos os chamados níveis de aquisição de dados, os quais podem ser de laboratório, campo, aéreo e orbital. Em cada 13 um destes níveis podem ser adotadas variadas formas, as quais incluem as chamadas geometrias de iluminação e de visada. A primeira refere-se ao posicionamento espacial da fonte de REM em relação ao objeto, enquanto que a segunda refere-se ao posicionamento espacial do sensor. Os níveis e as formas condicionam as caracterizações tornando seus resultados específicos para as situações nas quais foram concebidos. Este fato torna imprescindível que em qualquer caracterização da Reflectância espectral de um objeto, sejam bem descritas as condições de iluminação e visada adotadas, tanto no que se refere aos domínios espacial, espectral, temporal e ainda das suas geometrias. Estas curvas de Reflectância são curvas médias que somente ilustram as formas típicas dos alvos apresentados refletirem a REM sobre eles incidente. Servem então somente de base para formar uma ideia da reflexão destes alvos, não sendo possível sua generalização, uma vez que também não foram fornecidas informações adicionais sobre as condições (geométricas e dos próprios alvos) adotadas quando foram geradas. Esta forma típica é geralmente referenciada com o termo Assinatura Espectral. É preciso saber que este comportamento espectral, quando obtido por satélites orbitais, sofre influência de fatos que podem causar distorções nos seus valores. Dentre estes fatores pode se destacar: a geometria de aquisição de dados, parâmetros atmosféricos e características dos alvos e do seu entorno. 3.1 Comportamento espectral da Vegetação De acordo, com a figura 11 três regiões são bem destacadas quanto ao comportamento espectral da vegetação. Na figura em foco é representada a região do visível, nesta região a refletância é controlada pelos pigmentos da folha, isto é, o grupo clorofila e apresentam uma forte absorção. O declínio máximo de reflectância ocorrido nesta região é decorrente da presença de carotenóides e dos processos de fotossíntese enquanto o pico máximo de reflectância está ligado a região verde do visível, fato que explica a coloração verde das plantas. Figura 11 - Comportamento espectral de uma folha verde sadia. A estrutura celular impõe uma alta reflectância, se comparada às demais bandas, isso ocorre porque é necessário que a planta se resfrie e mantenha o equilíbrio no balanço de energia e não se superaqueça, evitando a destruição da clorofila. O decréscimo gradual dos valores de reflectância presentes nos valores acima de 1.3 µm está ligado a presença de água. Notadamente este comportamento espectral diz respeito a uma única folha, mesmo sendo a base para as relações do comportamento espectral da vegetação estes dados sofreram interferência de vários fatores quando 14 considerados para todo um dossel vegetativo, como por exemplo: mudança de ângulo de visada do sensor, orientação das folhas, condições atmosféricas, espécie, tipo de solo etc. 3.2 - Comportamento espectral de minerais e rochas Na faixa do espectro reflexivo (0,4 a 2,5 µm) os íons ferrosos e férricos mais a água e a hidroxila são os elementos e substâncias de primeiro interesse para a análise do comportamento espectral dos minerais e rochas. Os elementos químicos de maior frequência como o silício, magnésio e o alumínio são de interesse secundário. Na faixa do espectro reflexivo, a mais utilizada em sensoriamento remoto (0,4 a 2,5 µm), a responsabilidade pelos processos de formação das bandas de absorção são dos processos vibracionais e rotacionais. Destaca-se nestas bandas a absorção relacionada aos íons Fe++ em torno de 1,0 µm, a absorção em torno de 0,7 e 0,8 µm ao íon férrico e aos íons Fe+++ em torno de 0,44µm. As rochas ácidas (>66% de sílica) apresentam uma alta concentração de minerais félsicos(quartzo e Feldspato) por este fato estas rochas apresentam elevada reflectância e uma baixa absorção da energia incidente. Já as rochas intermediárias (66 – 52% de sílica) apresenta uma maior concentração de minerais máficos como: piroxênios, anfibólios, olivina e biotita, este fato implica em uma maior absorção da energia incidente, se comparada as rochas ácidas. Nas rochas básicas (52 – 45% de sílica) e ultrabásicas (<45% de sílica) o percentual de magnetita explica à menor reflectância destas rochas. No que diz respeito às rochas sedimentares e metamórficas as mesmas considerações para as rochas básicas e ultrabásicas são validas, acrescentando a estas a presença de carbonatos cujas bandas de absorção variam entorno de 1,9 e 2,55 µm. 3.3 – Comportamento espectral dos solos O comportamento espectral dos solos será função da presença de matéria orgânica, granulometria do solo, composição mineralógica, umidade e capacidade de troca catiônica. De maneira genérica percebe-se que a presença de matéria orgânica provoca a diminuição da resposta espectral. De forma oposta, a maior concentração de sílica provoca um aumento da resposta espectral no solo. Do ponto de vista granulométrico o aumento do tamanho das partículas dos minerais félsicos proporciona o aumento dos valores de reflectância e a atenuação das bandas de absorção, sendo o contrário quando da ocorrência de minerais máficos. A umidade e a maior capacidade de troca catiônica implicam em uma menor reflectância onde os, em geral, os solos úmidos apresentam menos reflectância que os solos secos, o mesmo ocorrendo com a maior capacidade de troca catiônica. De modo idealizado, podemos dizer que a reflectância do solo aumenta monotonicamente com o comprimento de onda. Para solos com a mesma composição mineralógica, a tendência é a redução da reflectância com o aumento do tamanho das partículas (figura 12). 15 Figura 12 - Efeito do tamanho da partícula sobre o comportamento espectral dos solos (Adaptado de Szekielda, 1988). A composição mineralógica também afeta o comportamento espectral dos solos como pode ser visto na Figura 13. Solos com alto teor de óxido de ferro e composto por minerais opacos apresentam reflectância mais baixa do que solos com baixo teor de óxido de ferro. A presença de minerais opacos além de reduzir a reflectância dos solos em todos os comprimentos de onda mascara as bandas de absorção relativas à presença da água e de minerais de argila tais como a caulinita (1400 nm) e a montmorilonita (2200 nm). Figura 13 – Efeito do teor de óxido de ferro e de minerais opacos sobre o Fator de Reflectância dos solos. 3.4 - Comportamento espectral da água Á água é um alvo líquido. O fato de a água ser um alvo líquido traz inúmeras consequências à interação energia/matéria. Fixando-se nesses aspectos, a título de exercício, é interessante listar outras diferenças entre a água e os demais alvos de interesse para o sensoriamento remoto da superfície terrestre. Uma característica dos corpos d’água que o tornam particularmente distintos dos demais alvos estudados refere-se à sua reflectância média. Observando a Figura 14, na qual encontra-se destacada uma porção de uma imagem orbital do sensor TM/Landsat 5, referente a uma área da Usina Hidroelétrica de Tucuruí, conclui-se que a porcentagem de energia refletida pela água é muitas vezes menor que a porcentagem de energia refletida pelos demais alvos da superfície terrestre, pelo menos nas três regiões do espectro 16 consideradas na elaboração desta composição colorida (vermelho, infravermelho próximo e infravermelho médio). Isso pode ser concluído devido à tonalidade escura assumida pela água nessa composição colorida, indicando pouca energia refletida por esta nas três regiões espectrais em questão. Figura 14 - Sub-cena de uma composição colorida das bandas 3 (Vermelho), 4 (Verde) e 5 (Azul) do sensor Thematic Mapper que mostra a porção oeste do reservatório da Usina Hidroelétrica de Tucuruí, próximo à cidade de Novo Repartimento. A diferença mais crucial entre o estudo do comportamento espectral da água e dos demais alvos é que, quando se estuda o comportamento de uma rocha, o que se busca é conhecer as propriedades daquela rocha, mas quando se estuda o comportamento da água, o que se busca conhecer não é a “água-objeto-em-si-mesmo”, mas os componentes que se encontram nela dissolvidos ou nela suspensos. Portanto, o estudo do comportamento espectral da água, é usado como indicador do comportamento de um sistema muito mais complexo que é o sistema aquático. A Figura 15 ilustra o espectro de absorção por matéria orgânica dissolvida em um lago. Figura 15 - Espectro de Absorção de Matéria Orgânica Dissolvida na Água (Fonte: Kirk, 1995). A análise desta Figura, revela que a presença de matéria orgânica dissolvida na água provoca profundas modificações no processo de absorção da luz no meio aquático. Em primeiro lugar, o máximo de absorção da água com matéria orgânica dissolvida ocorre na região de mínima absorção da água pura. É na região do azul em que se dá o maior contraste na absorção da água pura e da água com altas concentrações de matéria orgânica dissolvida. Os coeficientes de absorção da matéria orgânica dissolvida se equivalem numericamente aos coeficientes de absorção da água pura no infravermelho. Na região do verde e vermelho, entretanto, esse coeficiente é bem menor. 17 4. Plataformas de sensoriamento remoto As plataformas de sensoriamento remoto definem o nível de aquisição dos dados. Esses níveis podem ser orbital (representados pelas plataformas espaciais), aéreo (representados pelas aeronaves e helicópteros) e terrestre (representados por torres, e sistemas radiométricos de campo). Até o ano de 1946, os dados de sensoriamento foram adquiridos essencialmente a partir de aeronaves ou balões. Em 1946 foram obtidas as primeiras fotografias a partir do foguete V-2. Essas fotos demonstraram o imenso potencial que imagens orbitais possuíam uma vez que forneciam uma nova perspectiva de observação da Terra. Apesar desse potencial, apenas na década de 60 começaram a ser obtidos dados de sensoriamento remoto a partir de plataformas orbitais. Em 1961 foi obtida a primeira fotografia orbital colorida a partir de uma câmara automática colocada a bordo da espaçonave MA-4 Mercury. A partir desta data, diversas outras missões orbitais foram realizadas e fotografias obtidas das mais diversas regiões do planeta Terra. As plataformas espaciais de sensoriamento remoto podem ser classificadas em plataformas tripuladas tais como as da série Mercury, Gemini, Apollo na década de 60 e os ônibus espaciais (Space Shuttle) a partir dos anos 80, ou ainda as plataformas soviéticas Vostok, Voskod, Soyuz e não tripuladas, como os vários programas existentes desde o lançamento dos primeiros satélites meteorológicos. As plataformas espaciais podem ser classificadas em função do tipo de órbita em satélites geoestacionários e satélites de órbita polar. Os satélites de órbita geoestacionária são satélites localizados em órbitas altas (a pelo menos 35 mil quilômetros acima da superfície da Terra) no plano do Equador, as quais se deslocam à mesma velocidade e direção do movimento de rotação da Terra, com isto, o satélite se mantém estacionário em relação à superfície, observando sempre a mesma região. Os satélites GOES e Meteosat são exemplos de plataformas espaciais geoestacionárias. Os satélites de órbita polar são síncronos com o Sol, ou seja, sua velocidade de deslocamento perpendicularmente ao plano do Equador é tal que sua posição angular em relação ao Sol se mantém constante ao longo do ano. Um satélite de órbita polar completa, em média, 15 órbitas em torno da Terra por dia.Cada órbita é completada em cerca de 100 minutos. Esses satélites podem assim passar sob todos os pontos da superfície terrestre sempre no mesmo horário, seja de dia ou seja a noite. O primeiro satélite experimental a carregar a bordo um sensor meteorológico foi lançado pelos Estados Unidos da América em 1959. As primeiras plataformas espaciais de sensoriamento remoto foram os satélites meteorológicos da série TIROS (Television Infrared Observation Sattelite) lançado pela primeira vez em 1960. O programa teve tal êxito que em 1966 já havia um sistema global operacional de aquisição diária de dados meteorológicos sob a administração da NOAA (National Oceanographic Atmospheric Administration). No início da década de 60 a National Aeronautics and Space Administration (NASA) deu início ao programa de satélites da série Nimbus com o objetivo de atender às necessidades da pesquisa meteorológica. O programa visava não só o desenvolvimento de plataformas orbitais mais avançadas, mas também sensores mais avançados que permitissem o monitoramento diário e global da atmosfera terrestre para se criar uma base de dados para a previsão do tempo de curto e médio prazo. O satélite Nimbus foi lançado em 1964 segundo uma órbita polar, e é o precursor do atual satélite NOAA. Em 1972 foi lançado pela NASA o primeiro satélite de Recursos Naturais o ERTS-1 (Earth Resources Technology Satellite) o qual posteriormente foi renomeado para Landsat-1. 18 O Landsat1- foi seguido de uma série de satélites, sendo que em 1999 foi lançado o sétimo com várias inovações tecnológicas decorrentes não só do desenvolvimento de detetores e componentes ópticos mais eficientes, como também, em decorrência das demandas da comunidade de usuários de produtos de sensoriamento remoto. A partir de 1981 os ônibus espaciais passaram a prover uma outra plataforma alternativa para a aquisição de dados de sensoriamento remoto. A Segunda missão do ônibus espacial levou a bordo um conjunto de sensores orientados para o sensoriamento remoto terrestre, dentre os quais destacam-se um radar imageador, um radiômetro operando no visível e no infra- vermelho. Em um futuro próximo, estes estarão disponíveis para a aquisição de dados de sensoriamento a partir de estações espaciais. As atividades de sensoriamento remoto não se limitam à superfície terrestre. Na verdade, elas tiveram seu início a partir da necessidade de se obter informações remotas de planetas como Marte, Mercúrio, Venus, Júpiter, Urano. Existem numerosas imagens adquiridas da superfície da Lua, Mercúrio, Marte, Júpiter e dos anéis de Saturno, e da atmosfera de Venus, Júpiter, Saturno e Urano. Outros tipos de sensores remotos como radares altímetros, sondas, detetores de radiação gama, radiômetros são utilizados em inúmeras missões interplanetárias. O uso de sistemas orbitais está se tornando uma necessidade em um número grande de disciplinas ligadas às ciências ambientais devido às necessidades de informações globais e sinópticas a pequenos intervalos de revisita. Esses fatores são essenciais para a observação de fenômenos dinâmicos como a atmosfera, os oceanos, e os processos biológicos e biogeoquímicos. 5. Sistemas fotográficos O sistema fotográfico é composto basicamente por um sistema de lentes, um obturador e um filme. As lentes têm a função de focalizar a imagem do objeto sobre o filme. O obturador, por sua vez, controla o tempo de exposição do filme. As câmaras aéreas foram os primeiros sistemas sensores a serem utilizados para a extração de informações sobre a superfície terrestre. Apesar do grande número de modelos diferentes de câmaras aéreas utilizadas em aero-levantamentos, estas podem grosseiramente ser classificadas em duas categorias: câmaras métricas e câmaras de reconhecimento. As câmaras métricas são utilizadas com finalidade cartográfica o que faz com que sua configuração seja adaptada para que as distorções geométricas sejam minimizadas. As câmaras de reconhecimento são utilizadas, como o próprio nome diz, para a identificação de objetos, para a vigilância, sem preocupação com a aquisição de dados quantitativos (distância, tamanho, etc.) sobre os objetos imageados. Um dos componentes fundamentais dos sistemas fotográficos são os filmes fotográficos. O filme fotográfico consiste de uma camada gelatinosa que contém cristais de sais insolúveis de prata (cloreto, brometo ou iodeto) conhecidos como haletos de prata ou halogenetos de prata. Os grãos individuais de sais de prata possuem tamanho variável entre 0,01 e 0,03 mícrons. Esse conjunto gelatinoso impregnado de sais de prata é conhecido tecnicamente pelo nome de emulsão. Ao atingir a emulsão, a luz reage com os sais de prata e reduz os íons prata a átomos de prata metálica. A quantidade de prata reduzida pela luz é proporcional a intensidade da luz incidente. Entretanto, mesmo sob condições de alta incidência, a quantidade de íons convertidos a prata é muito pequena, e se forma na emulsão uma “imagem latente’’ do objeto fotografado (ou seja, uma imagem “escondida”, não revelada). Para que a imagem latente se transforme em uma imagem do objeto, o filme precisa ser submetido ao 19 processo de revelação. Na imagem latente, cada grão de prata possui um núcleo de prata metálica cujo tamanho é proporcional à luz incidente naquele ponto. O processo de revelação consiste em provocar o aumento do núcleo de prata metálica de cada grão de prata. O poder de resolução do filme depende do tamanho dos sais de prata. À medida que aumenta o tamanho dos sais, diminui a capacidade do filme de registrar pequenos detalhes. Por outro lado, quando menor o tamanho dos sais de prata, menor é a sensibilidade do filme, ou seja, menor sua capacidade de gerar uma imagem latente sob condições de baixa iluminação. Outro componente dos filmes são os corantes, os quais são responsáveis pela absorção seletiva da luz antes que estas atinjam os sais de prata. Por isso, os corantes são utilizados para sensibilizar os grãos em relação a qualquer cor de luz desejada através do espectro visível até o limite da radiação infravermelha. Os filmes podem ser caracterizados por sua velocidade (ou sensibilidade), granularidade (tamanho dos grãos de prata), resolução espacial e curva característica (curva de sensibilidade). 6. Sistema Sensores Os sensores são as máquinas fotográficas dos satélites (Figura 16). Têm por finalidade captar a REM proveniente da superfície terrestre, e transformar a energia conduzida pela onda, em pulso eletrônico ou valor digital proporcional à intensidade desta energia. Segundo a fonte da onda eletromagnética os sensores são: Passivos: Utilizam apenas a REM natural refletida ou emitida a partir da superfície terrestre. A luz solar é a principal fonte de REM dos sensores passivos. Ativos: Estes sistemas utilizam REM artificial, produzida por radares instalados nos próprios satélites. Estas ondas atingem a superfície terrestre onde interagem com os alvos, sendo refletidas de volta ao satélite. Uma vantagem dos sensores ativos é que as ondas produzidas pelos radares atravessam as nuvens, podendo ser operados sob qualquer condição atmosférica. Uma desvantagem é que o processo de interação com os alvos não capta, tão detalhadamente quanto os sensores passivos, informações sobre as características físicas e químicas das feições terrestres. Os sensores cobrem faixas de imageamento da superfície terrestre, cuja largura depende do ângulo de visada do sensor, (em inglês FOV - Field of View), (Figura 17). O sensor Thematic Mapper (TM) do satélite LANDSAT cobre uma faixa de 185 km, o sensor Charge Copled Device (CCD) do satélite SPOT cobre uma faixa de 60 km, o sensor AVHRR do satélite NOAA cobre uma faixa de 2700 km. Estas faixas são dispostas ao longo da órbita e são varridas, pelo sensor, em linhas transversais aosentido da órbita. Na varredura das linhas, dois processos são utilizados: a) Varredura por espelho, que se baseia no princípio da técnica de imageamento de scanners multispectrais lineares. A REM refletida da superfície dos objetos / alvos inside sobre um espelho móvel de face plana, montado com um ângulo de 45º sobre um eixo mecânico que imprime um movimento oscilatório ao espelho, de tal forma que a superfície do terreno é varrida em linhas perpendiculares à direção de deslocamento do satélite, permitindo o imageamento seqüencial de linhas da superfície do terreno. A REM refletida no espelho é direcionada para o interior do sensor onde é processada para dar origem às imagens. Os sensores TM e AVHRR utilizam este processo; b) Imageamento por matriz de detetores, ao invés do espelho, uma matriz de detetores cobre toda a largura da faixa de imageamento. Os detetores são dispostos em linhas que formam a matriz. O sensor CCD utiliza este processo. Em ambos processos a REM é decomposta em faixas denominadas bandas espectrais e as linhas são fracionadas em pequenas parcelas quadradas da superfície terrestre, denominadas pixel. 20 Figura 16 - Sistema sensor Figura 17 - Processos de varredura e detecção 6.1 Sistemas sensores: RADAR A palavra RADAR é um acrônimo da expressão “Radio Detection ad Ranging”, (que poderia ser traduzido grosseiramente por detecção de ondas de radio e de distâncias). Um RADAR executa três funções básicas: 1) ele transmite um pulso de microondas em direção a um alvo; 2) ele recebe a porção refletida do pulso transmitido após este haver interagido com o alvo (a porção refletida recebe o nome de energia retro-espalhada); 3) ele registra a potência, a variação temporal e o tempo de retorno do pulso retro-espalhado. A configuração básica de um sistema RADAR pode ser observada na Figura 18. Figura 18 - Sistema imageador de microondas (RADAR). 21 Sistemas ativos de RADAR emitem radiação (B) em pulsos de uma seqüência definida (A) através de uma própria fonte de energia. Os sinais emitidos são refletidos pelos alvos (C) e recebidos por uma antena. As características de imagens de RADAR são influenciadas pelo comprimento de onda (banda) utilizado, sua polarização na emissão e recepção (Vertical ou Horizontal) e os ângulos nos quais os sinais são emitidos. Os sistemas RADAR medem a distância e a potência recebida de pulsos emitidos por um antena. Esses pulsos de energia transmitidos pelas antenas de radar se caracterizam por ondas eletromagnéticas com comprimentos que variam de 1m a 1mm (ou freqüências entre 0,3 GHz e 300 GHz). Do ponto de vista das atividades de sensoriamento remoto, o fato dos sistemas de RADAR operarem nesses comprimentos de onda, traz algumas vantagens: • As microondas são passíveis de penetrarem núvens, chuva, fumaça e neblina. Em comprimentos de ondas menores (6 cm) chuvas e núvens espessas podem afetar o sinal de radar; • As microondas são sensíveis a propriedades distintas daquelas que afetam a radiação na região do visível e infravermelho. As imagens de radar apresentam informações que são qualitativamente e quantitativamente diferentes daquelas registradas em imagens ópticas, sendo, portanto complementares àquelas. 6.2 Características dos satélites Landsat (Sistema passivo) Em 23 de Julho de 1972, a NASA divulgou o lançamento, nos Estados Unidos, do primeiro satélite para observação dos recursos terrestres, chamado ERTS-1. Posteriormente esses satélites passaram a ser denominados de “Landsat”, expressando o interesse sobre sensoriamento remoto dos recursos naturais da Terra. (ÁLVARES 2002) A primeira etapa do projeto previa o lançamento de 3 satélites: os Landsat 1,2 e 3. Esses foram lançados sequencialmente e possuíam sensores básicos: a câmera Return Beam Vidicon (RBV) e o Multispectral Scanner (MSS). A superioridade de operação do MSS fez com que o RBV fosse relegado a ponto de não mais operar. O lançamento do Landsat 4 marca a segunda fase do projeto. Esse satélite levava consigo, além do MSS o Thematic Mapper (TM). As características deste sensor estão agrupadas no quadro 02: Quadro 02- Principais aplicações por bandas do sensor TM. Fonte: INPE, 2005. Org.: LEITE, M. R. 2009. BANDA FAIXA ESPECTRAL (µm) PRINCIPAIS APLICAÇÕES 1 0.45 - 0.52 Mapeamento de águas costeiras, diferenciação entre solo e vegetação, diferenciação entre vegetação coníferas e decíduas 2 0.52 - 0.60 Mapeamento de vegetação e qualidade da água 3 0.63 - 0.69 Absorção de clorofila, diferenciação de espécies vegetais, área urbana, uso do solo e qualidade da água. 4 0.76 - 0.90 Levantamento de biomassa, delineamento de corpos d'água, mapeamento geomorfológico, mapeamentos geológicos, áreas de queimadas, áreas úmidas, agricultura e vegetação. 5 1.55 - 1.75 Medidas de umidade da vegetação, diferenciação entre nuvens e neve, uso do solo, agricultura e vegetação. 6 10.4 - 12.5 Mapeamento de estresse térmico em plantas, outros mapeamentos térmicos 7 2.08 - 2.35 Mapeamento hidrotermal, identificação de minerais 22 O satélite Landsat 5, visualizado na figura 19, foi lançado em 01 de Março 1984 e sua órbita, assim como os demais Landsats, é sol-síncrono e quase polar (entre 81°N e 81°S). Está posicionado numa altitude de 705 km e sua velocidade aproximada é de 7,7 km/s no solo. Seu ciclo orbital é de 16 dias. A área que é imageada, seja pelo sensor MSS ou TM, com largura de 185 km, é recortada em cenas de 185x185 km. O satélite leva 24 segundos para imagear essa área (ÁLVARES 2002). Figura 19 - Satélite Landsat 5. Fonte: Álvares 2002 O Landast 6 foi lançado em 05 de outubro 1993, mas foi perdido logo após o lançamento. O lançamento do Landsat 7, figura 20, aconteceu seis anos mais tarde no dia 15 de abril, marcando o início da terceira geração dos Landsats. Subiu aos céus munidos do sensor Enhanced Thematic Mapper Plus (ETM+). Esse sensor possuía vantagens quanto ao seu antecessor, o (TM5): suas imagens são compostas por 8 bandas, uma dessas, a banda espectral (banda Pancromática) com resolução de 15m, perfeitamente registrada com as demais bandas, com melhorias nas características geométricas e radiométricas e o aumento da resolução espacial da banda termal para 60m, compõe dentre as vantagens deste satélite em relação ao seu antecessor. Figura 20 – Satélite Landsat 7. Fonte: Álvares 2002. Entretanto o Landsat 7 apresentou problemas quanto à resolução radiométrica do sensor (ETM+). O United States Geological Survey (USGS), atual administrador dos dados do (ETM+7), apresentou metodologia de correção das imagens em terra para a comercialização normal dessas. O satélite está em atividade, mas suas imagens não são comercializadas desde 31 de Maio de 2003, por fatores de erros radiométricos. Embora apenas o Landsat 5 esteja em atividade, os materiais disponibilizados por esse satélite são os mais utilizados em todo o planeta, devido ao pioneirismo do projeto, bem como da eficiência do mesmo em relação aos estudos ambientais. Atualmente, o satélite Landsat-8 é o produto mais recente da série Landsat. Lançado pela NASA (National Aeronautics and Space Administration) na base aérea de 23 Vandenberg no estado da Califórnia (EUA) em fevereiro de 2013, o Landsat-8 opera a uma altitude de 705 km, em uma órbita heliosíncrona com inclinação de 98, 2° em relação ao plano do Equador, semelhante às órbitas das séries Landsat 5 e 7. O horário de sua passagem descendente na linha do equador ocorre às 10:00 horas, com diferença de 15 minutos para mais ou para menos (USGS, 2013). Com revisita a cada 16 dias o Landsat- 8 cobre quase todo o globo terrestre, exceto nas mais altas latitudes polares. A cena do satélite cobre uma área de 170 km no sentido Norte-Sul por183 km no sentido Leste- Oeste. A resolução radiométrica das imagens é de 16 Bits e são fornecidas no Datum WGS 1984, projeção UTM, sendo necessário reprojetá-las para o hemisfério sul. O Landsat-8 opera com dois sensores imageadores. O primeiro, Operational Land Imager (OLI), com nove bandas espectrais incluindo uma banda pancromática, com 15 metros de resolução espacial. Já o segundo consiste no Thermal Infrared Sensor (TIRS), com duas bandas originalmente de pixel de 100 metros, processadas e disponibilizadas em 30 metros, para coincidir com a maioria das bandas multiespectrais do sistema imageador OLI (USGS, 2013). A Tabela 2 apresenta um resumo das principais características. Tabela 2: Características dos instrumentos imageadores OLI. Fonte: USGS (2013) 7. Imagem digital Os sensores são equipamentos que registram a REM refletida e emitida pelos alvos transformando-a num produto passivo de interpretação pelo usuário. Os sensores para aquisição dos dados de sensoriamento remoto podem ser diferenciados pela resolução espacial (imageadores e não imageadores) segundo a fonte de radiação (ativos e passivos) e (fotográficos e não fotográficos) de acordo com o registro (ROSA 2003). A reflectância dos alvos, medida ao longo do espectro eletromagnético, recebe o nome de comportamento espectral de alvos, sendo registrado através dos chamados níveis digitais (ND), que são números gravados pelos sensores a partir da interpretação das intensidades da reflectância ou emitância (resolução radiométrica) dos alvos imageados entre as passagens sucessivas dos satélites (resolução temporal) os quais, possuem uma Bandas Comprimento de Onda (μm) Resolução (m) Banda 1 - Visível Ultra Azul 0.43 - 0.45 μm 30 Banda 2 - Visível Azul 0.450 - 0.51 μm 30 Banda 3 - Visível Verde 0.53 - 0.59 μm 30 Banda 4 - Visível Vermelho 0.64 - 0.67 μm 30 Banda 5 - Infravermelho Próximo 0.85 - 0.88 μm 30 Banda 6 - Infravermelho Médio 1 1.57 - 1.65 μm 30 Banda 7 - Infravermelho Médio 2 2.11 - 2.29 μm 30 Banda 8 – Pancromática 0.50 - 0.68 μm 15 Banda 9 – Cirrus 1.36 - 1.38 μm 30 Banda 10 - Infravermelho Termal 1 10.6 - 11.19 μm 100 * (30) Banda 11 - Infravermelho Termal 2 11.5 - 12.51 μm 100 * (30) *tratada e disponibilizada com pixel de 30 metros 24 área correspondente na superfície da Terra e cuja dimensão resultará da capacidade do sensor em distinguir os alvos espaçados entre si (resolução espectral). Registra-se, por conseguinte, a menor unidade de área, que em uma imagem de satélite dá-se o nome de pixel. No pixel ficam registrados os valores dos níveis digitais e as coordenadas da área como se visualiza na figura 21. Figura 21 – Esquema representativo de uma imagem digital. Fonte: Adaptado do INPE, 2005. Como se percebe na figura 5 os níveis digitais variam de “0” e “255”1, e será tanto maior o nível digital quanto maior for a Reflectância e/ou emitância da área (emitância no caso das bandas termais) e o inverso será verdadeiro quanto menor for a Reflectância e/ou emitância. Os níveis de cinza são agrupados e interpretados de acordo com os valores, como por exemplo “0” e “17”, como se fossem os mesmos níveis digitais. Isso é possível porque o computador, usando regras estatísticas, isola e converte os níveis digitais (os valores numéricos) em níveis de cinza para a geração de uma imagem que possa ser interpretada pelo usuário. Essa imagem, no entanto, será mostrada em preto e branco (níveis de cinza), ou em termos mais técnicos, será gerada uma imagem pancromática. Para a geração de imagens multiespectrais são necessários, conforme o (INPE 2005), dois processos distintos: o aditivo, que consiste em criar cores a partir de fontes que emitem as cores primárias (Vermelho, Verde e Azul); e o processo subtrativo, que é usado para gerar cores a partir das cores complementares (Cyan, Magenta e Amarelo). No primeiro processo a sobreposição de todas as cores gera a cor branca e no segundo a cor gerada pela sobreposição será a preta. Assim se podem obter todas as cores possíveis associando-se as bandas espectrais a cada cor primária, de forma que cada alvo na superfície se associará ao comprimento de onda mais próximo do comprimento da onda de origem, como o visualizado na figura 22. 1 As imagens geradas pelo sensor (TM) do landast 5, possuem 8 bits de resolução radiométrica, esse fato implica no reconhecimento de 255 níveis digitais diferentes nas imagens geradas por este sensor. 25 Figura 22 – Esquema representativo da associação de cores. Fonte: Adaptado do INPE, 2005. Com efeito, através das técnicas de tratamento de dados de sensoriamento remoto, tanto os níveis digitais por meio de gráficos ou tabelas, quanto as imagens geradas a partir de níveis de cinza são de extrema importância para se obter informações da superfície da terra. Nenhuma outra é tão importante para a ciência geográfica quanto às imagens, visto que as imagens coloridas que podem ser geradas facilitam, sobremaneira, a interpretação das formas superficiais dos terrenos, bem como a análise visual é muito importante quando as características típicas dos objetos forem espaciais e não puramente espectrais. Para a Geografia e a Cartografia as imagens podem ser interpretadas com base no tripé: Forma, Textura e cor, além dos já mencionados (ND). Deve-se destacar que as imagens geradas pelos satélites e seus respectivos sensores guardam um nível de precisão bastante aceitável. Do ponto de vista de outras metodologias, contudo, são várias as interferências capazes de alterar os dados brutos de sensoriamento remoto, efeitos atmosféricos, erros radiométricos, espectrais, erros topográficos, entre outros. Neste contexto é de importância fundamental que o operador tenha domínio dos fundamentos de sensoriamento remoto e da região onde esta obtendo dados, fato que implica no conhecimento dos tipos de cobertura da terra e, por conseguinte no conhecimento dos alvos e seus respectivos comportamentos em relação a fonte de energia, no intuito de realizar um levantamento cartográfico confiável e fundamentado. 8. Resoluções das Imagens Atualmente, o sensoriamento é constituído por uma razoável constelação de satélites que oferecem imagens para atender as necessidades de uma ampla demanda de usuários. Para aqueles usuários que necessitam de uma observação detalhada do tamanho e das formas dos objetos, há os sensores que detectam áreas unitárias inferiores a 1 metro, e com meios para visualização estereoscópica 3D, muito úteis para levantamentos cadastrais multifinalitários, urbanos e cartografia digital. Os interessados em monitoração para o acompanhamento da evolução e de mudanças da paisagem podem recorrer aos sensores com alta taxa de revisita à área. Já os que se interessam em determinar a composição ou constituição dos minerais ou rochas, a procura é pelos sensores com um grande número de bandas espectrais. Por isso, uma forma de se abordar as potencialidades de um sensor é pelo dimensionamento de suas resoluções. 26 Nas aplicações de sensoriamento remoto em estudos geotemáticos duas questões estão sempre presentes: i) qual é a melhor resolução da imagem para se identificar ou resolver os objetos de interesse e; ii) qual é a melhor escala para representar os objetos ou fenômenos geográficos. Nem sempre há respostas simples para essas indagações. O que mais prontamente pode-se responder é que, devido à limitação que o sensor orbital tem para transmitir grandes volumes de dados para as estações terrestres de rastreamento de satélites, as imagens que recobrem grandes aéreas, de dezenas de milhares de quilômetros quadrados, como as do satélite Landsat e CBERS, são associadas com resoluções espaciais pequenas (30, 20 metros), e as imagens que recobrempequenas áreas, como as imagens Ikonos e Orbview, são associadas com resoluções espaciais grandes (1 metro). Consequentemente, as imagens de pequena resolução espacial, por não mostrarem os detalhes dos alvos, servirão para estudos em escalas mais regionais, enquanto as imagens com grande resolução espacial se prestarão para estudos locais de detalhe.Na prática, a detecção ou identificação de um objeto nas imagens de sensoriamento remoto não é determinada somente pela resolução espacial, mas por quatro diferentes formas de medições: 1) pela área do campo de visada do sensor; 2) pelo comprimento de onda das bandas; 3) pelos valores numéricos da medida da radiância do alvo; 4) e pela data em que a imagem foi tomada. São essas quatro formas de medidas que são descritas em termos de resoluções, respectivamente denominadas de resolução espacial, espectral, radiométrica e temporal. Elas atuam em conjunto, num processo interativo, nem sempre facilmente percebido pelo analista, o que é, também, o motivo de frequentes dúvidas ao se tentar explicar por que pequenos objetos são surpreendentemente identificados nas imagens. Os conceitos e explicações tratadas a seguir, sobre resoluções, são válidas para todos os tipos de sensores imageadores, independente da faixa espectral em que operam, à exceção do radar. 8.1 Resolução Espacial O tamanho individual do elemento de área imageada no terreno representa em qualquer tipo de sensor uma propriedade importante da imagem: a resolução espacial. A resolução espacial é um importante parâmetro do sensor porque ela determina o tamanho do menor objeto que pode ser identificado em uma imagem. Por definição, um objeto somente pode ser resolvido (detectado), quando o tamanho deste é, no mínimo, igual ou maior do que o tamanho do elemento de resolução no terreno, ou seja, da resolução espacial. Por exemplo, se uma casa tem 20 m x 20 m de tamanho, a resolução espacial da imagem deveria ser, no mínimo, de 20 metros para que essa casa possa ser identificada na imagem. Entretanto, a experiência mostra que, de fato, para um objeto ser resolvido na imagem, a resolução espacial nominal deveria ser pelo menos, a metade do tamanho do objeto medido na sua menor dimensão. Mesmo assim, o objeto ainda tem que apresentar um bom contraste de reflectância com os alvos que lhe são vizinhos, vistos na dimensão do pixel. A Figura 23 exemplifica estas relações. 27 Figura 23 - Resolver os objetos pelo valor da resolução espacial depende também do contraste de reflectância dos pixels vizinhos . Em (a) as duas árvores não são resolvidas, fundindo-se em um único objeto. Em (b) elas são resolvidas por estarem separadas pela área de um pixel com reflectância diferente. Determinar qual deve ser a resolução espacial de um sensor, envolve para a maioria das aplicações de sensoriamento remoto, uma análise da relação do grau de auto correlação da organização espacial dos objetos no terreno. Em terrenos naturais os alvos apresentam uma alta correlação espacial, mostrando pouca variabilidade ao longo de uma área, não exigindo, para a sua identificação, altas resoluções espaciais. Já, para uma área com alta variabilidade de tipos de objetos, como numa área urbana, a exigência seria para um sensor com resolução espacial de poucos metros, para que as casas, ruas, estacionamentos, possam ser resolvidos. A figura 24 mostras imagens de três sensores ópticos com diferentes resoluções espaciais. Fica evidente que se pode estabelecer uma relação de comparação entre a resolução espacial e a escala de visualização da imagem. Já na figura 25, são sugeridas as escalas para as correspondentes resoluções espaciais de alguns conhecidos sensores. São escalas aproximadas, porque na prática, dependendo do contraste da cena e das bandas, quase sempre se consegue uma escala maior do que a sugerida pela resolução espacial. Figura 24 - Da esquerda para a direita, imagens dos satélites, Landsat com resolução espacial de 30m, Spot com 10 m e Ikonos com 1 m, de uma porção do lago Paranoá de Brasília. 28 Figura 25 - Escalas aproximadas de visualização de imagens multiespectrais em função da resolução espacial (Escalas determinadas experimentalmente com imagens em composições coloridas realçadas). 8.2 Resolução Espectral Para o sensoriamento remoto, a obtenção simultânea de imagens em múltiplas bandas espectrais é, sem dúvida, a propriedade mais importante dos sensores imageadores. O termo resolução espectral envolve pelo menos três parâmetros de medida: i) o número de bandas que o sensor possui; ii) a largura em comprimento de onda das bandas; iii) as posições que as bandas estão situadas no espectro eletromagnético. Comparativamente, um sensor tem melhor resolução espectral se ele possui maior número de bandas situadas em diferentes regiões espectrais e com larguras estreitas de comprimentos de onda. Essa necessidade é devido às diferenças relativas de reflectância entre os materiais da superfície da terra, que permitem distinguir um material do outro, em determinados comprimentos de onda. Por exemplo, as gemas são mais facilmente diferenciadas nos comprimentos de onda do visível, devido às diferenças de cores que na maioria é controlada por pequenas impurezas nas suas estruturas cristalinas. Por outro lado, as rochas evidenciam suas diferenças espectrais mais nos comprimentos de onda do infravermelho próximo e de ondas curtas. Quanto à largura da banda, ela deve ser dimensionada em concordância com as larguras das feições de absorção exibidas pelos espectros de reflectância de cada material. As feições de absorções são identificadores de composições dos tipos de rochas, solos, vegetação e água, e normalmente, são da ordem de 10 nm a 20 nm. Sensores com bandas muito largas, além de 20 nm tendem a não ser capazes de diferenciar um objeto do outro em função de sua composição. Assim, o objeto é apenas detectado em razão da resolução espacial. Um simples exemplo que serve para ilustrar o efeito da resolução espectral na detecção ou identificação de um objeto é mostrado na Figura 17 de uma área da floresta amazônica. Ambas as imagens estão na mesma resolução espacial de 30 metros. Na imagem (a) da Figura 1.18, de uma banda do visível de 0,63 μm a 0,69 μm, mesmo os grandes rios com dezenas de metros de largura não são facilmente identificados, porque a baixa reflectância da água e da vegetação são, praticamente, iguais nesse comprimento de onda, não havendo contraste entre os dois tipos de alvos. Para a região amazônica seria um erro selecionar esta banda espectral para se elaborar mapas de drenagem. A imagem (b) da Figura 26 é de uma banda do infravermelho próximo. Nessa banda os rios são facilmente identificados, porque a água possui uma baixa reflectância, enquanto a vegetação da floresta tem uma alta reflectância, estabelecendo uma razão de alto contraste entre os dois alvos. 29 Figura 26 - Imagens da região amazônica nas bandas do visível (a) e do infravermelho próximo (b) exemplificando o efeito da resolução espectral no contraste do rio com a vegetação. 8.3 Resolução Radiométrica A medida pelos detectores da intensidade de radiância da área de cada pixel unitário é denominada de resolução radiométrica. Maior será a resolução radiométrica, quanto maior for a capacidade do detector para medir as diferenças de intensidades dos níveis de radiância. Quanto maior for essa capacidade, maior será a resolução radiométrica. Ela define o número de níveis de radiância que o detector pode discriminar. Em função da intensidade da radiação de entrada no sensor, a resposta de saída dos detectores é convertida eletronicamente em um número digital discreto. Também se dá o nome de quantização à medida da resolução radiométrica. Em termos práticos, a quantização do
Compartilhar