Baixe o app para aproveitar ainda mais
Prévia do material em texto
SENSORIAMENTO REMOTO SU M ÁR IO Definição 1. Princípios Físicos 1.1 Radiação eletromagnética 1.2 Fonte de radiação eletromagnética 1.3 Interação da radiação eletromagnética com a matéria 1.4 Espectro eletromagnético 2. Produtos de Sensores Remotos 2.1 Estrutura de uma imagem digital 2.2 Resolução espacial 2.3 Resolução radiométrica 2.4 Resolução espectral 2.5 Resolução temporal 3. Sistemas Sensores 3.1 Sensores não imageadores 3.2 Sensores imageadores 4. Aquisição de Dados 4.1 Níveis de aquisição 4.2 Plataformas de sensores remotos 4.3 Sistemas aeroportados 4.4 Sistemas orbitais 5. Pré-Processamento 5.1. Eliminação de ruídos 5.2 Correção geométrica 5.3 Correção radiométrica 6. Processamento Digital de Imagens 6.1 Espaço de cores RGB 6.2 Histograma e aumento de contraste 6.3 Intensidade, Matiz, Saturação 6.4 Operação aritmética 6.5 Filtros 6.6 Classificação 7. Comportamento Espectral de Alvos 7.1 Assinatura espectral Referência Bibliográfica Contato 3 97 SU M ÁR IO Definição Na literatura são encontradas as mais variadas definições de sensoriamento remoto, algumas mais simples e outras mais científicas. A definição maissimples de Sensoriamento Remoto é: Sensoriamento Remoto é a coleta de dados sem o contato direto ou proximidade com o objeto ou superfície analisada. A definição mais científica é: Sensoriamento Remoto é uma ciência que visa o desenvolvimento da obtenção de imagens da superfície terrestre por meio da detecção e medição quantitativa das respostas das interações da radiação eletromagnética com os materiais terrestres (Meneses e Almeida, 2012). Definição 4 97 SU M ÁR IO 1. Princípios Físicos 1.1 Radiação eletromagnética Entender a maneira como a radiação eletromagnética é gerada, propagada e modificada possui considerável importância, pois é com base nesse entendimento que os diferentes sensores são projetados e seus produtos utilizados para as mais variadas aplicações (Drury, 2001). Segundo Jensen (2011), a radiação eletromagnética é gerada toda vez que uma carga elétrica é acelerada. A propagação da radiação eletromagnética no espaço vazio ocorre na forma de ondas e de energia. A dualidade do comportamento da radiação eletromagnética é formulada pelos modelosondulatório (onda) e corpuscular (energia) (Meneses e Almeida, 2012). 1.1.1 Modelo ondulatório No modelo ondulatório a radiação eletromagnética pode ser explicada como uma forma de onda senoidal e hormônica (Meneses e Almeida, 2012). Uma partícula com carga elétrica gera um campo elétrico em torno de si e o movimento dessa partícula gera, por sua vez, um campo magnético. Ambos os campos atuamconjuntamente e ortogonalmente entre si (Figura1.1). A radiação eletromagnética se propaga no vácuo à velocidade da luz. Fora do vácuo, a energia eletromagnética pode afetar partículas em um meio físico qualquer, mudando as propriedades eletrônicas, vibracionais e rotacionais de tais partículas. Frequência (número de cíclos por segundo) Velocidade da luz Comprimento da onda E MCampo Magnético M Campo Elétrico E Figura 1.1 – Flutuação dos campos elétrico (E) e magnético (M) com a propagação da radiação eletromagnética a velocidade da luz (Meneses & Almeida, 2012). 1. Princípios físicos > 1.1 Radiação eletromagnética > 1.1.1 Modelo ondulatório 5 97 SU M ÁR IO No comportamento ondulatório, são considerados os seguintes parâmetros: Comprimento de onda (λ) é a distância entre “cristas ou vales”. Pode ser representado em metros (m), onde nanômetro(nm) é igual a 10-9 m, e micrômetro(µm) igual a 10-6 m. Frequência (ν) é o número de vibrações ou ciclos que passa por um ponto em 1 segundo. É expresso em herz (Hz), onde megaherz(MHz) corresponde a 106 Hz e kiloherz (kHz) é igual a 103 Hz. O modelo ondulatório pode ser representado pela equação 1.1, que mostra a relação inversamente proporcional entre comprimento de onda (λ) e frequência (ν), onde c é igual a velocidade da luz (3x108m/s). λ = c/ν (eq.1.1) 1.1.2 Modelo corpuscular Em 1901, Max Planck observou que a radiação eletromagnética transferia energia de um corpo para outro em quantidades discretas, à qual denominou de fótons ouquanta (Meneses e Almeida, 2012). O fóton ou quantum é a partícula básica estudada em física quântica e que pode ser descrita como a partícula mensageira da energia da onda eletromagnética. O termo discreto significa que a intensidade de energia transportada pela radiação eletromagnéticaem um dado comprimento de onda é sempre a mesma. Segundo a teoria quântica, a frequência da radiação eletromagnética é função da energia do quantum envolvido: E = νh (eq.1.2) onde, E = energia, ν = frequência, h = constante de Planck (6,62 x 10-34Joules.seg) A equação1.2 indica que energia é diretamente proporcional a frequência do comprimento de onda. Assim, quanto mais alta frequência da radiação eletromagnética maior a energia gerada. A intensidade da radiação eletromagnéticapode ser considerada em termos da amplitude dos campos elétrico e magnético (modelo ondulatório) e quantidade de energia (modelo corpuscular). Desse modo, a energia associada ao comprimento de ondas longo é menor que aquela associada a comprimento de onda curto. Consequentemente, detectores de energia eletromagnética de comprimentos de ondas longos necessitam compensar tal diferença através do tempo de detecção e/ou realizando a detecção sobre áreas maiores. 1. Princípios físicos > 1.1 Radiação eletromagnética > 1.1.2 Modelo corpuscular 6 97 SU M ÁR IO 1.2 Fonte de radiação eletromagnética No universo, toda matéria acima do zero absoluto (-273,15 °C ou 0°K) emite alguma forma de radiação eletromagnética. Segundo Meneses e Almeida (2012), toda a matéria acima do zero absoluto apresenta uma movimentação aleatória das partículas dos átomos e das moléculas. Quando essas partículas se colidem elas mudam o seu estado de energia e emitem radiação eletromagnética.Portanto, quanto mais alta a temperatura da fonte maior a sua potência irradiante de energia (Figura 1.2).Nesse contexto, a principal fonte de radiação eletromagnética é o Sol com temperatura de superfície próxima a 6000°C. A Terra também emite radiação eletromagnética, mas em menor potência, com temperatura média de 27°C. Radiação Solar Radiação Terrestre 100 90 80 70 60 50 40 30 20 10 0 0,1 0,5 1,0 1,5 2,0 10 20 30 40 50 Comprimento de onda em micrômetros InfravermelhoVisívelUltravioleta Ondas LongasOndas Curtas Figura1.2 – Intensidade da energia radiante emitida pelo Sol e pela Terra(Meneses & Almeida, 2012). 1.3 Interação da radiação eletromagnética com a matéria O entendimento do modo como os dados de sensoriamento remoto ajudam na identificação de diferentes materiais na superfície terrestre depende em grande parte da compreensão dos mecanismos pelos quais a radiação eletromagnética interage com a matéria.Cada átomo ou composto químico possui determinado estado de energia, e esse estado pode transitar de um estado energético para outro se for excitado por radiação eletromagnética de determinada frequência. Três tipos de transição são conhecidos: • eletrônica: ocorre atransferência de elétrons entre os orbitais mais externos de um átomo (valência e propriedades químicas) em sólidos, líquidos e gases. Requer alta energia de excitação, por isso é mais comum em comprimentos de onda mais curtos (ultravioleta e visível); • vibracional: ocorrem mudanças na posição relativa dos átomos em moléculas de sólidos, líquidos e gases. Para se desenvolver requer menos energia que a transição eletrônica, ocorre somente nos comprimentos de onda mais longos da região do infravermelho; • rotacional: ocorre a mudança no momento deinércia das moléculas,sendorestrita a gases. São importantes na interação entre radiação eletromagnética e a atmosfera (gases). A energia de qualquer comprimento de onda pode ser transmitida através 1. Princípios físicos > 1.2 Fonte de radiação eletromagnética7 97 SU M ÁR IO da matéria, absorvida, refletida pela sua superfície, espalhada pelas suas partículas constituintes ou irradiada com outro comprimento de onda após a absorção. A interação da radiação eletromagnética com a matéria ocorre tanto na atmosfera como na superfície. 1.3.1 Interação da radiação eletromagnética com a matéria na atmosfera Refração A refração refere-se ao desvio da luz quando ela passa de um meio a outro com densidades diferentes (Jensen, 2011). A figura 1.3 mostra a refração em três camadas atmosféricas não turbulentas. A energia radiante incidente é desviada de sua trajetória normal quando atravessa uma camada atmosférica para outra. A Lei de Snell pode ser usada para explicar quanto de desvio ocorrerá com base no ângulo de incidência (θ) e no índice de refração de cada nível atmosférico (n1, n2 e n3). O índice de refração (n) é a razão entre avelocidade da luz no vácuo (C) e a velocidade da luz no meio atravessado (Cn): n = C / Cn (eq.1.3) Figura 1.3 – Exemplo de refração em três camadas atmosféricas nãoturbulentas (Jensen, 2011). Espalhamento O espalhamento da radiação eletromagnética ocorre devido à presença de partículas (moléculas e aerossóis)na atmosfera em diferentes altitudes (Figura 1.4).Ao contrário da refração, a direção associada ao espalhamento é imprevisível (Jensen, 2011). θ1 θ2 θ3 n1 = índice de refração para esta camada da atmosfera n2 Atmosfera opticamente mais densa n3 Atmosfera opticamente menos densa Atmosfera opticamente menos densa Energia radiante incidente Normal à superfície Refração Atmosférica Percurso da energia na atmosfera homogênea Percurso da energia afetada pela refração atmosférica 1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.1 Interação da radiação eletromagnética com a matéria na atmosfera 8 97 SU M ÁR IO Figura 1.4 – Principais subdivisões da atmosfera e os tipos de moléculas e aerossóis encontrados em cada camada(Jensen, 2011). Existem basicamente três tipos de espalhamento atmosférico (Figura 1.5): • Espalhamento Rayleigh ocorre quando o diâmetro efetivo das moléculas de gás envolvidas, como por exemplo, oxigênio (O2) e nitrogênio (N2), é menor que o comprimento de onda da radiação eletromagnética incidente. A intensidade do espalhamento Rayleigh é inversamente proporcional à quarta potência do comprimento de onda (λ-4) da radiação (Figura1.6). Quanto menor o comprimento de onda maior o espalhamento por partículas pequenas. Por esse motivo, o espalhamento Rayleigh é responsável pela cor azul do céu, onde o comprimento de onda nas regiões do ultravioleta e azul é muito mais espalhado que o comprimento de onda na região do vermelho. • Espalhamento Mie ocorre na parte inferior da atmosfera (em torno de 4,5 km a partir da superfície), onde são encontradas partículas geralmente esféricas (poeira, fumaça) com diâmetros aproximadamente iguais ao comprimento de onda da radiação eletromagnética incidente. • Espalhamento não-seletivo ocorre nas porções mais baixas da atmosfera, onde existem partículas (gotículas de água e cristais de gelo que formam as nuvens e nevoeiros) com tamanhos superiores a 10 vezes o comprimento de onda da radiação eletromagnética. O espalhamento ocorre de forma não seletiva onde todos os comprimentos de ondas da região do visível são espalhados, fazendo com que a nuvem pareça branca. Figura 1.5 – O tipo de espalhamento atmosférico é uma função do comprimento de onda e o tamanho da molécula de gás, partículas de poeira e fumaça, e gotículas de vapor d’água (Jensen, 2011). 20 km Superfície doTerreno Al tit ud e Ac im a do N ív el d o M ar H2O, aerossóis estratosféricos O3, aerossóis estratosféricos O2, CO2, gases traços Moléculas de gás (espalhamento Rayleigh) 15 km 10 km 8 km 2-3 km diâmetro Vapor d’água Molécula de gás Fumaça, poeira Fóton de energia eletromagnética modelado como uma onda Espalhamento Mie Espalhamento Não-seletivo Espalhamento Rayleigh Espalhamento Atmosférico λ b. a. c. 1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.1 Interação da radiação eletromagnética com a matéria na atmosfera 9 97 SU M ÁR IO B G Y O R Energia em elétro-volts (eV) 0,4 0,5 0 20 40 60 80 100 0,6 0,7 3 2,75 2,5 2,25 2 1,75 Comprimento de Onda, µm In te ns id ad e da L uz E sp al ha da Figura 1.6 – A intensidade do espalhamento Rayleigh é inversamente proporcional à quarta potência do comprimento de onda (Jensen, 2011). Absorção Absorção é o processo pelo qual a energia radiante incidente é absorvida e convertida em outras formas de energia (Jensen, 2011).O dióxido de carbono (CO2), oxigênio (O2), ozônio (O3) e água (H2O) na atmosfera absorvem a energia solar em diferentes comprimentos de ondas. Como resultado as curvas de radiação solar medida no topo da atmosfera e a nível do mar são diferentes (Figura 1.7). Comprimento de Onda, µm Ra di aç ão S ol ar ( W m -2 µ m -1 ) 2000 1500 1000 500 0 0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 2,6 2,8 3,0 3,2 O3 O2, H2O H2O H2O H2O H2O H2O CO2 H2O CO2 H2O CO2O3 Radiação solar no topo da atmosfera Radiação solar ao nível do mar Figura 1.7 – Curvas de radiação solar mostrando a energia absorvida pelos gases em diferentes comprimentos de onda (Drury, 2001). A energia disponível para as interações com a matéria na superfície terrestre é dividida em janelas atmosféricas discretas separadas por regiões dominadas por absorção atmosférica. As janelas atmosféricas são partes do espectro eletromagnético que transmitem a energia radiante, e são nessas janelas que os sistemas de sensoriamento remoto são desenvolvidos (Figura 1.8). 1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.1 Interação da radiação eletromagnética com a matéria na atmosfera 10 97 SU M ÁR IO 100 80 60 40 20 0 0,3 0,5 1 1,5 2 3 5 10 15 20 30 100 80 60 40 20 0 300 500 1000 0,5 0,1 1 5 10 50 80 UV VNIR VISIBLE SWIR MID INFRARED FAR INFRARED NEAR INFRARED FAR INFRARED MICROWAVE Tr an sm is si on (% ) Tr an sm is si on (% ) Wavelength (µm) Wavelength (µm)(µm) Figura 1.8 –Principais janelas atmosféricas ao longo do espectro eletromagnético em escala logarítmica e a porcentagem de transmissão da radiação eletromagnética na atmosférica (Drury, 2001). Reflectância A maior parte da radiação eletromagnética é refletida de volta ao espaço pelo topo das nuvens e outros materiais na atmosfera por reflexão especular ou reflexão difusa (Lambertiana).Na reflexão especular, toda a energia é refletida em um ângulo oposto e igual ao ângulo de incidência(Figura1.9). Na reflexão difusa ou Lambertiana, a energia refletida é aproximadamente igual em todas as direções, independentemente do ângulo de incidência. O mesmo princípio da reflexão especular ou difusa também é aplicada à matéria na superfície. θ θ (a) (b) (c) Figura 1.9 – Exemplos de reflexão. a) Reflexão especular;b) Reflexão difusa ou Lambertiana; c) Reflexão envolvendo as componentes especular e difusa (Drury, 2001). 1.3.2 Interação da radiação eletromagnética com a matéria na superfície Aradiação eletromagnéticaao atingir a superfície pode sofrer três tipos de interação com a matéria:Reflexão, absorção e transmissão. A Lei da Conservação de Energia determina que para qualquer interação radiação eletromagnéticaematéria, o fluxo radiante incidente em umdeterminado comprimento de onda (ΦIλ) é divididoem fluxo radiante refletido(ΦRλ), fluxo radiante absorvido (ΦAλ) e fluxo radiante transmitido(ΦTλ)pela matéria envolvida. ΦIλ = ΦRλ + ΦAλ + ΦTλ (eq. 1.4) 1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.2 Interação da radiação eletromagnética com a matéria na superfície 11 97 SU M ÁR IO Dividindo a equação acimapelo fluxo radiante incidente (ΦIλ)é gerada uma expressão que permite que as propriedadesespectrais dos materiais sejam definidas em termos de reflectância (ρλ=ΦRλ/ΦIλ), absortância(τλ=ΦAλ/ΦIλ) e transmitância(αλ=ΦTλ/ΦIλ) espectral. ρλ + τλ + αλ = 1 (eq.1.5) O valor da reflectância(ρλ)de uma superfície caracteriza a proporção de energia incidente que é refletida em um comprimento de onda específico, e o qual dependeráda superfície de reflexão (especular e/ou difusa). Medida da energia radiante A medida da energia radiante em um detector, por exemplo, é efetuada com base no fluxo radiante (Φ). O fluxo radiante por definição é a quantidade de energia que passa por um ponto durante um determinado tempo, sendo expresso em Joules por segundo(J-s) ou Watt (W) (Novo, 2009). A quantificação do fluxo radiante interceptado por uma unidade de área ou superfície pode ser determinada pela irradiância (E), emitância (M) e radiância (L). A irradiância é a quantidade de fluxo radiante incidente sobre uma superfície por unidade de área, e a emitânciaou excitânciaé a quantidade de fluxo radiante emitida de uma superfície por unidade de área (Jensen, 2011; Novo, 2010). As duas grandezas são medidas em Watts por metro quadrado (W m-2). A radiância(L) é a intensidade do fluxo radiante (Φ) por unidade de ângulo sólido (Ω) por unidade de área projetada numa direção específica (Figura 1.10). A radiância é medida em Watts por metro quadrado por esferorradiano (W m-2sr-1)(Jensen, 2011). L = (Φ/Ω)/A cos θ (eq.1.6) L = (Φ/Ω)/A cos θ Fluxo Φ Área A Área A θ Área projetada A cos θ Normal à super�cie Figura 1.10 –Conceito de radiância de uma área projetada em uma direção específica e normal à superfície (Novo, 2009). 1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.2 Interação da radiação eletromagnética com a matéria na superfície 12 97 SU M ÁR IO 1.4 Espectro eletromagnético A figura 1.11 mostra as principais regiões espectrais utilizadas em sensoriamento remoto, bem como a relação entre o comprimento de onda (λ), frequência (ν) e os fenômenos que estão envolvidos na geração e interação da radiação eletromagnética. Os limites das regiões e a nomenclatura das regiões podem variar de autor para autor. Nos comprimentos de onda mais curtos, os raios gama (0,01 – 0,1Å) tem sua origem no núcleoatômico a partir do decaimento radioativo. Os raios X (0,1 - 10Å), radiação ultravioleta (10nm – 0,38μm)e radiação visível (0,38 – 0,76μm) são gerados na nuvem eletrônica externa ao núcleo atômico. Quando um elétron se move de uma órbita de alta energia para uma de menor energia, é liberado um fóton de um comprimento de onda específico. As radiaçõesdo infravermelho e micro-ondassão produzidas por vibração e rotação de moléculas e por emissão termal. A região do infravermelho é geralmente subdividida em infravermelho próximo (0,76 – 1,2 μm), infravermelho de ondas curtas (1,2 - 3μm), infravermelho médio (3 - 5μm) e infravermelho termal (5μm – 1 mm). A radiação dasmicro-ondas(1mm – 100cm) também é gerada por flutuações nos campos elétricos e magnéticos. O principal mecanismo de interação na região das micro-ondas e ondas de radio é o retroespalhamento, reflexão e condutividade. Figura 1.11– Espectro eletromagnético mostrando a relação entre comprimento de onda e frequência, e os fenômenos envolvidos na geração e interação da radiação eletromagnética, e a nomenclatura de diferentes partes do espectro (Drury, 2001). eletric and magnetic field fluctuations molecular rotation molecular vibration scattering electron shi�s atomic processes rain and fog attenuation heating heating Phenomena Wavelength gamma radiation visible X-rays ultra- violet near mid far infrared microwave radar radio bands Frequency (Hz) (waves s1) 100 µm10 µm1 µm100 nm10 nm1 nm 1 mm 1 cm 10 cm 1 m 10 m 100 m 1 km 10 km 103 km 104 km 3 x 105 km100 km100 pm10 pm 1020 1018 1016 1014 1012 1010 108 106 104 102 1 1. Princípios físicos > 1.4 Espectro eletromagnético 13 97 SU M ÁR IO 2. Produtos de Sensores Remotos Os produtos de sensores remotos podem ser divididos em duas categorias: produtos analógicos e produtos digitais. Os produtos analógicos foram utilizados antes da popularização dos microcomputadores. Apesar de possuir considerável importância na visualização de feições da superfície terrestre, os produtos analógicos têm sido gradativamente substituídos pelos produtos digitais. As imagens coletadas por sensores remoto possuem características, como estrutura e resoluções espacial, radiométrica, espectral e temporal, que as diferenciam de outras imagens digitais. 2.1 Estrutura de uma imagem digital A imagem digital é constituída por um arranjo de elementos sob a forma de uma matriz, com linhas e colunas (Figura2.1). Cada cela ou pixel (pictureelement) da matriztem sua localização definida em um sistema de coordenadas X e Y. Cada pixel possui ainda um atributo numérico Z que indica o nível de cinza, denominado de Número Digital (ND) ou Digital Number (DN). O ND de cada pixel corresponde à intensidade de radiânciado terreno. Figura 2.1 – Imagem digital com sua estrutura na forma de uma matriz com a representação dos números digitais em cada pixel. 2.2 Resolução espacial A resolução espacial é a capacidade do sensor de enxergar objetos ou alvos na superfície. Quanto menor o objeto ou alvo discriminado maior a resolução espacial (Figura 2.2). 54 40 31 31 31 31 31 31 31 31 31 31 27 27 27 27 27 27 27 28 28 28 28 39 51 52 50 45 25 24 24 24 24 23 26 26 26 2626 55 37 37 37 37 37 37 35 35 35 35 35 35 58 66 38 13 13 17 21 21 21 19 14 14 14 16 1651 51 51 51 32 30 30 3030 30 40 40 40 20 20 50 60 70 56 52 42 39 34 29 29 29 44 4444 29 29 29 26 29 36 36 36 36 3636 39 39 39 33 33 33 33 33 76 76 45 42 49 48 67 49 49 50 85 72 56 52 47 35 24 52 52 46 58 43 54 53 49 37 32 34 2538 26 29 30 36 22 Pixel (pictureelement) 2. Produtos de Sensores Remotos > 2.1 Estrutura de uma imagem digital 14 97 SU M ÁR IO Figura 2.2 – Imagens dos satélites Landsat com resolução espacial de 30m, SPOT com 10m e IKONOS com 1m (Meneses e Almeida, 2012). Nos sensores ópticos a resolução espacial é determinada pelo campo de visada instantâneo (Instantaneous Field OfView - IFOV). O IFOV define a área do terreno vista pelo sensor a uma dada altitude e a um determinado tempo.O IFOV representa, portanto, o tamanho do pixel da imagem o qual corresponde com a dimensão da área vista pelo sensor (Figura 2.3). Figura 2.3 – O IFOV define o campo de visada que projeta sobre a superfície a dimensão mínima da área vista pelo sensor. 2.3 Resoluçãoradiométrica A resolução radiométrica é a medida da intensidade de energia refletida, emitida ou retroespalhadapela matéria ou objeto na superfície terrestre. Quanto maior a resolução radiométricado sensor maior será a capacidade do detector para medir as diferenças de intensidades do sinal (Figura2.4).Em função da intensidade do sinal de entrada no sensor, a resposta de saída dos detectores é convertida eletronicamente em um número digital discreto, o qual é expresso em termos de números de dígitos binários (bits). Bit (Binarydigit) é a menor unidade de informação que pode ser armazenada ou transmitida. O valor em bits é sempre uma potência do número 2. Assim,os sensores com resolução radiométrica de 8bits(28) possuem valores variando de0 a 255,e sensores com16bits (216) registram valores quevariam de0 a 65.536. Figura 2.4– Imagens com resoluçãoradiométrica distinta. a) Imagem com resolução radiométrica de 1 bit (branco e preto); b) imagem com resolução radiométrica de 16bits (65.536 níveis de cinza). FOV IFOV Swath 2. Produtos de Sensores Remotos > 2.3 Resoluçãoradiométrica 15 97 SU M ÁR IO 2.4 Resolução espectral A resolução espectral é uma medida do número e do tamanho do intervalo do comprimento de onda (denominado de bandas) no espectro eletromagnético ao qual o sensoré sensível (Jensen, 2011). Assim, quanto maior o número de bandas e menor o tamanho do intervalo do comprimento de onda maior será a resolução espectral do sensor. Os sistemas sensores multiespectrais (exemplo, Landsat5/TM) detectam energia em múltiplas bandas do espectro eletromagnético, e os sensores hiperespectrais (exemplo, AVIRIS) adquirem dados em centenas de bandas espectrais (Figura 2.5). Figura 2.5 – Resolução espectral do Landsat5/TM (multiespectral com 4 bandas) e AVIRIS (hiperespectral com 50 bandas) no intervalo do comprimento de ondas do visível e infravermelho próximo (Schowengerdt,2007). 2.5 Resolução temporal A resolução temporal do sensor está associada ao intervalo de tempo para reamostragem de um determinado local.Os satélites executam uma órbita heliossíncrona ortogonal ao sentido de rotação da Terra e passam sobre o mesmoponto da superfície terrestre na mesma hora (Meneses e Almeida, 2012). O satélite Landsat5/TM, por exemplo, tem resolução temporal de 16 dias. As órbitas de um mesmo dia se distanciam entre si de 2.752 km, sendo necessários 16 dias para o recobrimento total da Terra (Figura 2.6). Figura 2.6 – Resolução temporal de 16 dias do Landsat5/TM (Robinson, 1995). 1 2 3 4band bandTM 400 wavelength (nm) 900 400 wavelength (nm) 900 λ y x λ y x AVIRIS 1 50 Day 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 1 Equador Spacing between successive orbits 2752 km 2. Produtos de Sensores Remotos > 2.4 Resolução espectral 16 97 SU M ÁR IO 3. Sistemas Sensores Segundo Novo (2010) os sensores são os sistemas responsáveis pela conversão da energia proveniente dos objetos em um registro na forma de imagem ou gráfico, os quaispermite associar a distribuição da radiância, emitância, ou retroespalhamento com suas propriedades físicas, químicas, biológicas ou geométricas. Os sistemas sensores podem ser classificados de acordo com a sua fonte de energia em sensores passivos e sensores ativos (Figura 3.1): • O sensor passivo detecta a radiação solar refletida ou a radiação emitida pela superfície terrestre. O sensor passivo pode ser classificado comosensor óptico quando constituído por espelhos e prismas de lentes. • O sensor ativo produz a própria radiação eletromagnética. A energia emitidaérefletida pelo objeto e captada pelosensor. Os exemplos de sensores ativos são os radares e os lasers. Figura 3.1 – Sensores passivos e ativos e a sua relação com as fontes naturais (Sol e Terra) e artificiais de radiação eletromagnética. Os sistemas sensores são ainda classificados em não imageadores e imageadores (Novo, 2010). Radar Imaging Atmospheric Absorbtion Atmospheric Reflectance Reflected by objects Reflected by objectsEmitted by sensor Emitted by objects Passive Remote Sensing Active Remote Sensing Sun 3. Sistemas Sensores 17 97 SU M ÁR IO 3.1 Sensores não imageadores O sensor não imageador fornece medidas da intensidade da energia oriunda da matéria sem, no entanto produzir uma imagem do terreno. Um exemplo de sensor não imageador é o espectrorradiômetro que fornece a assinatura espectral do objeto na forma de gráfico. O sensor não imageador não será abordado de forma detalhada nesta apostila, mas poderá ser consultado em Novo (2010). 3.2 Sensores imageadores O sensorimageadorproduz uma imagem bidimensional da radiância, emitância ou retroespalhamento do terreno. Dentre os sensores imageadores, destacam-se o sistema fotográfico, sistema de imageamento eletro-óptico, sistema termal e sistema passivo e ativo de micro-ondas. 3.2.1 Sistema fotográfico A fotografia aérea foi a primeira forma de sensoriamento remoto usado para inventariar e mapear sistematicamente as feições da Terra (Figura 3.2). Mesmo com o desenvolvimento de sistemas eletrônicos sofisticados para o registro de imagens da Terra, a fotografia aérea com sua alta resolução espacial continua sendo um dos principais produtos de sensoriamento remoto. Para a obtenção de fotografia aérea são necessários os seguintes componentes: Câmera – As primeiras câmeras aéreas para mapeamento foram desenvolvidas durante a Primeira Guerra Mundial. Os sensores fotográficos são classificados comocâmeras métricas que empregam sistemas ópticos de alta precisão que minimizam as distorções geométricas na fotografia. As câmeras métricas podem ser estruturadas com uma objetiva ou com múltiplas objetivas (Figura 3.3).As câmeras com múltiplas objetivas utilizam diferentes filmes, obtendo fotografias aéreas simultaneamente em diferentes regiões do espectro eletromagnético, principalmente nas regiões do azul, verde, vermelho e infravermelho próximo(Figura 3.4). Figura 3.2 –Sistema fotográfico constituído por câmera e filme. Imagem Objeto Lentes Fotografia 3. Sistemas Sensores > 3.1 Sensores não imageadores 18 97 SU M ÁR IO Figura 3.3 – Vista do perfil da câmera métrica e dos componentes do sistema (Jensen, 2011). Figura 3.4 – Câmera com múltiplas objetivas (Jensen, 2011). Filmes fotográficos – Os filmes fotográficos são compostos de uma base plástica transparente com uma emulsão de cristais de haleto de prata. Esses cristais são sensíveis à radiação eletromagnéticae funcionam como detectores. A emulsão fotográfica registra energia entre 0,3 a 1,2μm (região do ultravioleta ao infravermelho próximo). Quatro emulsões foram desenvolvidas nesse intervalo do comprimento de ondas: • Filme pancromático em preto e branco cobre as regiões do ultravioleta e do visível, especificamente no intervalo do comprimento de onda de 0,3 a 0,7μm. A presença de névoa/neblina causada pelo espalhamento atmosférico é mais intensa em comprimentos de onda mais curtos (regiões do ultravioleta e azul). Para eliminar a perda de contraste da fotografia causada pela névoa, um filtro que absorve esses comprimentos de onda é colocado na lente da câmera. • Filme colorido no visível possui três camadas de emulsão sensíveis à radiação eletromagnética na região do azul, verde e vermelho. O filme colorido na região do visível tem a vantagem de contribuir para a nossa capacidade de distinguir diferentes cores, ao contrário dos tons de cinza. • Filme infravermelho em preto e branco é usado com um filtro para absorver toda a energia do comprimento de onda da região do ultravioleta ao visível, e registrar somente a radiação eletromagnética na região do infravermelho de 0,7 a 0,9μm. Diferentes tipos de vegetação podem ser distinguidos pela variação de tonalidade na fotografia obtida no Superfície de vácuo para aplanar o filme Bobina de recolhimento Bobina de filme virgem Filme Plano Focal Distância Focal. ƒ Eixo óptico Corpo da Câmera Carretel do Filme Montagem do Cone das Lentes Lente Diafragma Lente dianteira do ponto nodalFiltro Obturador Lente traseira do ponto nodal 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.1 Sistema fotográfico 19 97 SU M ÁR IO infravermelho. O filme em preto e branco no infravermelho é utilizado geralmente para o inventário e mapeamento de florestas. As fotografias aéreas obtidas com filmes no infravermelho também são recomendadas para mapear e delimitar o limite de rios, lagos e outras feições hidrográficas. Principalmente pelo fato da água absorver a radiação eletromagnética na região do infravermelho. • Filme infravermelho colorido possui três camadas de emulsão sensíveis à radiação eletromagnética na região do verde, vermelho e infravermelho. As três emulsões são sensíveis ao azul, portanto um filtro amarelo (que absorve o azul) é usado para expor corretamente cada camada. Este filme foi desenvolvido na Segunda Guerra Mundial e foi denominado de filme de detecção de camuflagem, o qual auxiliou os militares na distinção de camuflagens artificiais a partir da vegetação saudável. As folhas das plantas saudáveis refletem no infravermelho enquanto que a camuflagem não. 3.2.2 Sistema de imageamento eletro-óptico O sistema de imageamento eletro-óptico possui detectores com capacidade de transformara radiação eletromagnética em sinais elétricos que são transmitidos para estações remotas. O sistema de imageamento eletro-óptico é constituído por um sistema óptico e por detectores ou receptores. O sistema óptico focaliza a energia proveniente sobre o detector (Novo, 2010). O detector produz um conjunto de sinais elétricos associados ao nível de intensidade da energia com a sua localização espacial, gerando uma imagem bidimensional da superfície terrestre. Os sistemas de imageamento eletro-ópticos podem ser classificados em: sistema de imageamento de quadro, sistema de varredura mecânica e sistema de varreduraeletrônica. Sistema de imageamento de quadro No imageamento de quadro a imagem de uma área é adquirida de forma instantânea e projetada sobre um arranjo de detectores, ou sobre tubos fotossensíveis conhecidos como câmaras RBV (ReturnBeamVidicon) com sistema de varredura por feixe de elétrons.O sistema de imageamento de quadro foi utilizado até 1970 quando foi substituído pelo sistema de varredura mecânica. Sistema de varredura mecânica O sistema de varredura mecânica é constituído por um espelho plano que oscila ortogonalmente em relação ao deslocamento da plataforma (Figura 3.5). Com esse movimento oscilatório a cena é imageada linha por linha. Atualmente, tal tecnologia não é mais empregada nos sistemas de imageamento. 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.2 Sistema de imageamento eletro-óptico 20 97 SU M ÁR IO Direção de avanço da plataforma Detectores Óptica Espelho oscilatório Figura 3.5 – Sistema de varredura mecânica com espelho oscilatório (Novo, 2010). Sistema de varredura eletrônica O sistema de varredura eletrônica possui um sistema óptico angular onde uma área é imageada através de um arranjo linear de detectores do tipo CCD (Charge Coupled Detector). O CCD é um chip de metal semicondutor montado em matrizes bidimensionais, onde cada detector produz um sinal elétrico proporcional àintensidade de fótons recebida (Figura 3.6). Cada chip corresponde a um pixel de uma imagem. Matriz linear de detectores Matriz linear projetada no terreno Direção de avanço da plataforma Óptica Figura 3.6 – Sistema de varredura eletrônicacom arranjo linear de detectores CCD (Novo, 2010). Sensores multiespectrais Os sensores multiespectrais obtêm imagens simultâneas de uma mesma área em várias regiões do espectro eletromagnético. Devido a essa característica as imagens obtidas por sensores multiespectrais fornecem informações da resposta da interação da radiação eletromagnética com os objetosda superfície em diferentes comprimentos de ondas.A maior parte dos programas espaciais possui como sensor o sistema de imageamento multiespectral com bandas no visível (VIS), infravermelho próximo (NIR), infravermelho de ondas curtas (SWIR) e infravermelho termal (TIR). 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.2 Sistema de imageamento eletro-óptico 21 97 SU M ÁR IO O sistema do sensor multiespectral é constituído por vários componentes como por exemplo, espelho, prisma e detectores eletrônicos (Figura 3.7). Figura 3.7 - Sistema de varredura multiespectral com os principais componentes (Novo, 2010). Sensores hiperespectrais Os sensores hiperespectraissão capazes de adquirir medidas em pelo menos 100 bandas espectrais contínuas, principalmente na região do visível ao infravermelho. O sensor hiperespectralpossui um sistema de dispersão da radiação eletromagnética que permite dividi-la em vários intervalos de comprimento de ondas, eredirecioná-la sobre a matriz bidimensional com detectores CCD (Novo, 2010) (Figura 3.8). 3.2.3 Sensores termais Sensores termais detectam energia do infravermelho médio no intervalo de 3 a 14μm. A energia detectada na região do infravermelho termal é mais fracaem comparação àquela detectada na região do visível e do infravermelho próximo. Os sensores termais utilizam principalmente detectores de telureto de mercúrio e cádmio (HgCdTe) ou o composto germânio-mercúrio (Ge(Hg)). Outro componente fundamental no sensor termal é o sistema de refrigeração para manter a temperatura dos detectores entre 30 e 77K (Novo, 2010). Esse sistema de refrigeração tem a função de controlar o aumento da temperatura dos detectores que podem interferir sobre o sinal registrado. 3.2.4 Sensores passivosradiômetro de micro-ondas Sensores passivos no microndas detectam e registram energia no intervalo do comprimento de onda de 0,1 a 25 cm, onde a absorção atmosférica é mínima. A detecção da energia do micro-ondas é realizada com um radiômetro de micro- ondas. O principal componente de um radiômetro de micro-ondas é a antena. 3.2.5 Sensores ativos de micro-ondas Os sensores ativos de micro-ondas,cujo acrônimo RADAR deriva de Radio DetectionandRanging, foram desenvolvidos durante a Segunda Guerra Mundial para fins militares contribuindo na detecção de submarinos. O RADAR possui um sistema com transmissor e receptor de energia. O transmissor emite um pulso de energia Faixa de terreno sendo imageado Direção do voo Motor Eixo de rotação Radiação refletida 432 1 5 6 Radiação emitida 7 8 9 10 11 – Telescópio – Espelhofigratório – Óptica – Grade dicrômica – Prisma – Detectores – Controle eletrônico – Tubo de raios catódicos – Filme – Gravador – Conversor analógico/digital e gravador 1 2 3 4 5 6 7 8 9 10 11 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.3 Sensores termais 22 97 SU M ÁR IO no intervalo do comprimento de ondas de 0,8 a 100 cm, e o receptor ou detector registra a quantidade de energia refletida (retroespalhada) pelo alvo (Figura 3.9). Por medida de segurança foram atribuídos códigos para diferentes bandas na região das micro-ondas. As bandas mais usadas são as bandas Ka, X, C e L (Tabela 3.1) Por ser um sistema ativo o imageamento pode ser efetuado de dia ou de noite. Atualmente o sistema de radar transmite quase que exclusivamente radiação eletromagnética na região de micro-ondas. As imagens de radar são amplamente utilizadas em regiões com clima tropical, com constante ocorrência de nuvens e névoas, devido a pouca interferência da atmosfera nos dados obtidos por esse tipo de sensor.O controle da interação entre a REM e a superfície se deve: a. Geometria e disposição espacial do alvo b. Rugosidade e heterogeneidade da superfície do alvo c. Comprimento de onda, polarização e ângulo de depressão do radar (controlados) d. Propriedades elétricas (constante dielétrica)da superfície do alvo Figura 3.9 - Configuração de um sistema RADAR com transmissor e detector de energia (Novo, 2010). Retroespalhamento Range ou alcance Pulso 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.5 Sensores ativos de micro-ondas 23 97 SU M ÁR IO Código Comprimento de onda (cm) Ka 0,8 – 1,1 K 1,1 – 1,7 Ku 1,7 – 2,4 X 2,4 -3,8 C 3,8 – 7,5 S 7,5 – 15 L 15 – 30 P 30 - 100 Tabela 3.1 - Códigos usados na região das micro-ondas pelos sensores de radar (Drury, 2001). Radar de visada lateral O radar de visada lateral é um radar de abertura real, onde o tamanho da antena é inversamente proporcional à largura angular do feixe de radar que ilumina a superfície do terreno (Jensen, 2011). Radar de Abertura Sintética O radar de abertura sintética utiliza uma antena menor devido ao desenvolvimento de procedimentos que sintetizam eletronicamente o tamanho da antena. A utilização de duas antenas devidamente espaçadas possibilita a obtenção da interferometria por radar. O sistema foi utilizado primeiramente em aeronaves e é o princípio adotado pela missão SRTM (Figura 3.10). z y r - Δr r h B A2 A2 Figura 3.10 – Aquisição de imagens por Radar de Abertura Sintética por interferometria. 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.5 Sensores ativos de micro-ondas 24 97 SU M ÁR IO 4. Aquisição de Dados 4.1 Níveis de aquisição Os produtos de sensores remotos podem se divididos em imagens obtidas em diferentesníveis de aquisição de dados. Nesse caso, o nível de aquisição de dados é definido pela altura do sensor acoplado na plataforma e o alvo analisado. Três tipos principais de níveis são conhecidos: nível de laboratório ou campo, nível de aeronave e nível orbital (Figura 4.1). Figura 4.1 – Diferentes níveis de aquisição de dados por sensoriamento remoto (Novo, 2010). 4.2 Plataformas de sensores remotos Plataformas são os veículos que transportam sensores remotos acima da superfície terrestre ou da água. As plataformas como veículos terrestres e guindaste são utilizadas para aquisição de dados no nível de campo. Veículos Aéreos Não Tripulados e aeronaves são plataformas que adquirem dados no nível de aeronave. Os produtos aeroportadosobtidos por sensores remotos e atualmente mais utilizados para o mapeamento da superfície terrestre são asfotografias aéreas, dados Lidar (Light DetectionAndRanging) e imagens RADAR.No nível orbital são utilizadas principalmente as plataformas satelitais que ficam em órbitaao redor da Terra. Os produtos de sensores remotos orbitais podem ser divididos em duas categorias: 1. Para análise regional: As imagens são disponibilizadas sem custo para o público em geral(exemplo de programas espaciais: LANDSAT, ASTER, CBERS, SRTM); 2. Para análise de detalhe: Geralmente são utilizadas imagens dos satélites IKONOS, WORLDVIEW ou ALOS que envolve um custo mediano a relativamente elevadopara a sua aquisição. Em razão da disponibilidade gratuita, os dados LANDSAT, ASTER, CBERS e SRTM são amplamente utilizados, apesar da limitação imposta pela escala de detalhe possível de análise (1:50.000).Os dados dos sensores IKONOS, WORLDVIEW e em menor proporção ALOS são utilizados em trabalhos de mais detalhe, inclusive fornecendo dados de relevo para geração de modelo digital de elevação (ALOS e ASTER). 4. Aquisição de Dados > 4.1 Níveis de aquisição 25 97 SU M ÁR IO 4.3 Sistemas aeroportados 4.3.1 Fotografia aérea A fotografia aérea pode ser obtida com visada vertical ou oblíqua. A fotografia aérea é considerada vertical quando o eixo óptico da câmera está perpendicular à superfície da Terra (Jensen, 2011) (Figura 4.2).A fotografia aérea oblíqua é obtida quando o eixo óptico da câmera está deslocado da vertical em alguns graus (Wolf e DeWitt, 2000). Campo de visada Eixo óptico Altura acima da superfície (AAS) Plano do filme da câmera Fotografia Aérea Vertical de um Terreno Plano Ponto principal (PP) 900 Figura 4.2 – Fotografia aérea vertical em um relevo plano (Jensen, 2011). As fotografias aéreas são obtidas ao longo das linhas de voo com 60% de sobreposição de uma fotografia para outra, e com 20 a 30% de sobreposição lateral (Figura 4.3). A sobreposição entre as fotografias aéreas permite a visualização em três dimensões a partir daestereoscopia. Os princípios de fotogrametria são aplicados para a geração das seguintes informações: a) mapas planialtimétricos com coordenadas x e y de alvos e feições naturais e artificiais; b) mapas topográficos com dados de altitudez; c) modelos digitais de elevação;e d) ortofotosgerados a partir de fotografias aéreas corrigidas em x e y. Figura 4.3 – Fotografias aéreas obtidas ao longo da linha de voo com 60% de sobreposição. 4.3.2 Lidar (Light DetectionAndRanging) – Detecção de luz e distância O sistema Lidar é um sensor ativo constituído por um transmissor e receptor. O transmissor emite pulsos de luz laser no comprimento de onda no infravermelho próximo (1,04 a 1,06 μm) por um espelho que efetua o imageamento por varredura perpendicular a trajetória da aeronave (Figura 4.4). lente #1 #2 #3 Direção de voo Posição de exposição Altitude acima do nível do solo, H 60% de sobreposição Modelo estereoscópico Cobertura da fotografia terreno registrado em três fotografia sucessivas 4. Aquisição de Dados > 4.3 Sistemas aeroportados > 4.3.1 Fotografia aérea 26 97 SU M ÁR IO A área de cobertura de um pulso de luz laser no terreno tem a forma aproximada de um círculo. O Lidar pode emitir mais de 100.000 pulsos por segundo. A medição baseia-se no tempo que o pulso de luz leva do transmissor ao alvo e do alvo para o receptor (Figura 4.5). O receptor capta o retorno da luz laser na forma de múltiplos retornos. Como resultado do levantamento Lidar, um conjunto de pontos com dados de localização e elevação (x, y e z) denominados de masspoints é obtido ao longo da linha de voo (Figura 4.6). O GPS Diferencial obtem dados precisos de localização do conjunto de pontos. Um receptor GPS da estação base é posicionado em um local com coordenadas x, y e z bem definidas, e o do receptor GPS é instalado na aeronave. Os dados Lidar apresentam dados de alta precisão e alta resolução espacial. Geralmente os dados Lidar sãoprocessados para gerar modelos digitais de superfície e de terreno, e para o estudo da cobertura vegetal. Figura 4.4 – O Lidar possui um sistema de imageamento por varredura que emite o pulso de luz laser em uma área com uma forma aproximadamente circular. divergência do feixe laser γ área de visada instantânea do laser transmissor/receptor espelho de varredura Altitude AGL, h ângulo de varredura alcance (Range) GPS IMU Z Y X γ θ Φ γ κ 4. Aquisição de Dados > 4.3 Sistemas aeroportados > 4.3.2 Lidar (Light DetectionAndRanging) – Detecção de luz e distância 27 97 SU M ÁR IO Figura 4.5 – Oreceptor registra múltiplos retornos do pulso de luz laser em uma área de cobertura (Jensen, 2011). Figura 4.6 – Conjunto de pontos coletados pelo receptor do Lidar para uma área com vegetação (Fonte: Embrapa) 4.4 Sistemas orbitais 4.4.1 LANDSAT Desde 1972 os satélites do Programa Landsat, desenvolvido pela NASA, monitoram e observam a superfície da Terra. São mais de quatro décadas de imageamento contínuo da superfície terrestre, contribuindo para as mais diversas áreas da ciência: geologia, geografia, ambiental, agricultura, planejamento regional, educação, mapeamento e pesquisa sobre mudança global. Atualmente o Serviço Geológico dos EUA (USGS) é responsável pelo armazenamento e preservação do maior acervo contínuo da superfície terrestre vista do espaço. LANDSAT8 O Landsat8foi lançado em 11 de fevereiro de 2013 e constitui o oitavo satélite da série Landsat (Figura 4.7). Opera com dois instrumentos imageadores: Operacional Land Imager (OLI) e ThermalInfrared Sensor (TIRS). Figura 4.7 – Satélite Landsat8. área de cobertura laser instantânea distância (range) pulso Bpulso A LIDAR Retornos de LIDAR 1° e último retornos último 1° 2° pulso 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.1 LANDSAT 28 97 SU M ÁR IO As características das imagens obtidas peloLandsat8são apresentadas na tabela4.1. As bandas multiespectrais cobrem as regiões do visível, infravermelho próximo, infravermelho de ondas curtas e infravermelho termal. A resolução espacial varia de 15 x 15m para a imagem pancromática, 30 x 30m para as imagens multiespectrais do visível ao infravermelho próximo e ondas curtas, e 100 x 100m para o infravermelho termal. O Landsat8 coleta dados em uma faixa imageada de 183km e com intervalo de revisita de 16 dias. Para maiores informações sobre o programa Landsat8, dados técnicos dos sensores e as características das bandas espectrais consultar o sítio eletrônico da NASA e USGS. Bandas espectrais Sensores Resolução espectral (micrometros) Resolução espacial (m) Resolução temporal Faixa Imageada 1 - Ultra azul OLI 0,43 – 0,45 30 16 dias 183 km 2 - Azul 0,45 – 0,51 3 - Verde 0,53 – 0,59 4 - Vermelho 0,64 – 0,67 5 - Infravermelho próximo 0,85 – 0,88 6 - Infravermelho de ondas curtas 1,57 – 1,65 7 - Infravermelho de ondas curtas 2,11 – 2,29 8 - Pancromático 0,5 – 0,68 15 9 - Cirrus 1,36 – 1,38 30 10 - Infravermelho termal TIRS 10,6 – 11,19 100 11 - Infravermelho termal 11,5 – 12,51 100 Tabela 4.1 –Características dos sensores OLI e TIRS do Landsat8. 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.1LANDSAT 29 97 SU M ÁR IO 4.4.2 ASTER (Advanced Spaceborne Thermal Emission and Reflectance Radiometer) O primeiro satélite Terrada série Earth Observing System (EOS) foi lançado em dezembro de 1999. O ASTER (Advanced Spaceborne Thermal Emissionand Reflectance Radiometer) é um dos cinco sistemas de sensores a bordo do satélite Terra. O ASTER é constituído por três sensores que operam em diferentes regiões do espectro eletromagnético: 1. região do visível e infravermelho próximo - VNIR, 2. infravermelho deondas curtas - SWIR 3. infravermelho termal - TIR (Tabela 4.2). A resolução espacial das imagens varia de 15m x 15m para VNIR, 30m x 30mpara SWIR e 90m x 90m para TIR. As bandas 3N e 3B constituem pares estereoscópicos obtidos com visadas nadir e para trás, e possibilitam a geração de modelos digitais de elevação (Figura 4.5). 27,6 0 3B3N H 70 5 km 6.7 km/seg 64 55 B 9 0 seg. 3N3B 2a Aquisição Fim Início 1a Aquisição Fim Início Cena Estereoscópica 1 430 370 60 0 km Solo B - Base Estereoscópica H - Altitude da órbita Figura 4.5 –Cenas estereoscópicas obtidas na região do visível 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.2 ASTER (Advanced Spaceborne Thermal Emission and Reflectance Radiometer) 30 97 SU M ÁR IO Bandas espectrais Resolução espectral (micrometros) Resolução espacial (m) Resolução radiométrica (bits) Faixa imageada (km) Visível e infravermelho próximo - VNIR 1 0,52 – 0,60 15 8 60 2 0,63 – 0,69 3N 0,76 – 0,86 3B 0,76 – 0,86 Visível e infravermelho próximo - VNIR 4 1,6 – 1,7 30 5 2,145 – 2,185 6 2,185– 2,225 7 2,235 – 2,285 8 2,295 – 2,365 9 2,360 – 2,430 Visível e infravermelho próximo - VNIR 10 8,125 – 8,475 90 12 11 8,475 – 8,825 12 8,925 – 9,275 13 10,25 – 10,95 14 10,95 – 11,65 4.4.3 CBERS O CBERS é um programa espacial desenvolvido a partir da parceria entre Brasil e China. Atualmente encontra-se em órbita o quinto satélite desenvolvido pelo programa CBERS, o CBERS-4 lançado em dezembro de 2014 (Figura 4.6). O CBERS-4 opera com quatro sistemas sensores: Câmera pancromática e multiespectral (PAN), câmera multiespectral regular (MUX), Câmera de campo largo (WFI) e Imageador multiespectral e termal (IRS) (Tabela 4.3). Cada câmera possui suas especificações em termos de resoluções espectral, espacial e radiométricaconferindo ao CBERS-4 uma variedade de produtos para o estudoda superfície da Terra. Informações detalhadas sobre os sistemas sensores que compõem o CBERS-4 devem ser consultadas no sítio eletrônico do Instituto Nacional de Pesquisas Espaciais do Brasil – INPE. Figura 4.6 – Satélite CBERS-4 (Fonte: INPE). Tabela 4.2 – Características dos sensores do ASTER a bordo da plataforma orbital Terra. 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.3 CBERS 31 97 SU M ÁR IO Sensores Bandas espectrais Resolução espectral (micrometros) Resolução espacial (m) Resolução radiométrica (bits) Resolução temporal Faixa imageada PAN Banda 1 0,51 – 0,85 5 60 Banda 2 0,52 – 0,59 10Banda 3 0,63 – 0,69 Banda 4 0,77 – 0,89 MUX Banda 5 0,45 – 0,54 20 26 120 Banda 6 0,52 – 0,59 Banda 7 0,63 – 0,69 Banda 8 0,77 – 0,89 IRS Banda 9 0,50 – 0,90 40 120 Banda 10 1,55 – 1,75 Banda 11 2,08 – 2,35 Banda 12 10,4 – 12,5 80 WFI Banda 13 0,45 – 0,52 64 10 866 Banda 14 0,52 – 0,59 Banda 15 0,63 – 0,69 Banda 16 0,77 – 0,89 Tabela 4.3 – Características das quatro câmeras a bordo do CBERS-4 (Fonte: INPE). 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.3 CBERS 32 97 SU M ÁR IO 4.4.4. ALOS (AdvancedLandObservingSatellite) O satélite ALOS-2 desenvolvido pela Agência de Exploração Espacial do Japão (JapanAerospaceExplorationAgency- JAXA) foi lançado em 24 de maio de 2014 (Figura 4.7).O ALOS-2 ou Daichi-2 é equipado com três principais sistemas sensores: Panchromatic Remote-sensingInstruments for StereoMapping (PRISM), AdvancedVisibleandNearInfraredRadiometer tipo 2 (AVNIR-2) e PhasedArraytype L-bandSyntheticAperture Radar (PALSAR). O sensor PRISM obtem cenas estereoscópicas com três visadas distintas (nadir, para frente e para trás) que permite a geração de modelos digitais de elevação de alta resolução espacial (Tabela 4.4). O sensor AVNIR-2 fornece dados multiespectrais em quatro bandas nas regiões do visível e infravermelho próximo. O sistema sensor PALSAR é um sensor ativo de micro-ondas operando na banda L. O PALSAR possui quatro modos operacionais com diferentes parâmetros definidos: resolução espacial, resoluçãoradiométrica, frequência da radiação eletromagnética e área imageada. Para maiores detalhes sobre as principais características operacionais dos sistemas sensores do ALOS-2 (http://www.eorc.jaxa.jp/ALOS/en/about/palsar.htm). Figura 4.7 – Satélite ALOS 2. Sensor Bandas espectrais Resolução espectral (micrometros) Resolução espacial (m) Resolução radiométrica (bits) Resolução temporal (dias) PRISM Pancromático (Nadir, para frente e para trás) 0,52 -0,77 2,5 8 14 AVNIR-2 Azul 0,42 – 0,5 10 Verde 0,52 – 0,6 10 Vermelho 0,61 – 0,69 10 Infravermelho 0,76 – 0,89 10 Sensores Bandas espectrais Frequencia Resolução espacial (m) Resolução radiométrica (bits) Resolução temporal (dias) PALSAR SAR-L Banda L 1.270 MHz 10 -100 3 a 5 14 Tabela 4.4 – Características dos sensores PRISM, AVNIR-2 e PALSAR acoplados no satélite ALOS-2. 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.4. ALOS (AdvancedLandObservingSatellite) http://www.eorc.jaxa.jp/ALOS/en/about/palsar.htm 33 97 SU M ÁR IO 4.4.5 IKONOS O IKONOS foi lançado em 1999 como o primeiro satélite comercial de alta resolução espacial pela empresa DigitalGlobe, e desativado em janeiro de 2015 devido a problemas técnicos (Figura 4.8). Osatélite IKONOSoperava no modo pancromático com uma banda espectral entre 0,45μm e 0,9 μm e resolução espacial de 0,8m x 0,8m,e modo multiespectralcom quatro bandas espectrais nas regiões do visível e infravermelho próximo e resolução espacial de 3,2m x 3,2m (Tabela 4.5). Possui um acervo de imagens de alta resolução com mais de 15 anos de imageamento da superfície da Terra. Figura 4.8 –Satélite IKONOS (Fonte: DigitalGlobe) Bandas espectrais Resolução espectral (micrometros) Resolução espacial (m) Resolução radiométrica (bits) Faixa imageada Resolução temporal (dias) Azul 0,45 – 0,52 3,2 11 11,3 km 3 Verde 0,52 – 0,6 3,2 Vermelho 0,63 – 0,69 3,2 Infravermelho 0,76 – 0,90 3,2 Pancromático 0,45 – 0,9 0,8 Tabela 4.5– Características dos sensores a bordo do satélite IKONOS. 4.4.6 Worldview Os satélites WorldView junto com o IKONOS e GeoEyes fazem parte do conjunto de satélites comerciais de alta resolução espacial operado pela DigitalGlobe(Figura 4.9). Atualmente existem 4 satélites WorldViewem operação, todas com resolução espacial abaixo de 1,85m x 1,85m, chegando a uma resolução de 0,31m x 0,31m (Tabela 4.6). O WorldView-1 foi lançado em 2007 com um sensor pancromático de alta resolução espacial. Em 2009 foi lançado o WorldView-2 como primeiro satélite comercial com 8 bandas multiespectrais de alta resolução (1,85m x 1,85m), e com a resolução espacial melhorada para a banda pancromática (0,46m x 0,46m). O WorldView-3 apresenta um avanço em termos de resolução espectralcom bandas 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.5 IKONOS 34 97 SU M ÁR IO espectrais contíguas na região do visível ao infravermelho de ondas curtas, mantendo ainda alta resolução espacial. O Worldview-4 opera no modo pancromático com uma banda e multiespectral com 4 bandas na região do visível e infravermelho próximo. A resolução espacial é alta com 0,31 x 0,31m para a banda pancromática e 1,24m x 1,24m para as bandas multiespectrais. Figura 4.9 –Satélite WorldView-4 (Fonte: DigitalGlobe). Satélite Bandas espectrais Resolução espectral (micrometros) Resolução espacial (m) Resolução temporal (dias) Faixa imageada (km) WorldView-1 1 banda pancromática0,4 – 0,9 0,5 1,7 17,7 WorldView-2 1 banda pancromática e 8 bandas multiespectrais 0,45 – 1,04 0,46 – 1,85 1,1 16,4 WorldView-3 1 banda pancromática e 16 bandas multiespectrais 0,45 – 2,365 0,31 – 3,7 1 13,2 WorldView-4 1 banda pancromática e 4 bandas multiespectrais 0,45 – 0,92 0,31 – 1,24 1 13,1 Tabela 4.6 – Características gerais dos sensores WorldView. 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.6 Worldview 35 97 SU M ÁR IO 4.4.7 SRTM (SHUTTLE RADAR TOPOGRAPHIC MISSION) A missão Shuttle Radar Topographic Mission - SRTM foi lançada em fevereiro 2000 a bordo do ônibus espacial Endeavour/NASA. A missão durou 11 dias com a obtenção de dados topográficos deaproximadamente 80% dasuperfície da Terra. Duas antenas com sistemas de sensores de radar foram acopladas no ônibus espacial. A antena principal foi instalada no compartimento principal com dois radares que transmitiram e receberam os sinais nas bandas C e X da região das micro-ondas. Asegunda antena foi instalada na ponta de um mastro de 60m de comprimentopara apenas receber os sinais das bandas C e X (Figura 4.10). A utilização de duas antenas espaçadas possibilitou a obtenção da interferometria por radar, e a geração demodelos digitais de elevação de quase toda a superfície terrestre com uma resolução espacial de 30m x 30m e 90m x 90m. Figura 4.10 – Sistema sensor da missão SRTM por interferometria (Drury, 2004). 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.7 SRTM (SHUTTLE RADAR TOPOGRAPHIC MISSION)7. Comportamento Espectral de Alvos > 7.1 Assinatura espectral > 7.1.4 Materiais urbanos 36 97 SU M ÁR IO 5. Pré-Processamento O pré-processamento é uma etapa que precede o processamento digital de imagens de sensoriamento remoto. Na etapa de pré-processamento são aplicadas funções operacionais para remover ou corrigir os erros e as distorções introduzidas nas imagens dos sistemas sensores pelos seguintes fatores (Meneses e Almeida, 2012): • erros instrumentais que causam ruídos espúrios; • geometria do imageamentocom distorções; • interferências da atmosfera que causam erros radiométricos. 5.1 Eliminação de ruídos As imagens podem conter erros no valor digital do pixel que são decorrentes de erros instrumentais (Figura 5.1).Tais erros são caracterizados por pixels com valores saturados (claros) ou sem sinal (escuros) que ocorrem na forma de linhas e que são denominados de ruídos.O método para eliminar o ruído consiste em substituir a linha pelo “valor médio” dos pixels correspondentes das linhas anterior e posterior (Meneses e Almeida, 2012). Figura 5.1- Imagem com linhas com valores saturados (Meneses e Almeida, 2012). 5.2 Correção geométrica A correção geométrica consiste em corrigir as distorções geométricas dos produtos de sensores remotos, e é realizada basicamente em duas etapas (Meneses e Almeida, 2012): • Etapa 1 - As distorções geométricas sistemáticas introduzidas no momento da aquisição das imagens devido a rotação, inclinação e curvatura da Terra, e instabilidade da plataforma são removidas nesta etapa pelo laboratóriode produção de imagens. • Etapa 2 - O georreferenciamento é efetuadoa partir da definição de um sistema de projeção para estabelecer um referencial de coordenadas que possibilite localizar na imagem a posição geográfica dos alvos. Essa etapa é realizada nos laboratórios de produção de imagens ou pelo usuário. 5. Pré-Procesamento > 5.1 Eliminação de ruídos 37 97 SU M ÁR IO O georreferenciamento além de corrigir as distorções geométricas dos produtos de sensores remotos, deve ser aplicado em dados e informações que necessitam do referencial de coordenadas, como por exemplo, em mapas digitalizados. Para o georreferenciamento dos produtos de sensores remotos e mapas digitalizados, os seguintes tópicos apresentados a seguir devem ser considerados: • Pontos de controle; • Tabelas de correlação; • Precisão; • Reamostragem. 5.2.1 Pontos de controle Os pontos de controle são feições bem definidas e facilmente reconhecíveis no terreno, nas imagens e mapas georreferenciados e não georreferenciados. Dependendo da resolução espacial da imagem, os pontos de controle podem ser identificados com maior ou menor detalhe. Em áreas urbanizadas os pontos de controle são representados por cruzamento ou bifurcação de vias de acesso (rodovias, estradas, ruas, pontes), monumentos, limite do terreno ou imóvele feições naturais e artificiais geométricas (Figura 5.2). Figura 5.2 – Imagens de satélite com a identificação de pontos de controle (pista de aeroporto, bifurcação e cruzamento de vias de acesso) em área urbanizada destacados com círculo vermelho. Dentre os fatores mais importantes a serem considerados na obtenção dos pontos de controle destacam-se asua distribuição por toda a área a ser georreferenciada,o número adequado de pontos,a precisão na marcação e a inserção correta de coordenadas. As principais formas de obtenção dos pontos de controle são: • Uso do GPS (Global Position System) no terreno. • Grades de coordenadas em mapas, imagens, cartas-imagens. • Mapas georreferenciados com elementos pontuais. • Imagens ortorretificadase/ougeorreferenciadascom elementos pontuais. 5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.1 Pontos de controle 38 97 SU M ÁR IO GPS (Global Position System) no terreno O posicionamento de pontos de controle no terreno pode ser obtido com o usodo GPS simples ou diferencial em locais previamente identificadosnos produtos de sensores remotosou mapas a serem georreferenciados.Esse método é útil para o georreferenciamentode imagens de alta resolução espacial (Figura 5.3). Figura 5.3 – GPS diferencial e a ortofoto com a localização dos pontos de controle representados por pontos no limite do terreno. Grade de coordenadas em mapas, imagens e cartas-imagens A grade de coordenadasé utilizada como referência para a identificação das coordenadas X e Y dos pontos de controle em mapas planialtimétricose temáticos (Figura 5.4). Figura 5.4 – Parte da carta planialtimétrica (IBGE, escala 1:50.000) com a grade de coordenadas em UTM e os pontos de controle destacados com círculo vermelho. Mapas georreferenciadoscom elementos pontuais As cartas planialtimétricas (cartas e mapas geralmente elaborados pelo IBGE ou DSG) são utilizadas para a identificação e obtenção das coordenadas X e Y dos pontos de controle no terreno (Figura5.5). Nesse caso, os pontos de controle são identificados tanto no mapa georreferenciado como na imagem de satélite que será georreferenciada, e incluem a intersecção ou bifurcação de estradas, confluência de drenagens, feições artificiais e naturais identificadas. Figura 5.5 – Mapa planialtimétrico com pontos de controle identificados para o georreferenciamento da imagem de satélite (Meneses e Almeida, 2012). Imagens otificadas ou georreferenciadas com elementos pontuais O georreferenciamento é realizado de imagem para imagem, onde os pontos de controle são identificados nas duas imagens (Figura5.6). O georreferenciamento se baseia nas coordenadas X e Y dos pontos de controle da imagem ortorretificada ou georreferenciada. 5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.1 Pontos de controle 39 97 SU M ÁR IO Figura 5.6 - Georreferenciamento de imagem para imagem, na qual uma das imagens está ortorretificada ou georrerferenciada. 5.2.2 Tabelas de correlação A tabela de correlação é utilizada para definir a correlação entre as coordenadas X e Y da imagem de referência georreferenciadae aimagem nãogeorreferenciada (Figura5.7).As transformações polinomiaissão comuns no georreferenciamento de imagens e permitemvincular tais coordenadas. Segundo Meneses e Almeida (2012) as transformações polinomiais de 1ª e 2ª ordem são usadas nas imagens de baixa à média resolução espacial. Para as imagens de alta resolução espacial são empregadas ordens polinomiais mais altas. Figura 5.7 – Tabela de correlação comas coordenadas X e Y da imagem georreferenciada e não georreferenciada. 5.2.3 Precisão A precisão fornece uma estimativa do erro associado ao processo de georreferenciamento. A precisãodecorre em grande parte da qualidade dos dados e informações espaciais utilizadas, bem como da habilidade empreendida no georreferenciamento.Cada ponto de controle utilizado terá um erro residual associado denominado de erro quadrático médio ou Root Mean Square (RMS) (Figura 5.8). O RMS do ponto de controle é calculado com base na distância total entre a coordenada na imagem de referênciae a coordenada a ser estimada (Equação 5.1, Figura 5.9).O valor do RMS pode ser expresso em número de pixel ou unidade na qual está sendo efetuado o georreferenciamento. No exemplo, recomenda-se um erro máximo de 1 pixel. O ponto de controle com erro muito alto deve ser reavaliado ou descartado do processo. 5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.2 Tabelas de correlação 40 97 SU M ÁR IO Figura 5.8 –Tabela com pontos de controle e os erros RMS associados. O erro RMS é calculado pela equação: Ri = √(XRi2+YRi2 ) (eq. 5.1) onde, Ri = erro RMS para o ponto de controle XRi = residual X YRi2 = residual Y Residual XPC fonte PC saída Erro RMSResidual Y Figura 5.9 – Representação geométrica da medida do erro RMS de um ponto de controle (Meneses e Almeida, 2012). 5.2.4 Reamostragem No georreferenciamento, o centro de cada pixel da imagem ou mapa de referência deveria ser transferido exatamente para o centro do pixelcorrespondente na imagem que foi georreferenciada (Figura5.10). No entanto, raramente a localização do pixel da imagem ou mapa de referência e da imagem que foi georreferenciadairá coincidir exatamente em um mesmo ponto. Aimprecisão na localização do ponto de controle é demonstrada pela estimativa do erro RMS. Para solucionar esse problema é realizada a reamostragem dos pixels, que consiste em determinar o valor do brilho 5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.4 Reamostragem 41 97 SU M ÁR IO da imagem corrigida a partir do brilho da imagem original, com base na extrapolação dos valores digitais dos pixels. Para o processo de reamostragem dos pixels podem ser utilizados os seguintes interpoladores: vizinho próximo, bilineare convolução cúbica. mapa imagem Figura 5.10 – Condição ideal na qual o centro do pixel do mapa de referência corresponde com o centro do pixel da imagem que foi georreferenciada (Meneses e Almeida, 2012). 5.3 Correção radiométrica A correção radiométrica é necessária principalmente devido à distorção radiométrica causada pela presença e interferência da atmosfera. A intensidade da degradação ou distorção radiométricadepende do comprimento de onda, da data de imageamento e da trajetória da radiação. A atmosfera absorve a radiação eletromagnética atenuando a intensidade de energia que ilumina o alvo na superfície, e reflete a radiação eletromagnética adicionando radiância extra ao sinal que é detectado pelo sensor. A transparência da atmosfera pode se tornar opaca em determinados comprimentos de onda quando a atenuação atinge um determinado valor, impossibilitando a obtenção de imagens.Portanto, deve-se verificar a degradação causada pelo espalhamento atmosférico, avaliando quanto de radiação foi adicionado ao pixel e que não é proveniente do alvo (Meneses e Almeida, 2012). Portanto, aradiância medida pelo sensor é diferente da radiância real do material, devido ao efeito aditivo do espalhamento causados pelos aerossóis, gases e moléculas d’água da atmosfera. 5. Pré-Procesamento > 5.3 Correção radiométrica 42 97 SU M ÁR IO Dentre as diferentes técnicas de correção atmosférica destaca-se a subtração escura ou darksubtraction.A correção atmosférica por subtração escura utiliza os valores digitais do limite inferior do histograma de cada banda(Meneses e Almeida, 2012).Considerando que cada banda deveria conter pixels com valores digitais próximos ou iguais a zero, principalmente em áreas de sombra de relevo e corpos de água límpidos. Mas devido ao espalhamento atmosférico é adicionado um valor de brilho a todos os pixels da imagem. Esse valor deve ser identificado no histograma de cada banda espectral e subtraídopara a remoção da distorção radiométrica (Figura 5.11). 57 44 32 28 20 11 ETM banda 1 (0,45 - 0,52 µm) ETM banda 2 (0,52 - 0,60 µm) ETM banda 3 (0,63 - 0,69 µm) ETM banda 4 (0,76 - 0,90 µm) ETM banda 5 (1,55 - 1,75 µm) ETM banda 7 (2,08 - 2,35 µm) Figura 5.11 – Histogramas das seis bandas do Landsat7 sensor ETM com a indicação do valor digital que mede a quantidade de espalhamento atmosférico adicionada ao sinal (Meneses e Almeida, 2012). 5. Pré-Procesamento > 5.3 Correção radiométrica 43 97 SU M ÁR IO 6. Processamento Digital de Imagens O processamento digital de imagens consiste em executar operações matemáticas com o objetivo de melhorar a qualidade espectral e espacial das imagens.A estrutura matricial das imagens facilita a aplicação de operações matemáticas e estatísticas para analisar o grande volume de dados dos produtos de sensoriamento remoto. No domínio espectral,as operações são efetuadas pixel a pixel, onde cada pixel da imagem aumenta o seu contraste independente do valor do pixel vizinho. No domínio espacial,cada pixel da imagem aumenta o seu contraste em dependência do valor do pixel dos seus vizinhos. Nesse caso o processamento irá depender da distribuição espacial dos pixels. Na literatura são encontradas as mais variadas técnicas de PDI. Nesta apostila serão abordadas as principais técnicas de realce de dados espectrais e espaciais, e a técnica de classificação de imagens (Figura 6.1). Figura 6.1 – Fluxograma do processamento digital de imagens para realce de dados espectrais, espaciais e classificação. 6. Processamento Digital de Imagens 44 97 SU M ÁR IO 6.1 Espaço de cores RGB A visão humana tem baixa percepção para discriminar níveis de cinza, no máximo 30 tons de cinza. Por outro lado, a percepção da visão humana aumenta por meio de imagens coloridas, por que a visão humana é colorida. Por isso a importância da cor para a visualização das imagens multiespectrais de sensoriamento remoto. As cores são dividas em cores primárias (vermelho, verde e azul) e cores secundárias (amarelo, ciano e magenta). As cores secundárias resultam da combinação de cores primárias. O ciano é gerado pelas cores azul everde, magenta pela combinação de azul evermelho, e amarelo resulta das cores verde e vermelho (Figura 6.2). Demais cores são obtidas com a variação da intensidade de luz de qualquer uma das três cores primárias. A projeção dos focos de luzes azul, verde e vermelho resulta na cor branca. Figura 6.2 - Mostra as cores primárias (vermelho, verde e azul), secundárias (magenta, amarelo e ciano) e a cor branca. Para a construção de imagens coloridas pode se utilizar o espaço de cores RGB (Figura 6.3). Na composição colorida RGB, três bandas espectrais são selecionadas onde cada banda é representada uma cor primária (Figura 6.4). Os eixos do cubo no espaço de cores RGB representam a quantização da radiânciareferente ao comprimento de onda de um conjunto de três bandas. Os vértices do cubo representam as cores primárias e secundárias. O eixo diagonal com origem no centro do cubo (preto) e em direção ao vértice oposto (branco) contem os tons de cinza. Verde Green Vermelho Red Azul Blue RGB 6. Processamento Digital de Imagens > 6.1 Espaço de cores RGB 45 97 SU M ÁR IO Figura 6.3 –Representação do espaço de cores RGB (Meneses e Almeida, 2012). Figura 6.4 – Composição colorida RGB das bandas 5, 4 e 3 do Landsat5. 6.2 Histograma e aumento de contraste O histograma é a forma mais comum de representar a distribuição dos valores ou números digitais (ND) de uma imagem, fornecendo informações sobre quantos pixels na imagem possuem cada valor possível de ND (Figura 6.5). Figura 6.5 – Imagens do Landsatda região do estado do Ceará. a) imagem sem contraste, b) imagem com contraste, c) histograma com aumento de contraste linear. O aumento de contraste é uma função que permite redistribuir os valores de uma imagem ao longo do intervalo de dados (Figura 6.6): • Na expansão linear os valores são expandidos de forma uniforme. Os níveis de cinza são deslocados com o intuito de centralizar o histograma próximo da média. • Expansão linear por partes é aplicada para imagem com histograma bimodal ou multimodal. • Na expansão equalizada os valores são redistribuídos com base na sua frequência de ocorrência. Geralmente é aplicada em imagens com branco amarelo magenta blue (0,0,255) green (0,255,0) red (255,0,0) preto 6. Processamento Digital de Imagens > 6.2 Histograma e aumento de contraste 46 97 SU M ÁR IO histograma assimétrico para distribuir de forma desigual os valores de brilho entre 0 a 255. Os valores são redistribuídos com base na sua frequência de ocorrência. • Na expansão Gaussiana dois parâmetros são analisados a média e variância. O contraste é controlado pela média dos resultados e pelo desvio padrão. Aumentando o desvio padrão há um aumento da distribuição dos dados. Figura 6.6 – Histograma com aumento de contraste linear e por equalização (Lillesand e Kiefer, 1994) 6.3 Intensidade, Matiz, Saturação Espaço IHS trata dos atributos da cor em termos de intensidade, matiz e saturação.Intensidade (I) é a quantidade de brilho de uma cena (medida do albedo).Saturação (S) é o grau de diluição de uma cor pura por luz branca (pureza da cor).Matiz define a cor espectral dominante (Figura 6.7). Figura 6.7 – Modelo de representação dos atributos IHS da cor (Meneses e Almeida, 2012). 600 0 108 158 60 158 255 0 127 255 600 108 158 255 0 38 255 255 0 60 158108 255 Image values (DN) Image values (DN) Display levels (DN’) Display levels (DN’) Display levels (DN’) Image values (DN) (a) Histogram (b) No strech (c) Linear strech (d) Histogram strech 1,0 branco S Red (0 0)ciano Green (1200) Blue (2400) magenta amarelo 0.0 preto Red Green amarelo magentaBlue ciano p’a p bo p é o ponto representando a cor I = R + G + B/3 H = ap / ab S = op / op’ I 6. Processamento Digital de Imagens > 6.3 Intensidade, Matiz, Saturação 47 97 SU M ÁR IO 6.4 Operação aritmética O processamento digital de imagens com a aplicação da operação aritmética é simples e rápido.É um processamento que transforma os dados a partir da combinação de imagens, gerando uma nova imagem em relação às imagens de entrada. O processamento é executado pixel a pixel por meio de uma regra matemática pré-definida, como por exemplo, as operações de soma, subtração, multiplicação e divisão (Figura 6.8). As operações aritméticas de soma e a multiplicação realçam similaridades espectrais entre imagens de diferentes bandas.A subtração e a divisão realçam diferenças espectrais do alvo. Figura 6.8 – Operações aritméticas executadas pixel a pixel entre duas bandas (Menese e Almeida, 2012). 6.4.1 Índice de vegetação Índice de diferença normalizada de vegetação ou Normalize Difference Vegetation Index (NDVI), envolve a diferença e a soma entre as bandas na região do comprimento de onda do infravermelho próximo (NIR) e do vermelho (RED). NDVI = NIR-RED/NIR+RED (eq. 6.1) Os valores do índice variam de -1 a +1, onde geralmente +1 equivale a áreas de densa vegetação, valores negativos às áreas com total ausência de vegetação (água) e valores que se aproximam de zero a solos expostos. 6.4.2 Índice de água Para o cálculo do Índice de Diferença Normalizada de Água (NDWI)é utilizada a banda na região do comprimento de onda da cor verde (GREEN) e uma banda no comprimento de onda do infravermelho próximo (NIR). NDWI = GREEN – NIR / GREEN + NIR (eq. 6.2) + – x / = 6. Processamento Digital de Imagens > 6.4 Operação aritmética > 6.4.1 Índice de vegetação 48 97 SU M ÁR IO 6.5 Filtros Variação no Número Digital (ND) ao longo de uma linha em uma imagem pode ser representada na forma de um gráfico. Essa curva complexa pode ser decomposta em um conjunto de ondas senoidais com diferentes frequências e amplitudes (Figura 6.9). Distance Br ig ht ne ss Br ig ht ne ss (a) (b) Figura 6.9 – Variação do número digital ao longo da linha em uma imagem (a) representado na forma de ondas senoidais (b) com diferentes amplitudes e frequências (Drury, 2001). Todas as imagens possuem limites entre áreas com diferentes respostas em relação à radiação eletromagnética associadas a diferentes coberturas do terreno (solo, vegetação, rocha), e ao contato entre áreas com diferentes condições de iluminação (devido ao sombreamento topográfico). Tais limites são representados por gradientes inclinados, e são conhecidos como bordas. Por variar bastante em áreas pequenas são denominadas de feições de alta frequência. A mistura de frequências em uma imagem dificulta a interpretação de feições com frequências específicas. Portanto, para realçar de forma seletiva as feições de alta, média e baixa frequência são aplicadas técnicas de filtragem espacial.A aplicação de filtros permite destacar principalmente bordas, feições lineares de determinadas direções e padrões de textura.Existem duas técnicas de filtragem: a. Convolução atua no domínio espacial de uma imagem e emprega o conceito de janela móvel. Os principais tipos de filtros de convolução: passa- baixa, passa-alta e direcionais. b. Análise Fourier atua no domínio da frequência de uma imagem. A análise Fourier não será abordada nesta apostila, mas os conceitos básicos sobre o tema podem ser consultados emLillesand e Kiefer (1994) e Schowengerdt (1997). 6. Processamento Digital de Imagens > 6.5 Filtros 49 97 SU M ÁR IO 6.5.1 Filtro por convolução No conceito da janela móvel a janela 3x3 inicia a filtragem a partir do canto superior esquerdo da imagem (Figura6.10). Cada número digital das 9 células ou pixels da imagem é multiplicado pelo respectivo valor das 9 células da janela 3x3. O valor do pixel central dessa área da imagem é substituído pela soma desses 9 valores, atribuindo um novo valor de pixel para a imagem de saída. A imagem de saída irá possuir valores iguais a zero nos pixels situados nas bordas resultando em uma imagem com efeito de bordas (Schowengerdt, 1997;Crósta, 1993). (a) (b) (c) Figura 6.10 - Mostra o conceito da janela móvel de uma janela 3x3 (Lilesand e Kiefer, 1994). Filtro passa-baixa O filtro passa-baixa elimina as feições de altafrequência da imagem deixando passar as de baixa frequência. O filtro passa-baixa remove os ruídos eletrônicos comuns nos produtos de sensores remotos (Crósta, 1992). Portanto, a imagem com filtro passa-baixa mostra feições suavizadas (Figuras 6.11a e 6.11b). Filtro passa-baixa mais comum é o filtro de média que substitui o número digital (ND) do pixel original central pela média aritmética do pixel e seus vizinhos (Figura 6.12). Figura 6.11 – Imagens com aplicação dos filtros passa-baixa e passa-alta. a) imagem original com as componentes de alta e baixa frequência; b) imagem com passa-baixa com feições suavizadas; c) imagem com passa- alta destacando as bordas e limites entre áreas com valores diferentes de ND. 6. Processamento Digital de Imagens > 6.5 Filtros > 6.5.1 Filtro por convolução 50 97 SU M ÁR IO Figura 6.12 – Filtro de média com uma janela de 3x3 (a), e estrutura matricial da imagem com os números digitais (ND) comdestaque para a área sombreada (b), onde o número digital do pixel central resulta da média aritmética do pixel e seus vizinhos(c), A imagem resultante com aplicação do filtro passa-baixa (Drury, 2001). Filtro passa-alta O filtro passa-alta elimina as feições de baixa frequência mantendo apenas as de alta frequência (Figura 6.11c). As imagens com filtro passa-alta realçam bordas e limites entre áreas com valores de números digitais (ND)diferentes. O tipo mais comum de
Compartilhar