Baixe o app para aproveitar ainda mais
Prévia do material em texto
MÓDULO 1 Apostila do Curso Prof. Drª. Ana Paula Dalla Corte Curso de Extensão Ambiental e Florestal CURSO DE EXTENSÃO GEOTECNOLOGIAS APLICADAS A ENGENHARIA FLORESTAL 2 SUMÁRIO 1. CARTOGRAFIA BÁSICA..............................................………................... 4 1.1. FORMA DA TERRA......................................................................................... 4 1.2. COORDENADAS............................................................................................. 6 1.2.1. SISTEMA DE COORDENADAS GEOGRÁFICAS................................................... 6 1.2.2. SISTEMA DE COORDENADAS PLANAS............................................................. 7 1.2.2.1 A PROJEÇÃO UTM.......................................................................................... 7 1.3. PROJEÇÕES CARTOGRÁFICAS......................................................................... 8 1.4. ESCALA.......................................................................................................... 9 2. SENSORIAMENTO REMOTO......................................…………................ 11 2.1. PRINCIPIOS DO SENSORIAMENTO REMOTO................................................... 11 2.2. SISTEMAS DE SENSORES................................................................................ 13 2.3. ESTRUTURA DE DADOS DE SENSORIAMENTO REMOTO.................................. 15 2.4. PRINCIPAIS SENSORES REMOTOS.................................................................. 19 2.4.1. SATÉLITE CBERS, SENSOR CCD........................................................................ 21 2.4.2. SATÉLITES LANDSAT 5 e LANDSAT 8............................................................... 22 2.4.3. SATÉLITE SPOT 5............................................................................................ 24 2.4.4. SATÉLITE IKONOS II........................................................................................ 26 2.4.5. SATÉLITE QUICKBIRD..................................................................................... 27 2.4.6. SATÉLITE ALOS.............................................................................................. 28 2.4.7. SATÉLITE WORLDVIEW – 3............................................................................. 30 2.5. PRINCIPAIS PROCEDIMENTOS PARA USO DAS IMAGENS DE SATÉLITE............ 32 2.5.1. VISUALIZAÇÃO DAS IMAGENS EM COMPOSIÇÃO COLORIDA.......................... 32 2.5.2. FUSÃO DE BANDAS........................................................................................ 32 2.5.3. CORREÇÃO GEOMÉTRICA.............................................................................. 34 2.5.4. CORRECAO RADIOMÉTRICA........................................................................... 36 2.5.5. ORTORETIFICAÇÃO........................................................................................ 37 2.5.6. CLASSIFICAÇÕES DIGITAIS DE IMAGENS......................................................... 38 2.5.7. ACURÁCIA..................................................................................................... 41 2.5.8. ÍNDICES DE VEGETAÇÃO................................................................................ 42 3. AEROFOTOGRAMETRIA E FOTOINTERPRETAÇÃO......………….......................... 46 3.1. FOTOGRAMETRIA.......................................................................................... 46 3.2. FOTOINTERPRETAÇÃO................................................................................... 48 3 4 VEÍCULOS AÉREOS NÃO TRIPULADOS – VANTs.............................................. 51 4.1. HISTÓRICO E IMPORTÂNCIA.......................................................................... 51 4.2. FUNCIONAMENTO DOS VANT....................................................................... 52 4.3. EXEMPLO DE APLICAÇÃO DO VANT EM INVENTÁRIOS FLORESTAIS................ 54 5 REFERÊNCIAS BIBLIOGRÁFICAS...................................................................... 57 1. É proibida a reprodução, total ou parcial, sob pena da lei, do conteúdo sem a prévia autorização do autor da obra. Divulgação autorizada para o Curso de Extensão da Universidade Federal do Paraná - Turma 2018. 4 CARTOGRAFIA BÁSICA 1.1 FORMA DA TERRA A forma da terra é um tema que vem sendo pesquisado ao longo dos anos em várias partes do mundo. Muitas foram os modelos desenvolvidos para definir qual seria a forma da Terra. Pitágoras em 528 A.C. introduziu o conceito de forma esférica para o planeta, e a partir daí sucessivas teorias foram desenvolvidas até alcançarmos o conceito que é hoje bem aceito no meio científico internacional (IBGE, 1998). Segundo o conceito introduzido pelo matemático alemão CARL FRIEDRICH GAUSS (1777-1855), a forma do planeta, é o GEÓIDE (Figura 1) que corresponde à superfície do nível médio do mar homogêneo (ausência de correntezas, ventos, variação de densidade da água, entre outros) supostamente prolongado por sob continentes. Essa superfície se deve, principalmente, às forças de atração (gravidade) e força centrífuga (rotação da Terra) (IBGE, 1998). Os diferentes materiais que compõem a superfície terrestre possuem diferentes densidades, fazendo com que a força gravitacional atue com maior ou menor intensidade em locais diferentes. As águas do oceano procuram uma situação de equilíbrio, ajustando-se às forças que atuam sobre elas, inclusive no seu suposto prolongamento. A interação (compensação gravitacional) de forças buscando equilíbrio, faz com que o geóide tenha o mesmo potencial gravimétrico em todos os pontos de sua superfície (IBGE, 1998). É preciso buscar um modelo mais simples para representar o nosso planeta. Para contornar o problema que acabamos de abordar lançou-se mão de uma Figura geométrica chamada ELIPSE que ao girar em torno do seu eixo menor forma um volume, o ELIPSÓIDE DE REVOLUÇÃO, achatado no pólos (Figura 1). Assim, o elipsóide é a superfície de referência utilizada nos cálculos que fornecem subsídios para a elaboração de uma representação cartográfica. O elipsóide pode ser definido como a superfície de referência, geometricamente regular para onde são transferidos os dados do geóide. O elipsóide de revolução, uma figura matemática que se aproxima bastante da forma do geóide, é a superfície mais utilizada pela ciência geodésica para a realização dos levantamentos CARVALHO e ARAÚJO (2008). 5 Figura 1 – Comparação da superfície real, geóide e elipsóide. Fonte: CARVALHO e ARAÚJO (2008) O elipsóide, que é superfície teórica definida com fins científicos e seria resultante do movimento de rotação da Terra em torno do seu eixo menor, sendo semelhante a uma elipse cuja linha corresponde ao nível médio dos mares e segue imaginariamente através do relevo terrestre. Dessa forma, tudo que estiver acima dessa linha deve ser considerado como não existente, ficando o planeta completamente liso, tendo apenas dois eixos: um maior (semi-eixo maior), chamado “equatorial”, e um menor (semi-eixo menor), chamado “polar” (CARVALHO e ARAÚJO, 2008). Figura 2 – Comparação do elipsóide e seus semieixos maior e menor. 6 1.2 COORDENADAS 1.2.1 Sistema de coordenadas geográficas É o sistema de coordenadas mais antigo. Nele, cada ponto da superfície terrestre é localizado na interseção de um meridiano com um paralelo. Num modelo esférico os meridianos são círculos máximos cujos planos contêm o eixo de rotação ou eixo dos pólos. Já num modelo elipsoidal os meridianos são elipses definidas pelas interseções, com o elipsóide, dos planos que contêm o eixo de rotação (CAMARA et al., 1996). Meridiano de origem (também conhecido como inicial ou fundamental) é aquele que passa pelo antigo observatório britânico de Greenwich, escolhido convencionalmentecomo a origem (0º) das longitudes sobre a superfície terrestre e como base para a contagem dos fusos horários. A leste de Greenwich os meridianos são medidos por valores crescentes até + 180º. A oeste, suas medidas decrescem até o limite de -180º (CAMARA et al., 1996). Tanto no modelo esférico como no modelo elipsoidal os paralelos são círculos cujo plano é perpendicular ao eixo dos pólos. O Equador é o paralelo que divide a Terra em dois hemisférios (Norte e Sul) e é considerado como o paralelo de origem (0º). Partindo do equador em direção aos pólos tem-se vários planos paralelos ao equador, cujos tamanhos vão diminuindo até que se reduzam a pontos nos pólos Norte (+90º) e Sul (-90º) (CAMARA et al., 1996) (Vide Figura 3). Longitude de um lugar qualquer da superfície terrestre é a distância angular entre o lugar e o meridiano inicial ou de origem, contada sobre um plano paralelo ao equador. Latitude é a distância angular entre o lugar e o plano do Equador, contada sobre o plano do meridiano que passa no lugar. Figura 3 – Representação dos meridianos e paralelos. • Latitude: Ângulo com Equador 90° norte (equador) - 90° sul • Longitude: Ângulo com o Meridiano Principal (Greenwich) 180° leste (Greenwich) - 0° oeste 7 1.2.2 Sistema de coordenadas planas O sistema de coordenadas planas, também conhecido por sistema de coordenadas cartesianas, baseia-se na escolha de dois eixos perpendiculares cuja interseção é denominada origem, que é estabelecida como base para a localização de qualquer ponto do plano (CAMARA et al., 1996). Nesse sistema de coordenadas um ponto é representado por dois números reais: um correspondente à projeção sobre o eixo x (horizontal) e outro correspondente à projeção sobre o eixo y (vertical). Os valores de x e y são referenciados conforme a figura mostrada a seguir, que representa como exemplo, as coordenadas de um ponto na projeção UTM (CAMARA et al., 1996). O sistema de coordenadas planas é naturalmente usado para a representação da superfície terrestre num plano, ou seja, confunde-se com aquilo que se chama de sistema de coordenadas de projeção. Abaixo na Figura 4 está representado o apoio cartesiano para os cálculos das coordenadas. Figura 4 – Representação do sistema de coordenadas planas. Fonte: CAMARA et al. (1996). 1.2.2.1 A projeção UTM A projeção UTM (Universal Transverse Mercator) é definida dividindo-se a Terra em 60 fusos de 6º de longitude. Para cada fuso, adota-se como superfície de projeção um cilindro transverso com eixo perpendicular ao seu meridiano central, que assume ainda o papel de longitude de origem. Apesar da característica “universal” desta projeção, enfatiza-se que o elipsóide de referência varia em função da região da superfície terrestre (CAMARA et al., 1996). O meridiano central de um fuso, o Equador e os meridianos situados a 90º do meridiano central são representados por retas, enquanto que os demais meridianos e os paralelos são representados por curvas complexas. O meridiano central é representado em verdadeira grandeza. A escala aumenta com a distância em relação ao meridiano central e torna-se infinita a 90º deste (CAMARA et al., 1996). Aplica-se ao meridiano central de cada fuso um fator de redução de escala igual a 0,9996, para minimizar as variações de escala dentro do fuso. Como consequências, 8 existem duas linhas aproximadamente retas, uma a leste e outra a oeste, distantes cerca de 1º37' do meridiano central, representadas em verdadeira grandeza. Há um mapeamento sistemático do Brasil, feito na projeção UTM, nas escalas 1:250.000, 1:100.000 e 1:50.000, sendo que estas cartas estão disponíveis para no IBGE – Instituto Brasileiro de Geografia e Estatística. 1.3 PROJEÇÕES CARTOGRÁFICAS Todos os mapas são representações aproximadas da superfície terrestre. Isto ocorre porque não se pode passar de uma superfície curva para uma superfície plana sem que haja deformações. Por isso os mapas preservam certas características ao mesmo tempo em que alteram outras. A elaboração de um mapa requer um método que estabeleça uma relação entre os pontos da superfície da Terra e seus correspondentes no plano de projeção do mapa. Para se obter essa correspondência, utilizam-se os sistemas de projeções cartográficas. Analisam-se os sistemas de projeções cartográficas pelo tipo de superfície de projeção adotada e grau de deformação. Quanto ao tipo de superfície de projeção adotada, classificam-se as projeções em: planas ou azimutais, cilíndricas, cônicas e poliédricas, segundo se represente a superfície curva da Terra sobre um plano, um cilindro, um cone ou um poliedro tangente ou secante à Terra. Seguem algumas descrições. Projeção plana ou azimutal: Constrói-se o mapa utilizando-se uma superfície de projeção plana tangente ou secante a um ponto na superfície da Terra (Figura 5). Projeção cônica: A superfície de projeção usada é um cone que envolve a Terra e que, em seguida, é desenvolvido num plano. As projeções cônicas podem ser tangentes ou secantes. Pode-se constatar que em todas as projeções cônicas normais (eixo do cone coincidente com o eixo de rotação da Terra) os meridianos: são retas que convergem para um ponto (que representa o vértice do cone) e todos os paralelos são circunferências concêntricas a esse ponto (Figura 6). Projeção cilíndrica: Usa-se um cilindro tangente ou secante à superfície da Terra como superfície de projeção. Em seguida, desenvolve-se o cilindro num plano. Em todas as projeções cilíndricas normais (eixo do cilindro coincidente com o eixo de rotação da Terra), os meridianos e os paralelos são representados por retas perpendiculares (Figura 7). 9 Figura 5 – Representação da Projeção Plana. Figura 6 – Representação da Projeção Cônica. Figura 7 – Representação da Projeção Cilíndrica. 1.4 ESCALA A escala é uma relação matemática entre as dimensões lineares representadas (em um mapa, em uma fotografia, em uma imagem, entre outros) e as dimensões lineares reais (terreno). Num mapa a escala é a relação entre a medida linear no papel ou num meio digital e a correspondente medida no terreno (ANTUNES, 2005). A escala numérica indica no denominador o valor que deve ser usado para multiplicar uma 10 medida feita sobre o mapa e transformá-la num valor correspondente sobre a superfície terrestre (CAMARA et al., 1996). Desta forma pode-se expressar a relação por: D:1 E ou D 1 E Onde: E = Escala do mapa; 1 = Unidade representada no papel; D = Unidade real no terreno. ANTUNES (2004) cita os seguintes exemplos: 1 mm no papel = 500 mm no terreno = 50 cm no terreno; 1 cm no papel = 500 cm no terreno = 5 m no terreno; 1 m no papel = 500 m no terreno = 0,5 km no terreno. Ou ainda em escalas menores: 1:25.000 1 cm no papel = 250 m no terreno; 1:100.000 1 cm no papel = 1.000 m ou 1 km no terreno. 11 2. SENSORIAMENTO REMOTO Outra possibilidade de alimentação de dados espaciais para o sistema é utilizando-se do Sensoriamento Remoto. O sensoriamento remoto pode ser dividido em sensores passivos que utilizam como fonte de energia o Sol, a Terra ou alguma fonte artificial independente e sensores ativos que utilizam sua própria fonte para iluminar o alvo. 2.1 PRINCIPIOS DO SENSORIAMENTO REMOTO Experiências de Newton constataram que um raio luminoso (luz branca), ao atravessar um prisma, desdobrava-se num feixe colorido - um espectro de cores (Figura 8). Desde então os cientistas foram ampliando os seus estudos a respeito desta temática e verificaram que a luz branca era uma síntese de diferentes tipos de luz, uma espécie de onda composta, basicamente, de muitas ondas de diferentes intensidades. Descobriram ainda que cada cor decomposta no espectro correspondia a uma temperatura diferente, e que a luz vermelha incidindo sobre um corpo, aquecia-o mais doque a violeta. Além do vermelho visível, existem radiações invisíveis para os olhos, que passaram a ser ondas, raios ou ainda radiações infravermelhas. Logo depois, uma experiência de Titter revelou outro tipo de radiação: a ultra-violeta. Sempre avançando em seus experimentos os cientistas conseguiram provar que a onda de luz era uma onda eletromagnética, mostrando que a luz visível é apenas uma das muitas diferentes espécies de ondas eletromagnéticas. Figura 8 – Feixe luminoso de luz decompondo-se em outros feixes de cores. As ondas eletromagnéticas as quais trataremos por radiação eletromagnética (REM), podem ser consideradas como assinaturas do Sensoriamento Remoto. A radiação eletromagnética se comporta de acordo com os fundamentos de teoria de onda e consiste de um campo elétrico (E) que varia em magnitude em uma direção perpendicular à direção na qual a radiação está viajando, e um campo magnético (M) orientado em ângulo reto com o campo elétrico. Elas não apenas captam as Informações pertinentes às principais características das feições terrestres, como também as levam até os satélites. A radiação eletromagnética pode ser definida como sendo uma propagação de energia, por meio de variação temporal dos campos elétrico e Violeta: 0.4 - 0.446 μm Azul: 0.446 - 0.500 μm Verde: 0.500 - 0.578 μm Amarelo: 0.578 - 0.592 μm Laranja: 0.592 - 0.620 μm Vermelho: 0.620 - 0.7 μm 12 magnético. A completa faixa de comprimentos de onda e de frequência da REM é chamada de espectro eletromagnético (Figura 9). A principal fonte de radiação eletromagnética para os sensores passivos (que dependem de outra fonte de energia eletromagnética) é o sol e, portanto, ele faz com que o uso de grande parte das técnicas de sensoriamento remoto seja passiveis de aplicação. Figura 9 – Espectro eletromagnético com destaque para a região do visível. Fonte: RICHARDS (2006) Assim, para que seja possível de aplicação de alguma técnica de sensoriamento remoto é necessário que exista: sensor que tem a capacidade de registrar a informação da energia eletromagnética refletida pelo alvo, que exista energia eletromagnética para o alvo refletir e o próprio alvo. Quando a radiação solar penetra na atmosfera terrestre ela sofre atenuações causadas por: reflexão, espalhamento e absorção pelos constituintes atmosféricos, por partículas dispersas e nuvens (Figura 10). Os gases presentes na atmosfera apresentam capacidade de absorção muito variável em relação ao comprimento de onda da energia solar incidente no sistema terra-atmosfera e da energia emitida pela superfície terrestre. Esta interação da energia com a atmosfera pode ser comparada com uma cortina que age como um filtro e, dependendo de seu tecido, atenua ou até mesmo impede a passagem da luz. Neste caso os diferentes tipos de tecidos da cortina poderiam ser comparados com os diferentes gases existentes na atmosfera terrestre, os quais atenuam a energia eletromagnética diferentemente. Isso faz com que a radiação global que chega à superfície terrestre esteja fortemente atenuada. 13 Figura 10 – Representação esquemática da emissão de energia eletromagnética solar e a parte captada pelo sensor remoto. (a) reflexão; (b) absorção; (c) transmissão. 2.2 SISTEMAS DE SENSORES Existem diferentes possibilidades de classificação dos sensores remotos. No primeiro nível de classificação podemos considerá-los como passivos e ativos. A diferença entre os dois é explicada em função da fonte de energia eletromagnética. Os sensores passivos não possuem fonte própria de radiação, detectando apenas a radiação solar refletida, emitida ou transmitida pelos objetos da superfície. Desta forma, dependem de uma fonte de energia externa (em geral o Sol) para que possam operar. São exemplos destes sensores os satélites de imageamento e as câmaras aerofotogramétricas (Vide Figura 11). Os sensores ativos são aqueles que produzem sua própria radiação eletromagnética, emitindo-a e depois registrando a resposta que retorna após interação com o alvo. Em geral eles trabalham em faixas restritas do espectro eletromagnético. São exemplos de sensores nessa situação: radar e laser. Ainda, podemos classificá-los de acordo com seu princípio de funcionamento, ou seja, entre: não imageadores (não formadores de imagens) e imageadores (formadores de imagens). Os sensores não imageadores não geram imagem da superfície sensoriada, mas sim, gráficos ou dígitos, que são transferidos para um computador acoplado. São essenciais para aquisição de informações precisas sobre o comportamento espectral dos objetos (Figura 12). Os sensores imageadores formam imagem da superfície observada como resultado. Fornecem informações sobre a variação espacial da resposta espectral da (a) (b) (c) 14 superfície observada. São geralmente programados para funcionamento automático por longo período e geralmente estão a bordo de aeronaves ou satélites. É exemplo deste sistema: satélite de imageamento, aerofotogrametria, entre outros. Ainda, podemos classificar os sensores imageadores em: sistema de quadro (framing systems) e sistema de varredura (scanning systems). Os sistemas de quadro adquirem a imagem da cena em sua totalidade num mesmo instante e, o sistema de varredura a imagem da cena é formada pela aquisição sequencial dos elementos de resolução, também chamados pixels. (a) Sensores ativos (b) Sensores passivos Figura 11 – Exemplificação dos sistemas de sensores conforme a fonte de energia. Figura 12 – Exemplo de radiômetro sendo utilizado. Em geral os sensores mais utilizados para análises ambientais estão classificados como sistemas de varreduras. Assim, neste sistema, existem as faixas de varredura e cada faixa é dividida em algumas células ou pixels. Assim, para cada unidade espacial são atribuídos valores inteiros (intensidades) correspondentes a energia eletromagnética daquele terreno. Após ter sido concluída uma faixa de varredura (Figura 13). 15 Dois fatores importantes relacionados ao nível de aquisição dos dados são: geometrias de iluminação e de visada. A primeira refere-se ao posicionamento da fonte de radiação eletromagnética em relação ao objeto, enquanto que a segunda refere-se ao posicionamento do sensor. Os níveis e as geometrias condicionam as medidas, de modo que os resultados obtidos são específicos para aquelas situações. Figura 13 – Exemplo do funcionamento do sistema de imageamento por varredura. 2.3 ESTRUTURA DE DADOS DE SENSORIAMENTO REMOTO O formato de armazenamento de dados oriundos do sensoriamento remoto diz respeito ao matricial o raster. Neste formato, tem-se uma matriz de células, às quais estão associados valores, que permitem reconhecer os objetos sob forma de imagem digital. Cada uma das células, denominada pixel, é endereçável por meio de suas coordenadas (linha, coluna). CAMARA et al. (1996) comenta que a participação do espaço na estrutura raster é obtida através de uma malha com linhas verticais e horizontais espaçadas regularmente, formando celdas. Estas celdas também são chamadas de pixels ou quadrículas e geralmente possuem dimensões verticais e horizontais iguais, que definem a resolução espacial da malha, ou seja, a área abrangida no terreno por cada pixel. É possível associar o par de coordenadas da matriz (coluna, linha) a um par de coordenadas espaciais, (X,Y) ou (Longitude, Latitude). Cada um dos pixels está associado a valores. Estes valores serão sempre números inteiros e limitados, geralmente entre 0 e 255 (nas imagens de 8 bits). Os valores são utilizados para definir uma cor para apresentação na tela ou para impressão. Em uma imagem obtida por satélite, cada um dos sensores é capaz de captar a intensidade da reflexão de radiação eletromagnética sobre a superfície da Terra em uma faixa de varredura bandas 16 específica faixa de frequências.Quanto mais alta a reflectância, no caso, mais alto será o valor do pixel. Os principais componentes mais importantes de uma estrutura de dados matricial são: Resolução Espacial Resolução Temporal Resolução Espectral Resolução Radiométrica Resolução espacial: é a mínima dimensão linear da menor unidade de um espaço geográfico nos quais os dados são registrados. A menor unidade usada é retangular sendo que esta unidade pequena é conhecida como grid, celda, quadrícula, célula ou pixel. A palavra pixel é derivada do termo em inglês “picture element” (elemento de foto). O arranjo espacial dessas celdas é conhecido como matriz, raster ou grade. Desta forma, haverá alta resolução quando essas celdas apresentarem dimensões muito pequenas. Assim, alta resolução significa quantidade de detalhes, quantidade de celdas, grandes matrizes e celdas bem pequenas. Um exemplo comum de pixels pequenos pode ser observado em um monitor de computador ou na tela de televisão. As imagens nestas telas não são “sólidas”, mas sim compostas por milhares de pontos muito pequenos chamados pixels, que vistos à distância nos dão a impressão de formarem uma imagem sólida. É importante distinguir entre tamanho do pixel e resolução espacial - eles não são intercambiáveis. Por exemplo, se um sensor tem uma resolução espacial de 30 metros e a imagem deste sensor for exibida com resolução total, cada pixel representa uma área de 30m x 30m no terreno (900 m²). Neste caso o tamanho do pixel e a resolução são o mesmo. Porém, é possível exibir uma imagem com um tamanho de pixel diferente da resolução espacial. Muitas impressões de imagens de satélite do terreno têm o tamanho dos pixels calculados para representar áreas maiores, embora a resolução espacial original do sensor que gerou a imagem permaneça a mesma. Imagens em que somente os objetos maiores são visíveis são ditas de resolução espacial grossa ou baixa. De maneira geral pode-se dizer que quanto melhor a resolução espacial, menor a área de terreno que pode ser vista pela imagem. A razão entre a distância em uma imagem ou mapa, para distância real no terreno é chamada Escala. Se você tivesse um mapa com uma Escala de 1:10.000, um objeto de 1cm de tamanho no mapa seria de fato um objeto de 10.000cm ou de 100m de tamanho no solo. Assim, se a resolução espacial de um sensor for de 1.000 m x 1.000 m então, a reflectância dos alvos no interior deste pixel será captada e uma dessas células assumirá um valor único de tudo que refletiu neste local. Resolução temporal: trata-se do período de revisita de um sensor de satélite por uma mesma área no terreno. Então, a resolução temporal absoluta de um sistema de sensoriamento remoto é igual ao período entre a primeira passagem e a segunda passagem do sensor sobre uma área com o mesmo ângulo. Porém, por causa da sobreposição entre órbitas adjacentes para a maioria dos satélites e devido ao aumento da sobreposição à medida que a latitude cresce, algumas áreas da Terra são imageadas 17 mais frequentemente. Conforme BATISTA e DIAS (2005) a habilidade de se obter imagens da mesma área da Terra em períodos diferentes de tempo é um dos mais importantes elementos em aplicações de dados de sensoriamento remoto. Características espectrais de feições podem mudar com o passar do tempo e estas mudanças podem ser detectadas obtendo-se e comparando-se imagens multi- temporais. Por exemplo, durante a estação de crescimento, a maioria dos vegetais está em um estado contínuo de mudança e nossa habilidade para monitorar essas mudanças usando sensoriamento remoto é função de quando e da frequência em que nós obtemos imagens da área monitorada. A resolução temporal é de fundamental importância quando se pretende monitorar processos dinâmicos como, por exemplo: a ocorrência de incêndios ou queimadas em áreas florestais, desmatamentos, derramamento de óleo no oceano, mudanças no desenvolvimento das culturas e o crescimento de uma cidade. Da mesma forma em que a resolução espacial das imagens deve ser associada a uma escala espacial para uma determinada aplicação, a escolha da resolução temporal deve ser coerente com a escala temporal e dinamismo do processo que está sendo monitorado. Resolução espectral: é a habilidade de um sensor definir intervalos de comprimento de onda distintos. Quanto melhor a resolução espectral, mais estreita será o intervalo de comprimento de onda para um canal, banda ou faixa (Figura 14). Os diferentes alvos podem representados de várias cores com base na reflectância dos mesmos em cada comprimento de onda distinto da luz visível. Muitos sistemas de sensoriamento remoto registram energia ao longo de intervalos separados de comprimentos de onda com várias resoluções espectrais distintas. Desta forma, são chamados sensores multiespectrais. Atualmente existem sistemas bastante avançados em termos multiespectrais são os chamados sensores hiperespectrais, que cobrem centenas de bandas espectrais muito estreitas ao longo do visível, infravermelho próximo, e porções do infravermelho médio do espectro eletromagnético. A resolução espectral alta facilita a discriminação entre alvos diferentes com base nas suas respostas espectrais em cada banda (Figuras 14 e 15). A resolução espectral dos sensores indica a quantidade de regiões do espectro eletromagnético nas quais o sensor é capaz de gerar uma imagem de níveis (intensidades) de cinza. Estas imagens denominam-se bandas espectrais. Cada uma destas imagens representa a energia registrada pelos detectores do sensor numa determinada região do espectro eletromagnético. Assim, quanto maior a quantidade de bandas ou imagens geradas, maior será a resolução espectral sensor. Cada objeto interage de maneira diferente frente a energia eletromagnética e por este fato, é possível separá-los ou gerar padrões de identificação através deste comportamento. 18 Figura 14 – Representação dos diferentes comprimentos de onda. Figura 15 – Representação dos diferentes comprimentos de onda e as respectivas bandas de um sensor. Não podemos deixar de mencionar também as bandas espectrais (tons de cinza) e a combinação das mesmas para formação de uma imagem colorida. A combinação de pelo menos 3 bandas preto e branco forma uma imagem colorida, sendo que cada uma das bandas deverá estar associada a uma das cores fundamentais (azul, vermelho e verde) conforme está apresentado na Figura 16. 19 Figura 16 – Exemplo de bandas formando uma imagem colorida. Resolução radiométrica: O número de bits utilizado para armazenar os números digitais define a resolução radiométrica de uma imagem. Esta indica a quantidade máxima de níveis de cinza que podem ser utilizados para representar uma imagem. Por exemplo, uma imagem é formada por números digitais de 8 bits, o total de níveis de cinza para representar a imagem será 256 (28 = 256). Desta forma, a imagem será identificada como tendo uma resolução radiométrica de 8 bits, na qual o valor zero é associado à cor preta e o valor 255 à cor branca (Figura 17). Os níveis intermediários aparecem em uma escala de tons de cinza, do mais escuro (nível 1) ao mais claro (nível 254). Outro exemplo que pode ser citado são as imagens de 1 bit, ou seja, existe a possibilidade de representação somente como 0 ou 1. Com 2 bits poderemos ter 4 representações (00, 01, 10, 11). Com 3 bits poderemos ter 8 representações e assim por diante. Assim, o número de representações possíveis é de 2n, sendo que n é o número de bits utilizado. Os sensores normalmente obtêm imagens em 8 ou 10 bits (equivalente a 256 ou 1024 níveis digitais). Em sensores modernos como no caso do satélite IKONOS a radiância é representada por 11 bits (2048 níveis de cinza). Figura 17 – Representação dos níveis de cinza em uma imagem de 8 bits. 2.4 PRINCIPAIS SENSORES REMOTOS Existem hoje diversos sensores disponíveis no mercado para seremaplicados em analises ambientais. Abaixo na Tabela 1 estão apresentados vários sensores que já estiveram disponíveis e ainda outros que ainda estão disponíveis para serem aplicados em análises ambientais, com exceção do satélite sino-brasileiro CBERS e o satélite ALOS que serão descritos posteriormente. Considerando-se a relação custo/benefício os principais sensores atualmente no Brasil são: CBERS 2 e 2B (logo haverão imagens do sensor CBERS 4 que foi lançado em Dezembro/2014 e as imagens até 06/2015 não estavam disponíveis), LANDSAT 5 – TM (até 2013-2015), LANDSAT 8 (a partir de 2013), SPOT 6, IKONOS II, Quickbird e Alos. Abaixo serão descritos estes principais sensores com maior detalhamento. 20 Tabela 1 – Listagem dos principais sensores já utilizados e ainda utilizados nas análises ambientais. SATELITE ALTITUDE RESOLUCAO ESPACIAL RESOLUCAO TEMPORAL ORIGEM SITUACAO DE IMAGEAMENTO LANDSAT 8 705 km MULTI 30m PAN 15 m 16 dias USA – NASA 2013-atual LANDSAT 5 705 km 30 m 16 dias USA – NASA 1984-2011 LANDSAT 7 705 km MULTI 30m PAN 15 m 16 dias USA-NASA 1999-2003 CBERS 1 778 km 20 m 26 dias Brasil/China 1999-2001 CBERS 2 778 km 20 m 26 dias Brasil/China 2003-2007 CBERS 2B 778 km CCD 20 m 26 dias Brasil/China 2007-2010 *Thaichote 822 km MULTI 15m 1-5 dias Tailandês 2008-atual *Deimos 1 663 km MULTI 22 m 2-3 dias Espanha 2009-atual ASTER 705 km VNIR 15 m SWIR 30 m 16 dias USA 1999-atual **SPOT 6 694 km MULTI 6 m PAN 1,5 m 1-3 dias França 2012-atual ***Pléiade s 1A 694 km MULTI 2 m PAN 0,5 m 1 dia França e Itália 2011-atual ***Pléiade s 1B 694 km MULTI 2 m PAN 0,5 m 1 dia França e Itália 2012-atual *WorldVie w2 770 km MULTI 2 m PAN 0,50 m 3 dias USA 2009-atual *Geoeye 1 684 km MULTI 2 m PAN 0,50 m 3 dias USA 2008-atual *RapidEye 630 km MULTI 5 m Diária Alemanha 2008-atual *Thaichote 822 km PAN 2 m 1-5 dias Tailandês 2008-atual CBERS 2B 778 km HRC 3 m 26 dias Brasil/China 2008-2009 WorldView -1 496 km PAN 0,5-0,59 m 1,7 - 4,6 dias USA 2007-atual *ALOS 691,65 km MULTI 10 m PAN 2,5m 46 dias Japão 2006-atual *Quikbird 2 450 km MULTI 2,44 m PAN 0,61 m 1-3,5 dias USA 2001-atual *Ikonos II 681 km MULTI 4 m PAN 1 m 1,5-2,9 dias USA 1999-atual Fonte: *http://www.globalgeo.com.br/ **http://www2.astrium-geo.com/files/pmedia/public/r12317_9_spot6- 7_technical_sheet.pdf ***http://mundogeo.com/webinar/pleiades/Pleiades_O_Novo%20Sensor_de%20Altss ima%20Resolucao_da_Astrium.pdf Média resolução espacial Alta resolução espacial 21 2.4.1 SATÉLITE CBERS, SENSOR CCD O satélite CBERS é uma cooperação entre Brasil (30%) e China (70%). Foram desenvolvidos nessa cooperação os satélites: CBERS 1, CBERS 2 e mais recentemente o CBERS 2B. O lançamento do CBERS-2B foi em 2007 e a base de lançamento foi Taiyuan, na China, com o mesmo foguete chinês - Longa Marcha 4, que fez o lançamento dos CBERS-1 e 2. Os satélites CBERS-1, 2 e 2B são equipados com câmeras para observações ópticas de todo o globo terrestre, além de um sistema de coleta de dados ambientais. São sistemas únicos devido ao uso de câmeras que combinam características especiais para resolver a grande variedade de escalas temporais e espaciais típicas de nosso ecossistema1. Um exemplo destas imagens está apresentado na Figura 18. Abaixo na Tabela 2 estão apresentados alguns parâmetros da câmera CCD do satélite CBERS 2B. Figura 18 – Exemplo de imagem CBERS 2. Os satélites CBERS-1, 2 e 2B caracterizam-se por estarem em uma órbita síncrona com o Sol a uma altitude de 778 km, completando 14 revoluções da Terra por dia. Este tipo de órbita é tal que o satélite sempre cruza o Equador às 10:30h da manhã, hora local, provendo assim as mesmas condições de iluminação solar para tornar possível a comparação de imagens adquiridas em dias diferentes2. 2 e 31 www.cbers.inpe.br 22 A resolução espacial do sensor CBERS 2B é de 20 metros e sua resolução temporal é de 26 dias, ou seja, a cada 26 é o tempo de revisita do sensor em um mesmo local do planeta. Ainda, a faixa de imageamento de cada cena (largura) é de 113 km. Esse satélite parou de imagear (tendo imagens disponíveis no site do INPE). Foi lançado o satélite CBERS 3 que caiu e recentemente foi lançado o CBERS 4 que em breve deverá ter imagens disponibilizadas. Tabela 2 - Características do satélite CBERS 2B, sensor CCD. Resolução espacial 20 x 20m Resolução espectral Câmera CCD 0,51 a 0,73µm (pan) 1- 0,45 a 0,52 µm (azul) 2- 0,52 a 0,59 µm (verde) 3- 0,63 a 0,69 µm (vermelho) 4- 0,77 a 0,89 µm (infravermelho próximo) Resolução temporal 26 dias com visada vertical Largura da faixa de imageamento 113 km Maiores informações poderão ser adquiridas no site: http://www.cbers.inpe.br/. 2.4.2 SATÉLITES LANDSAT 5 e LANDSAT 8 A série dos satélites Landsat teve início no final da década de 60, com base em um projeto desenvolvido pela Agência Espacial Americana dedicado exclusivamente à observação dos recursos naturais terrestres. O primeiro satélite da série começou a operar em 1972 e a última atualização ocorreu em 1999 com o lançamento do LANDSAT- 7. Atualmente o único satélite em operação é o LANDSAT-5, que leva a bordo o sensor TM e contribui para o mapeamento temático da superfície terrestre3. O LANDSAT-7 iniciou suas atividades em abril de 1999 e encerrou em 2003, utilizando o sensor ETM+ (Enhanced Thematic Mapper Plus). Este instrumento foi capaz de ampliar as possibilidades de uso dos produtos LANDSAT, porque manteve a alta resolução espectral (característica importante desse sistema) e conseguiu ampliar a resolução espacial da banda 6 (Infravermelho Termal) para 60 metros além de inserir a banda pancromática e permitir a geração de composições coloridas com 15 metros de resolução. A antena de recepção do Instituto Nacional de Pesquisas Espaciais (INPE) localizada em Cuiabá capta desde os anos 70 imagens de todo território nacional, o que representa um enorme e único acervo de dados sobre nosso país. Este sistema orbital é atualmente um dos mais utilizados na Embrapa Monitoramento por Satélite. 3 http://www.sat.cnpm.embrapa.br/satelite/ http://www.cbers.inpe.br/ 23 Figura 19 – Exemplo de imagem Landsat 5 – TM. Conforme apresentado na Tabela 4, a resolução espacial do sensor TM do satélite Landsat 5 é de 30 x 30 m e a resolução temporal, ou seja, o tempo de revisita da área é de 16 dias. Ainda, a largura da faixa de imageamento é de 185 km. Tabela 3 - Características do satélite Landsat 5, sensor TM. Resolução espacial 30 x 30m Resolução espectral Câmera TM 1- 0,45 a 0,52µm 2- 0,50 a 0,60 µm 3- 0,63 a 0,69 µm 4- 0,76 a 0,90 µm 5- 1,55 a 1,75 µm 6- 10,4 a 12,5 µm 7- 2,08 a 2,35 µm Resolução temporal 16 dias com visada vertical Largura da faixa de imageamento 185 km Em 11 de fevereiro de 2013 foi lançado a Missão de Continuidade dos Dados Landsat (LDCM) – chamada de LANDSAT 8, para suprir a falta de dados que existia após problemas com o satélite Landsat 5, já que o Landsat 6 perdeu-se após lançamento, e o Landsat 7 havia parado de captar imagens em 2003. 24 O LANDSAT 8 apresenta dois sensores: OLI (Operational Land Imager) e TIRS (Thermal Infrared Sensor). O sensor OLI que apresenta 9 bandas (8 multiespectrais com resolução de 30 metros, e a banda 8 pancromática com 15 metros de resolução) e o TIRS, que apresenta duas bandas (ambas com resolução de 100 metros). Dessa forma, o Landsat 8 apresenta um número de bandas maior que todos os satélites antecessores, as quais estão descritas na Tabela 5. Tabela 4 - Características do satélite Landsat 8. Bandas Comprimento de Onda (µm) Resolução espacial (m) Banda 1 Costeira Ultra-azul 0,43 - 0,45 30 Banda 2 Azul 0,45 - 0,5130 Banda 3 Verde 0,53 - 0,59 30 Banda 4 Vermelho 0,64 - 0,67 30 Banda 5 Infravermelho Próximo 0,85 - 0,88 30 Banda 6 Infravermelho Médio 1 1,57 - 1,65 30 Banda 7 Infravermelho Médio 2 2,11 - 2,29 30 Banda 8 Pancromática 0,50 - 0,58 30 Banda 9 Cirrus (nuvens) 1,36 - 1,38 30 Banda 10 Infravermelho Termal 1 10,60 - 11,19 100* Banda 11 Infravermelho Termal 2 11,50 - 12,51 100* * Tratada e disponibilizada em pixel de 30 metros. FONTE: Adaptado de USGS (2014) O LANDSAT 8 contém um número total de 11 bandas, enquanto antes, eram apenas 8 (Landsat 5 e 7). Também, ele apresenta 4 bandas na região do infravermelho, onde antes eram 3. Além disto apresenta a banda 9 (cirrus) que foi projetada para monitoramento de nuvens. As imagens do LANDSAT 8 estão disponíveis para download gratuitamente no endereço eletrônico do USGS (United States Geological Survey). A resolução radiométrica do LANDSAT 8 é de 16 bits, diferente dos outros satélites da série que apresentavam 8 bits. Da mesma forma as cenas são recebidas pelo usuário em formato GeoTIFF, projeção UTM, Datum WGS 1984, e o período de revisita do sensor na mesma área é a cada 16 dias. Maiores informações poderão ser adquiridas no site: http://landsat.gsfc.nasa.gov/ 2.4.3 SATÉLITE SPOT 5 A série SPOT (Satellite pour l'Observation de la Terre), foi iniciada com o satélite franco-europeu SPOT 1, em 1986 sob a responsabilidade do Centre National d'Etudes Spatiales - CNES da França. Hoje a plataforma do SPOT está em órbita com três satélites (2, 4 e 5) o que possibilita acesso a qualquer ponto da Terra em menos de 24 horas e atuando em conjunto, revisitas em intervalos de 3 a 5 dias. Os satélites da família SPOT operam com sensores ópticos, em bandas do visível, infravermelho próximo e infravermelho médio. Com o lançamento do SPOT 5, ocorrido em maio de 2002, a 25 missão inaugurou a possibilidade de aquisição de imagens orbitais tridimensionais graças a sua capacidade de visada lateral de até 27º (estereoscopia) e também conseguiu melhorar a resolução espacial do canal pancromático para 5 metros4. O SPOT 5 tem dois instrumentos de alta-resolução geométrica (HRG), adaptados do HRVIR do SPOT 4. Oferecem uma resolução espacial de 5 metros em modo pancromático e 10 metros em modo multiespectral. Em comparação com as versões anteriores, o SPOT 5 oferece várias vantagens principalmente a possibilidade atingir a resolução de 5 metros (pancromática) fusionada com a de 10 metros colorida, produzindo assim, imagens de 5 metros de resolução espacial coloridas. Abaixo na Figura 20 está apresentado um exemplo desta potencialidade. Figura 20 – Exemplo de imagem SPOT 5 fusionada com 5m. Ainda, cabe destacar que a resolução temporal, ou seja, a revisita para uma área é de 26 dias e a largura da faixa de imageamento é de 60 km conforme apresentado na Tabela 5. 4 http://www.sat.cnpm.embrapa.br/satelite/ 26 Tabela 5 - Características do satélite SPOT 5, câmera HRG Maiores informações poderão ser adquiridas no site: http://www.spotimage.fr/ 2.4.4 SATÉLITE IKONOS II O satélite Ikonos II foi lançado em setembro de 1999, e está operacional desde o início de janeiro de 2000. Ele é operado pela Space Imaging que detém os Direitos de Comercialização em todo o mundo fora da Índia. Foi o primeiro satélite de alta resolução espacial com capacidade de imageamento de 1 metro no modo pancromático e 4 metros no modo multiespectral. Recentemente deixou de operar tendo apenas imagens em acervo. Existe ainda a possibilidade de fusão das imagens pancromáticas com as imagens multiespectrais para a geração de imagens coloridas com resolução espacial de 1 metro, facilitando assim a interpretação visual das áreas avaliadas. As imagens IKONOS II são coletadas com resolução radiométrica de 11 bits, ou seja, 2048 níveis de cinza o que por sua vez possibilita grande distinção entre objetos nas mesmas. Abaixo na Figura 21 está apresentado um exemplo das imagens Ikonos II. Figura 21 – Exemplo de imagem IKONOS II. 27 Na Tabela 6 abaixo estão apresentadas as principais características do sensor Ikonos II. Cabe destacar ainda que este sensor coleta imagens sempre que o mesmo for programado, ou seja, quando desejamos uma imagem, devemos encomendá-la em função das coordenadas dos extremos de área de abrangência que deverá ser imageada. Assim, o sensor será programado para a coleta de informações. Esta coleta ficará susceptível a disponibilidade de área sem nuvens para que a imagem possa ser fornecida. Tabela 6 – Características do Sensor Ikonos II. Resolução espacial 4 x 4m (multiespectral) e 1 x 1m (pan) Resolução espectral 0,45 a 0,90 µm (PAN) 1- 0,45 a 0,52µm (azul) 2- 0,52 a 0,60 µm (verde) 3- 0,63 a 0,69 µm (vermelho) 4- 0,76 a 0,90 µm (infravermelho próximo) Resolução temporal programável Largura da faixa de imageamento 13 x 13 km Maiores informações poderão ser adquiridas no site: http://www.satimagingcorp.com/gallery-ikonos.html 2.4.5 SATÉLITE QUICKBIRD O primeiro satélite comercial de sensoriamento remoto a produzir imagens com resolução espacial abaixo de 1 m é o chamado QuickBird. Este satélite foi lançado em outubro de 2001 e gerou suas primeiras imagens no final daquele ano. Recentemente deixou de operar tendo apenas imagens em acervo. Da mesma forma que o Ikonos, o QuickBird permite inúmeras aplicações, principalmente com relação a trabalhos em áreas urbanas, que exigem maior nível de detalhe. Por exemplo, mapeamento de ruas, mapeamento do uso e cobertura do solo em escalas grandes e aplicações integradas com SIG. As aplicações desses satélites de alta resolução são usadas em substituição às fotografias aéreas de média escala. Para cadastro de imóveis urbanos eles ainda são limitados em termos de resolução espacial. Vide detalhes na Tabela 7. 28 Figura 22 – Exemplo de imagem QUICKBIRD. Tabela 7 – Características do Sensor Quickbird. Resolução espacial 2,4 x 2,8m (multiespectral) e 0,61 x 0,72m (pan) Resolução espectral 0,45 a 0,90 µm (PAN) 1- 0,45 a 0,52µm (azul) 2- 0,52 a 0,60 µm (verde) 3- 0,63 a 0,69 µm (vermelho) Resolução temporal programável Largura da faixa de imageamento 16,5 x 16,5 km Maiores informações poderão ser adquiridas no site: http://www.digitalglobe.com/ 2.4.6 SATÉLITE ALOS O satélite japonês ALOS (Advanced Land Observing Satellite) foi lançado pela Agência Espacial Japonesa (JAXA) no dia 24 de janeiro de 2006, com a missão de observar e obter imagens de todo o planeta, para fins de monitoramento de desastres ambientais, levantamento de recursos naturais e, em especial, de suporte à cartografia5. 5 www.ibge.gov.br/alos/ 29 Figura 23 – Exemplo de imagem ALOS. Fonte: Engesat O Satélite ALOS carrega a bordo 3 sensores: AVNIR-2 - Advanced Visible and Near-Infrared Radiometer – Type 2 PRISM - Panchromatic Remote-sensing Instrument for Stereo Mapping PALSAR – Phased Array L-band Synthetic Aperture Radar O AVNIR-2 é um sensor óptico com 4 bandas espectrais (visível e infravermelho próximo) com resolução espacial de 10m, projetado para observação de regiões terrestres e costeiras. Suas imagens são úteis para o mapeamento do uso e cobertura do solo para fins de monitoramento ambiental regional. Este sensor é capaz de variar a inclinação da visada lateralmente, tornando possível imagear rapidamente situações de desastres naturais6. O sensor PRISM opera na faixa da luz visível, com uma (1) banda pancromática e resolução espacial de 2,5 m. Trata-se de um conjunto de 3 sistemas de imageamento que permite obter simultaneamente cenas com visadas: nadir, inclinada para frente e inclinada para trás, o que torna possível a aquisição de imagens estereoscópicas ao longo da trajetória.Esta configuração de imageamento é chamada Triplet6. O PALSAR é um radar imageador de abertura sintética que opera na banda L, com resolução espacial que varia de 10 a 100 metros. Possui um modo polarimétrico que é capaz de gerar imagens com polarizações HH, HV, VV e VH. Sendo um sensor de radar, o PALSAR é capaz de gerar imagens mesmo sobre regiões cobertas por nuvens e à noite. O radar do ALOS também possui um modo de observação ScanSAR, que adquire imagens com uma larga faixa de observação (250-350 km), que é especialmente útil para imageamento de grandes áreas de florestas6. 30 Tabela 8 – Características do Sensor Alos. Resolução espacial 10 x 10m (multiespectral) e 2,5 x 2,5m (pan) Resolução espectral PRISM (PAN) AVNIR-2 (multiespectral) 0,52 a 0,77 µm (PAN) 1- 0,42 a 0,50µm 2- 0,52 a 0,60 µm 3- 0,61 a 0,69 µm 4- 0,76 a 0,89 µm Resolução temporal 45 dias Largura da faixa de imageamento 35 x 35 km (pan) e 70 x 70 km (multiespectral) 2.4.7 SATÉLITE WORLDVIEW - 3 O WorldView-3 é o mais recente satélite da constelação DigitalGlobe, líder mundial em imagens de alta resolução. É o primeiro satélite capaz de adquirir imagens de alta resolução com capacidade super-espectral, levando a bordo um sensor SWIR (SWIR - Short-wave Infra Red ou Infravermelho em ondas curtas) e um sensor CAVIS (Clouds, Aerosols, Vapors, Ice, and Snow ou Nuvens, Aerossóis, Vapor de água, Gelo e Neve). Começou a disponibilizar imagens em fevereiro de 2015, com 30 centímetros de resolução espacial. Possui 8 bandas multiespectrais. Possui a capacidade de coleta de imagens estereoscópicas, o que possibilita a obtenção de Modelos de Elevação com altíssima acurácia. Possui o sensor SWIR, também com 8 bandas, capazes de penetrar em névoa, fumaça, poluição e poeira. Isto possibilita a identificação de alvos altamente desfavorecidos por interferência atmosférica. Possui também 12 bandas CAVIS que corrigem inconsistências causadas por interferência de nuvens, vapor de água, dentre outras. 31 Tabela 9 – Características do Sensor Alos. Resolução espacial Pancromático: 0,31m Multiespectral: 1,24m SWIR: 3,70m CAVIS: 30m Resolução espectral PRISM (PAN) AVNIR-2 (multiespectral) Pancromático: 450-800 nm Multiespectral (8 bandas): Costal: 400-450 nm Azul: 450-510 nm Verde: 510-580 nm Amarelo: 585-625 nm Vermelho: 630-690 nm Borda Vermelho: 705-745 nm Near-IR1: 770-895 nm Near-IR2: 860-1040 nm SWIR (8 Bandas): SWIR-1: 1195-1225 nm SWIR-2: 1550-1590 nm SWIR-3: 1640-1680 nm SWIR-4: 1710-1750 nm SWIR-5: 2145-2185 nm SWIR-6: 2185-2225 nm SWIR-7: 2235-2285 nm SWIR-8: 2295-2365 nm CAVIS (12 Bandas): Desert Clouds: 405-420 nm Aerosol-1: 459-509 nm Verde: 525-585 nm Aerosol-2: 635-685 nm Water-1: 845-885 nm Water-2: 897-927 nm Water-3: 930-965 nm NDVI-SWIR: 1220-1252 nm Cirrus: 1365-1405 nm Snow: 1620-1680 nm Aerosol-1: 2105-2245 nm Aerosol-2: 2105-2245 nm Largura da faixa 13,1km no nadir Figura 24 – Exemplo de imagem WorldView - 3. Fonte: DigitalGlobe 32 2.5 PRINCIPAIS PROCEDIMENTOS PARA USO DAS IMAGENS DE SATÉLITE 2.5.1 VISUALIZAÇÃO DAS IMAGENS EM COMPOSIÇÃO COLORIDA Utilizando software adequado, converte-se o número digital (ND) encontrado em cada pixel em cor ou em nível de cinza a partir de tabelas de conversão. Está técnica de realce, que é provavelmente a mais comum pela sua utilidade e facilidade de implementação, consiste em combinar três imagens diferentes cujos NDs foram coloridos por cores primárias para produzir uma composição colorida. Por produzir uma integração dos dados em diferentes bandas espectrais, uma combinação colorida aumenta a quantidade de informações que pode ser visualizada e interpretada, já que o sistema visual humano pode ver uma gama muito maior de matrizes de cor do que apenas níveis de cinza. Para representar uma única faixa espectral usa-se um canal com uma das três cores primárias (vermelho (R), verde (G) e azul (B)) ou com a variação de preto até branco. Se a imagem a ser convertida tiver resolução radiométrica de 8 bits, teremos ND variando de 0 a 255 conforme já apresentado acima. Para entender a representação dos tons de cada cor ou da soma de cor, devemos recordar as leis da colorimetria, associando a cada cor primária, o valor máximo do número digital: (R) (G) (B) 255 0 0 = vermelho puro 0 255 0 = verde puro 0 0 255 = azul puro (R) (G) (B) 0 255 255 = cian (verde + azul) 255 0 255 = magenta (vermelho + azul) 255 255 0 = amarelo (vermelho + verde) (R) (G) (B) 0 0 0 = preto 255 255 255 = branco 2.5.2 FUSÃO DE BANDAS As técnicas de fusão de bandas de imagens de satélite de diferentes resoluções espaciais visam obter uma imagem melhorada, com melhor definição dos detalhes espaciais, o que possibilita melhor interpretação visual e análise automática ou semiautomática. Ainda poderíamos dizer que a fusão de bandas visa combinar a resolução espacial mais refinada da banda pancromática (melhor resolução espacial) com a informação espectral das bandas multiespectrais conforme Figura 25. Conforme SCHNEIDER et al. (2003) existem diferentes métodos de fusão propostos para efetuar a fusão de imagens de sensores de média resolução espacial 33 como o Landsat TM e SPOT. O lançamento do satélite IKONOS tornou possível a obtenção de imagens de alta resolução espacial (1 metro no modo pancromático) que contém informação espacial para várias aplicações de mapeamento e análise de áreas urbanas. Entretanto, a imagem multiespectral, que proporciona informação espectral importante para aplicações temáticas, é obtida com resolução espacial de 4 metros. Os principais métodos propostos para tal finalidade são: Substituição, Transformação HSV, Transformação IHS, Substituição da Componente Principal e Filtragem Passa-Alta. Bandas Multiespectrais Bandas Pancromáticas Bandas Multiespectrais Híbridas Figura 25 – Representação do processo geral de fusão de bandas. Imagens de satélite de alta resolução são adquiridas de dois diferentes modos: no modo pancromático (PAN) com resolução espacial de 1 metro (IKONOS) ou de 0,7 metro (Quickbird), ou no modo multiespectral (MS) com resolução espacial de 4 metros + Processo de Fusão 34 (IKONOS) ou de 2,5 metros (Quickbird). As imagens PAN contêm informação espacial adequada para aplicações de mapeamento de média a grande escala e para análise de áreas urbanas. Entretanto, a imagem multiespectral dos sensores de alta resolução espacial contém bandas que englobam a região visível e a região do infravermelho próximo do espectro eletromagnético, contendo informação espectral para aplicações temáticas. A tabela 1 apresenta as bandas espectrais de sensores de alta resolução, bem como as bandas espectrais do sensor ETM do Landsat 7 e do satélite SPOT 5 (SCHNEIDER et al., 2003). 2.5.3 CORREÇÃO GEOMÉTRICA Um tipo de distorção que as imagens originais dos sensores apresentam são as chamadas distorções geométricas, que diminuem a precisão da informação. Uma série de aplicações destes sensores faz com que seja necessária a correção dos mesmos. Algumas das distorções geométricas são causadas pelos deslocamentos sofridos pelo sistema de eixos do sensor que proporcionam um não alinhamento das varreduras consecutivas. Outras distorções são provocadas pela variação da altitude do satélite, com distorção na escala, e pela variação da velocidade da plataforma, com consequente superposição negativa ou positiva das varreduras consecutivas. Ainda, quando a superfície do terreno varrida pelo espelho não é normal à órbita do satélite, pode ocorrer um arrasto no sentido transversal à varredura. As imagens produzidas por sensores remotos apresentam uma série de distorções espaciais, resultantes dos seguintes fatores:• Rotação da Terra • Curvatura da Terra • Movimento do espelho de imageamento • Variações de altitude, posição e velocidade da plataforma. • Distorção de panorama • Distorção topográfica As imagens têm, portanto, erros geométricos sistemáticos e não-sistemáticos. Dois tipos de correções são frequentemente usados, a retificação e o registro de imagens. O processo de retificação de imagem faz a transformação da imagem planimetricamente. A geometria de uma imagem tem um sistema de coordenadas digital x, y (linhas e colunas) que não é planimétrico. Para tornar a imagem planimétrica, se transforma coordenadas do sistema digital para o sistema referencial que é sempre no centro da imagem fixando assim a origem do sistema referencial, a partir daí se usa uma das transformações geométricas para se transformar as coordenadas no sistema desejado, por exemplo, UTM. As transformações geométricas são: translação, transformação ortogonal, transformação isogonal, transformação afim, transformação projetiva e transformação polinomial. A escolha das transformações se dá pelas 35 características apresentadas pela imagem. A figura a seguir mostra as características de cada transformação. Converte-se o sistema de coordenadas x, y da imagem para um sistema de coordenadas padrão nos mapas, por exemplo, o sistema de coordenadas UTM. Isto pode ser feito associando-se pontos de um mapa padrão, aos mesmos pontos da imagem a ser retificada. No entanto, isto não remove distorções causadas pela topografia e deslocamentos do relevo nas imagens. O registro de imagens (mosaico) é o processo que envolve a superposição de uma mesma cena que aparece em duas ou mais imagens distintas, de tal modo que os pontos correspondentes nestas imagens coincidam espacialmente. O objetivo do registro é manipular os dados não diretamente correlacionados, como sobrepor imagens obtidas por diferentes sensores, sobrepor imagens de diferentes épocas, ou de diferentes tomadas. Os mesmos princípios de processamento de imagens são usados para a retificação e o registro de imagens. A diferença é que na imagem retificada a referência é um mapa, com uma projeção cartográfica específica, enquanto que no registro de imagem a referência é outra imagem. Essas distorções geométricas podem ser corrigidas através do uso de determinados modelos matemáticos que descrevam as distorções existentes nos dados. Após a aquisição dos coeficientes deste modelo, uma função de mapeamento é criada para a construção da nova imagem corrigida. O principal instrumento utilizado para correção geométrica é o modelo polinomial, onde o ponto de controle é o elemento principal. O ponto de controle pode ser definido como sendo uma característica detectável na imagem (objeto identificável, alvo específicos), com localização geodésica precisamente conhecida e preferivelmente invariável com o tempo. O desempenho desses pontos depende do seu número, distribuição e precisão de localização. Abaixo na Figura 26 estão representados alguns pontos coletados no trabalho de PAULINO et al. (2002) e na Tabela 10 os dados dos pontos coletados. Figura 26 – Representação dos pontos de controle coletados. 36 Tabela 10 - Exemplo de pontos de controle e erros residuais. Linha Coluna X Y Erro Residual (Pixel) 3.369,27 2.521,06 634.115,30 6.777.363,00 0,38396 1.920,05 3.278,67 590.731,30 6.800.065,00 0,32888 2.382,41 4.277,87 604.646,70 6.830.059,00 0,92176 3.195,25 4.127,28 628.936,90 6.825.519,00 1,27358 3.612,31 4.131,28 641.457,50 6.825.658,00 0,33927 3.581,81 3.455,69 640.557,30 6.805.392,00 1,09761 3.786,23 3.214,44 646.650,00 6.798.160,00 0,44913 3.742,42 2.917,06 645.297,00 6.789.284,00 1,2396 4.293,42 3.496,19 661.849,00 6.806.622,00 0,09999 4.362,43 4.453,32 663.958,00 6.835.316,00 0,20935 Erro Médio Quadrático (RMS) = 0,764154 pixel Fonte: PAULINO (2002) O número é importante na determinação do grau do polinômio do modelo matemático. Quanto à distribuição, se os pontos de controle não estiverem bem distribuídos na imagem, podem ocorrer faixas sem informações das distorções, dificultando a correção. O ideal é que a imagem tenha um grande número de pontos de controle bem distribuídos e com coordenadas geodésicas e de imagem precisamente conhecidas. 2.5.4 CORRECAO RADIOMÉTRICA As imagens apresentam em geral degradações radiométricas, em função de desajustes na calibração dos detectores, erros esporádicos na transmissão dos dados e influências atmosféricas. Esta correção radiométrica de imagens visa corrigir estas degradações e é uma das mais importantes fases do processamento digital, pois caso estas imperfeições não sejam removidas, poderão ser enfatizadas. A atmosfera é outro provocante de degradações nas imagens brutas, muitas vezes comprometendo a análise e interpretação das mesmas. A intensidade da influência atmosférica depende do comprimento de onda, ou seja, varia de banda para banda, e a sua correção na imagem pode ser feita a partir de um modelo matemático. Esses modelos matemáticos são de difícil aplicação porque normalmente os parâmetros atmosféricos requeridos no modelo geralmente são desconhecidos. Em geral estes parâmetros são referentes à hora e data da passagem do sensor para coleta de informações como, por exemplo, o angulo da elevação solar. O efeito do ângulo de elevação solar é também muito significativo uma vez que em geral varia entre 30 a 60 graus. O seno deste ângulo será multiplicado pela radiância registrada pelos sistemas sensores a bordo de satélites alterando em muito o número digital. As principais correções radiométricas são: o "stripping" (padrão sucessivo de linhas horizontais que aparecem na imagem, devido, por exemplo, à diferença ou desajuste de calibração dos detectores) e o "dropedlines" ou linhas com ausência de 37 informação (padrão horizontal anômalo na imagem que ocorre pela perda de informações quando da gravação ou transmissão defeituosa ou ainda no processamento posterior dos dados), eliminação de ruídos e restauração e correção atmosférica. Há várias formas de degradação ou ruídos radiométricos em uma imagem. Os ruídos podem ser classificados como do tipo coerente e aleatório. Ruídos coerentes são aqueles que mostram um padrão sistemático, e aleatório são aqueles que não tem nenhum padrão. As “faixas ruins" são devido à má qualidade dos valores de níveis de cinza dos pixels ou mesmo da perda total de informação ao longo de uma linha (ou coluna) de uma determinada banda. Estes problemas são provocados pela saturação de algum detector ou problemas na aquisição, registro, transmissão ou processamento de dados em terra. Este autor apresenta que uma forma simples de solucionar este problema é estimar os valores dos pixels da linha com defeito usando os valores dos pixels das linhas anterior e posterior (cima e abaixo). Este método se baseia na hipótese da existência de correlação espacial entre os dados. Ou seja, pixels próximos entre si tendem a ter valores parecidos ou similares. Ainda, conforme o mesmo, o método mais usado para substituir ou recompor os pixels degradados, é através da simples interpolação dos valores médios dos pixels correspondentes das linhas anterior e posterior. Pode-se também tomar a média local destas linhas, e caso a diferença dessas médiasseja maior que um limiar, o ponto ou os pontos ruidosos têm seus valores adicionados dessa diferença. 2.5.5 ORTORETIFICAÇÃO PEDRO et al. (2007) diz que o termo retificação advém dos conhecimentos da Fotogrametria, da metodologia de retificação de imagens que segundo ANDRADE (1998), é o processo de eliminação dos efeitos de inclinação da plataforma, representados pelos ângulos. Segundo HATORI et al. (2000, p.2), a ortoimagem é obtida a partir da ortorretificação, que consiste na correção da imagem devido a diversas distorções, especialmente as causadas pela posição do satélite, pela superfície física da Terra (relevo e curvatura) e pela projeção cartográfica. A ortorretificação pode ser feita desde que sejam conhecidas a inclinação, posição e distorção do satélite no instante da tomada da imagem, é possível restabelecer o centro de projeção e calcular as coordenadas de terreno de pontos desta imagem. Nesta mesma imagem, aplica-se uma correção nesta imagem que usa como molde um MDT (Modelo Digital do Terreno - malha de coordenadas). A partir deste instante, pode ser usada como um mapa e passa a ser chamada ortoimagem. Uma ortoimagem é uma imagem que foi retificada diferencialmente para remover qualquer distorção de geometria (posição e inclinação) e deslocamentos devido ao relevo e curvatura terrestre. A produção de ortoimagens atingiu um alto nível de desenvolvimento e as ortoimagens digitais são usadas em muitos países como suporte para as tarefas clássicas de um mapa. As principais vantagens são: A ortoimagem não está pré-interpretada como um mapa. Isto dá oportunidade ao usuário de extrair as informações desejadas a qualquer momento. 38 A qualidade da ortoimagem é a mesma de um mapa com a vantagem da riqueza de dados apresentados. Fornece ao usuário uma visão do terreno muito mais compreensível que um mapa. Neste processo, deve necessariamente haver um modelo digital do terreno (MDT) sem o qual não seria possível a correção devido ao relevo. O MDT nada mais é que uma representação matemática da distribuição espacial da característica de um fenômeno vinculada a uma superfície real. A superfície é em geral contínua e o fenômeno que representa pode ser variado. Dentre alguns usos do MDT pode-se citar (BURROUGH, 1986): o Armazenamento de dados de altimetria para mapas topográficos; o Análises de corte-aterro para projeto de estradas e barragens; o Elaboração de mapas de declividade e exposição para apoio a análise de geomorfologia e erodibilidade; o Análise de variáveis geofísicas e geoquímicas; o Apresentação tridimensional (em combinação com outras variáveis). O princípio da geração de ortoimagens pode ser obtido através do método de retificação diferencial de imagens, que consiste basicamente em atribuir valores de cinza da imagem de Sensoriamento Remoto a cada pixel do Modelo Digital do Terreno. Sendo assim, as coordenadas tridimensionais (X, Y, Z) de cada pixel do MDT são transformadas para o espaço da imagem, utilizando para isso um modelo matemático de mapeamento, obtendo-se as coordenadas de (x, y), o valor de cinza é obtido através de uma interpolação, por um método de reamostragem de pixels e em seguida armazenado nas mesmas coordenadas (X, Y) do MDT gerando a ortoimagem. Conforme OSTMAN (1984) citado por PEDRO et al. (2007) define o MDT como a representação da superfície topográfica por meio de um conjunto de coordenadas ou pontos amostrados da superfície real e algoritmos, capazes de reconstruir a partir destes a superfície real. A elaboração do modelo matemático consiste no agrupamento dos dados que descrevem a superfície real, em unidades lógicas denominadas de estruturas de dados e na determinação de funções de interpolação, de forma que todo o conjunto simule de modo idealizado o comportamento da superfície original. São muitas as formas de elaboração dos modelos digitais. De forma geral, os pontos são interligados formando polígonos e posteriormente poliedros. Os vértices destes poliedros são os pontos amostrados. Podem-se obter vários tipos de poliedros onde os mais utilizados são a triangulação (TIN – Triangular Irregular Network) e a malha regular. 2.5.6 CLASSIFICAÇÕES DIGITAIS DE IMAGENS Classificação, em sensoriamento remoto, significa a associação de pontos de uma imagem a uma classe ou grupo, por exemplo, água, cultura, área urbana, reflorestamento, cerrado entre outros. Ou, ainda, o processo de reconhecimento de classes ou grupos cujos membros exibem características comuns. 39 Ao se classificar uma imagem, assume-se que objetos/alvos diferentes apresentam propriedades espectrais diferentes e que cada ponto pertence a uma única classe. Além disso, os pontos representativos de certa classe devem possuir padrões próximos de tonalidade e textura. A classificação pode ser dividida em supervisionada e não-supervisionada. Classificação supervisionada - é utilizada quando se tem algum conhecimento sobre as classes na imagem, quanto ao seu número e pontos na imagem representativos dessas classes. Antes da fase de classificação propriamente dita, o analista obtém as características das classes; por exemplo, média e variância de cada classe, que serão utilizadas como termos de comparação na classificação, fase essa denominada de treinamento. Os principais algoritmos de classificação supervisionada disponíveis são o single-cell e o maxver. Ainda, mais recentemente surgiu a classificação orientada ao objeto que se baseia em outros fundamentos de classificação. A classificação neste caso é geralmente aplicada para imagens de alta resolução espacial e diferem das classificações comuns, pois permite associar graus de pertinência entre a os objetos classificados e as classes sugeridas pela classificação. No método comum somente existe a possibilidade de pertencer ou não pertencer. Abaixo nas Figuras 27 e 28 estão apresentados alguns exemplos de classificações supervisionadas. Classificação não-supervisionada - é utilizada quando não se tem informações sobre a área imageada, por exemplo, não se dispõe de dados prévios sobre o número de classes presentes. As classes são definidas no algoritmo de classificação. O algoritmo mais utilizado neste tipo de classificação é o k-médias. Embora tenha-se tentado utilizar essas técnicas de classificação para geração do mapa de uso da terra não conseguimos bons resultados, uma vez que somente as áreas com presença de reflorestamento eram classificadas com precisão razoável, existindo grande confusão entre as demais categorias (pastagem/agricultura, cerrado/cerrado degradado, entre outros.). 40 Figura 27 – Exemplo de classificação orientada para detecção de áreas de bracatingais. Figura 28 – Representação (a) do mosaico das imagens de satélite da região; (b) classificação final para os plantios florestais. O principal objetivo da operação de classificação é gerar mapas temáticos além de agilizar a análise que, sem estes algoritmos, se faria visualmente. Deste modo, por meios refinados ou grosseiros, reúnem-se pixels com aspectos semelhantes em classes (Figura 28). Os métodos grosseiros são basicamente a segmentação e o método do paralelepípedo que classificam uma faixa espectral de cada vez. Os métodos mais refinados usam modelos estatísticos para reunir pixels com aspectos semelhantes. Bracatingais Mistos Bracatingais Puros 5 - 10 anos 10 - 15 anos >15 anos Legenda: 41 Figura 29 – Representação esquemática das possibilidades de classificação das imagens. 2.5.7 ACURÁCIA Dentre os primeiros métodos de obter ou calcular a acurácia destacam-se os coeficientes de Concordância Kappa e o de Concordância de Tau que serão apresentados abaixo. O coeficiente Kappa como um coeficiente de concordância para escala nominais que pede a proporção de concordânciadepois que a concordância atribuída a casualidade é retirada de consideração. O coeficiente Kappa considera todos os elementos da matriz de erros ao invés de apenas aqueles que se situam na diagonal principal da mesma, ou seja, estima a soma da coluna e linha marginais. Este coeficiente Kappa pode apresentar valores entre -1 e +1. A interpretação do coeficiente é a seguinte: K = 1 a classificação é absolutamente correta, ou seja foi observado uma concordância de 100%; K = 0 a classificação não apresenta melhoramentos em relação à concordância esperada; K < 0 significa, que não ocorre uma discriminação entre as classes; K > 0 a concordância observada foi maior do que a concordância esperada. Georreferenciamento da Imagem Correção Radiométrica CLASSIFICAÇÃO Interpretação Visual Classificação Automática Supervisionado Não Supervisionado Tradicional Orientado ao Objeto Ajustes Necessários nas Classificações Avaliação do desempenho das Classificações Avaliação do desempenho das Classificações 42 Já o coeficiente de Concordância Tau, utiliza-se da probabilidade a priori, sendo que a probabilidade esperada é obtida antes da elaboração da matriz de confusão. Este coeficiente considera o método de classificação digital adotado na imagem, ponderando, portanto, se a classificação digital foi efetuada com base na mesma probabilidade para todas as classes temáticas ou não. Para definição das áreas a serem visitadas pode-se elaborar um grid sistemático de pontos a serem visitados dentro da área alvo visando checar a veracidade da informação gerada (Figura 30). Figura 30 – Exemplo de amostragem para verificação de acurácia. Fonte: SIQUEIRA et al. (2008) 2.5.8 ÍNDICES DE VEGETAÇÃO O sensoriamento remoto vem sendo usado por cientistas desde a década de 1960 para extrair e modelar os aspectos e parâmetros biofísicos da vegetação. Muitos dados são adquiridos através do uso de índices de vegetação que são medidas radio métricas adimensionais, as quais indicam a abundância relativa e a atividade de vegetação verde, incluindo índice de área foliar (IAF), porcentagem de cobertura verde, teor de clorofila, biomassa verde, e radiação fotossinteticamente ativa absorvida (RFAA). Idealmente um índice de vegetação deve: 43 Maximizar a sensibilidade e parâmetros biofísicos das plantas, preferencialmente de uma forma linear, para que essa sensibilidade seja fidedigna para uma grande amplitude de condições da vegetação e para facilitar a validação e a calibração de índices; Normalizar ou modelar efeitos externos tais como ângulo solar, o ângulo de visada e as interferências atmosféricas, de modo a permitir comparações espaciais e temporais; Normalizar efeitos internos, tais como variações no substrato abaixo do dossel, incluindo topografia (declividade e aspecto), solos, e diferenças quando a vegetação senescente ou presença de ramos lenhosos (componentes não-fotossintéticos); Ser acoplável a algum parâmetro biofísico mensurável, tais como a biomassa, o IAF, ou RFAA, para fins de validação e de controle de qualidade. Existem muitos índices de vegetação, vários funcionalmente equivalentes (redundantes) em termos de conteúdos de informação e alguns provêm informações biofísicas singulares. Muitos índices fazem uso da relação inversa entre a reflectância no vermelho e no infravermelho próximo associada com a vegetação verde sadia. Os principais Índices de Vegetação comumente aplicados são: Razão Simples - RS Índice de Vegetação por Diferença Normalizada - NDVI Índice de Vegetação Realçado - EVI Novo Índice de Vegetação - NVI Índice de Vegetação Ajustado ao Solo - SAVI Tasseled Cap RAZÃO SIMPLES - RS COHEN (1991) sugere que o primeiro índice de vegetação verdadeiro foi a Razão Simples (SR), que é a razão entre o fluxo radiante refletido no infravermelho próximo (ρ nir) e o fluxo radiante refletido no vermelho (ρ red) como é descrito por BIRTH e MCVEY (1968): red nir SR O SR fornece valiosas informações sobre a biomassa da vegetação sobre o IAF. Ele é especialmente sensível a variações em biomassa ou em IAF para vegetação de grande biomassa, tais como florestas. ÍNDICE DE VEGETAÇÃO POR DIFERENÇA NORMALIZADA – NDVI O Índice de Vegetação por Diferença Normalizada (NDVI) é um indicador numérico simples que podem ser usados para analisar medidas de sensoriamento 44 remoto, geralmente, mas não necessariamente a partir de uma plataforma espacial, e avaliar se o alvo a ser observado contém vegetação verde vivo ou não. O NDVI é funcionalmente equivalente ao SR, isto é, praticamente não há dispersão num gráfico de SR x NDVI. O NDVI foi amplamente adotado e aplicado para dados MSS do Landsat usando o artifício de adicionar 0,5 ao NDVI para evitar valores negativos e empregando a raiz quadrada do resultado para estabilizar a variância. rednir rednir NDVI ÍNDICE DE VEGETAÇÃO REALÇADO - EVI Em inglês este índice é denominado “Enhanced Vegetation Index” por isso da sigla “EVI”. O “MODIS Land Discipline Group” desenvolveu o EVI para uso com dados do sensor MODIS: )1( *2*1* ** L LblueCredCnir rednir GEVI O EVI é um NDVI modificado, contendo um fator de ajuste para solos (L), e dói coeficiente (C1 e C2), que descrevem o uso da banda azul para correção da banda vermelha quanto ao espalhamento atmosférico por aerossóis. Esses coeficientes (C1, C2 e L) são empiricamente determinados, assumindo valores de 6,0; 7,5; e 1,0, respectivamente. G é um fator de ganho ajustado em 2,5. Este algoritmo tem melhorado a sensibilidade para regiões de alta biomassa, permitindo um melhor desempenho do monitoramento da vegetação através da diminuição da influência do sinal proveniente do substrato abaixo dossel, e através da redução da influência atmosférica. Os dois índices de vegetação MODIS, o NDVI e o EVI, são produzidos nas resoluções de 1 x 1 km e 500 x 500 m (ocasionalmente em 250 x 250m) usando composições de imagens obtidas em períodos de dezesseis dias. NOVO ÍNDICE DE VEGETAÇÃO – NVI Em inglês este índice é denominado “New vegetation Index” (NVI). As bandas no infravermelho encontradas nos sensores TM/Landsat, AVHRR/NOAA e LISS posicionam- se na região de 770 a 860 nm, 760 a 900 nm e 725 a 1100 nm, respectivamente. Infelizmente essas regiões infravermelhas incluem bandas de absorção pelo vapor d’água. Visando melhorar o monitoramento da biomassa do NDVI, resolveram retirar as bandas de absorção do vapor d’água criando assim o Novo Índice de Vegetação (NVI) 673 747777 NVI 45 Onde: ρ 777, ρ 747 e ρ 673 são as refletâncias centradas em 777, 747 e 643 nm, respectivamente, usando dados hiperespectrais com larguras de bandas entre 3 e 10 nm. ÍNDICE DE VEGETAÇÃO AJUSTADO AO SOLO – SAVI Em inglês este índice é denominado “Soil Adjusted Vegetation Index” (SAVI). A utilidade do Índice de Vegetação Diferença Normalizada (NDVI) e outros índices para avaliação de vegetação terrestre via dados aéreos e de satélites foi demonstrada nas últimas três décadas. A análise de series temporais de dados NDVI sazonais tem fornecido métodos para estimação da produção primaria liquida para vários tipos de biomas, bem como para monitoramento de padrões fonológicos de superfícies terrestres vegetadas e para a avaliação de duração dos ciclos biológicos e da velocidade de secagem (ou perda de água pelos grãos) após a maturação fisiológica. Infelizmente, estudos realizados demonstraram que os produtos NDVI derivados empiricamente podem ser instáveis, variando com a cor do solo e com as condições de umidade, e com efeitos da função distribuição de reflectância bidirecional (FDRB), com as condições atmosféricas e com a presença de material no próprio dossel. Desta forma tem sido dada ênfase ao desenvolvimento de índices de vegetação
Compartilhar