Baixe o app para aproveitar ainda mais
Prévia do material em texto
CAPÍTULO 6 – TRANSFORMAÇÕES MULTIESPECTRAIS Imagem NDVI de Brasilia - DF 6.1 OPERAÇÕES ARITMÉTICAS ENTRE BANDAS 6.1.1 Adição de imagens Redução de ruído Redefinição de uma nova banda multiespectral Combinação de resultados de outros tipos de processamento 6.1.2 Subtração de imagens Identificação de diferenças sutis Detecção de padrões de mudança da cobertura 6.1.3 Razão entre bandas Reduzir o efeito de iluminação Reduzir o efeito atmosférico Calcular índice de vegetação Realçar alvos de interesse 6.2 TRANSFORMAÇÃO DE COMPONENTES PRINCIPAIS 6.2.1 Modificações da TCP Análise Canônica Realce por Decorrelação 6.3 MODELO LINEAR DE MISTURA DE PIXELS 73 6.1 Operações Aritméticas entre Bandas Em processamento digital de imagens, várias operações matemáticas simples são usadas para analisar imagens multi-espectrais e/ou multi-temporais. Normalmente, são utilizadas duas ou mais imagens de uma mesma área geográfica, sempre previamente co-registradas (isto é, cada pixel das duas imagens se refere exatamente à mesma área no terreno). A operação é realizada pixel a pixel, através de uma regra matemática definida pelo usuário, tendo como resultado uma banda representando a combinação das bandas originais. Estas operações permitem a compressão de dados, diminuindo o número de bandas e também uma melhor discriminação de pequenos detalhes não muito perceptíveis nas bandas separadamente. Os resultados das operações podem ultrapassar o intervalo de 0-255, sendo estes resultados automaticamente normalizados, saturando os valores abaixo de 0 e acima de 255 em 0 e 255, respectivamente. Estas operações podem requerer um fator de ganho (multiplicativo) ou off- set (aditivo) para melhorar a qualidade de contraste da imagem. A definição destes valores depende da habilidade do usuário na definição das operações entre bandas e das características espectrais das bandas utilizadas. De uma maneira geral, a operação de adição é utilizada para realçar as similaridades porventura existentes entre duas bandas e a subtração, multiplicação e divisão são utilizadas mais para realçar diferenças espectrais. 6.1.1 Adição de imagens A adição de imagens é a mais simples das operações envolvendo duas ou mais imagens. Pela natureza do processo de adição, está é uma operação linear. Uma vez que os valores de intensidades das imagens a serem somadas se situam no intervalo 0-255, o resultado da adição de N imagens vai estar situado no intervalo 0-255 x N. Portanto, alguma forma de compressão de contraste se faz necessário para que a imagem resultante possa ser mostrada em um monitor de vídeo de 8 bits, comum aos sistemas de processamento de imagem. Isso é, geralmente, obtido dividindo-se o resultado da operação de adição por N, produzindo uma compressão para o intervalo 0-255. Uma outra forma de normalização é determinar os NC’s máximo e mínimo da imagem resultante, e usá-los para determinar o fator de escala e assim obter uma nova imagem com NC’s no intervalo 0-255. A seguir vamos citar algumas aplicações desta operação. Redução de ruído A adição pode ser vista como uma forma de se obter a média aritmética entre as imagens que estão sendo operadas. O ruído eletrônico das imagens ópticas, geralmente, não é correlacionado entre as diferente bandas espectrais. Isso quer dizer que, considerando os pixels individualmente em cada banda espectral da imagem, se numa dada banda um determinado pixel apresenta-se com ruído, é muito provável que nas demais bandas isso não ocorra. Ao se tirar a média aritmética entre duas bandas o ruído é reduzido, uma vez que os valores dos NC’s para esses pixels serão determinados pela média dos pixels, com e sem ruído. Processamento Digital de Imagens74 Redefinição de uma nova banda multiespectral A redefinição de uma nova banda multiespectral é particularmente útil quando se deseja identificar um objeto ou fenômeno que seja caracterizado por feições espectrais bastante largas em termos do intervalo de comprimento de ondas, que extrapolam uma ou mais bandas de um sensor. Neste caso, pode ser útil a redefinição de uma "nova" banda, a partir da média, digamos, das três bandas da faixa visível do TM (bandas 1, 2 e 3). Considerando que já existem em operação sensores aerotransportados com até 256 bandas espectrais e que nos próximos anos deverão existir sensores similares em operação a nível orbital, constata-se que a redefinição de bandas por adição poderá vir a assumir importância dentre as técnicas de processamento comumente utilizadas. Usando-se como exemplos os satélites atuais, essa técnica pode ser utilizada para produzir uma imagem pancromática com as bandas 1, 2 e 3 do TM e compará-la com outras imagens pancromáticas, tais como as produzidas pelo SPOT/Pan. Um exemplo de simulação de banda pancrmática pode ser visto no trabalho de Mascarenhas et al. (1991). Os autores têm simulado uma banda pancromática SPOT a partir da bandas multi-espectrais SPOT e comparado com a banda pancromática SPOT original. Combinação de resultados de outros tipos de processamento Um exemplo disso é a adição de uma imagem original à sua versão submetida a um filtro de convolução para realce de bordas. Esse processo permite combinar a informação tonal da imagem original com a informação textural da imagem filtrada, produzindo uma imagem com ótimas características de interpretação. 6.1.2 Subtração de imagens A subtração de imagens têm como objetivo principal o realce de pequenas diferenças espectrais refletidas pelas diferenças dos NC’s. Da mesma forma que a adição, a subtração representa também uma operação linear cujos resultados vão produzir intensidades fora do intervalo [0-255] (o intervalo neste caso é de -255 a +255) necessitando portanto de um ajuste de contraste. Esse ajuste é implementado adicionando-se 255 ao resultado, o que vai produzir um novo intervalo 0-510, e dividindo-se este por 2, retornando portanto ao intervalo 0-255. A seguir temos algumas aplicações. Identificação de diferenças sutis Alguns exemplos são a identificação de diferentes tipos de cobertura vegetal utilizando os comprimentos de onda relativos ao infravermelho próximo, através por exemplo da diferença entre as bandas 6 e 7 do MSS, e a quantidade de vegetação presente usando a diferença MSS7-MSS5. Outro exemplo é a identificação de minerais formado por óxidos de ferro, que exibem alta reflectância no vermelho e baixa reflectância no azul, de forma que uma diferença entre as bandas 3 (equivalente ao vermelho) e a 1 (azul) do TM vai realçar as áreas com solos ricos em material ferruginoso tais como formações lateríticas (Crosta, 1992). Conhecendo-se as curvas de comportamento espectral dos alvos de interesse, assim como as bandas dos sensores disponíveis, é possível traçar uma estratégia de realce de diferenças espectrais, usando-se a operação de subtração de bandas. 75 Fig. 6.1 - Aplicação da operação de adição: (a) imagem original 256x256 pixels; (b) filtro laplaciano; (c) imagem filtrada pela máscara em (b); (d) soma da imagem original em (a) e imagem filtrada em (c). Detecção de padrões de mudança da cobertura Essas mudanças da cobertura podem significar uma infinidade de fenômenos tais como desmatamento, mudanças no uso do solo, diferenças sazonais na vegetação, expansão de áreas urbanas, diferenças no sombreamento topográfico devido à mudanças sazonais no ângulo de iluminação solar e muitas outras. Para isso são usadas duas imagens da mesma banda do mesmo sensor, porém tomadas em diferentes épocas. Aconselha-se a equalização da média e do desvio padrão das imagens antes da operação de subtração. Caso não seja adotado este procedimento o resultado da subtração entre as imagens pode não corresponder à diferença real entre elas. 0 -1 0 -1 4 -1 0 -1 0 (a) (b) (c) (d) Processamento Digital de Imagens766.1.3 Razão entre bandas Esta operação de pré-processamento é bastante utilizada para realçar feições de interesse e calcular índice de vegetação. Algumas aplicações são: Reduzir o efeito de iluminação Se esse efeito é considerado o mesmo em qualquer banda, a razão evidencia apenas o fator proveniente da reflectância do solo. Tal operação se baseia na modelagem da radiação recebida pelo satélite visto como um produto dos fatores de iluminação e reflectância. Se a iluminação em cada pixel é denotada por i e a reflectância nos pixels das bandas k e l são indicadas por kH e lH , respectivamente, a razão entre as bandas, l k l k k H H Hi Hi R == . . , resulta em uma nova imagem que é independe do fator de iluminação, no caso ideal. Reduzir o efeito atmosférico Considere, no caso ideal, que o efeito atmosférico possa ser modelado pela adição de uma constante, c, em toda a imagem. Portanto, o efeito de espalhamento atmosférico pode ser removido calculando-se o quociente das diferenças entre uma banda j e duas outras k e i da seguinte forma: ij kj ij kj jki HH HH cHicHi cHicHi R - - = +-+ +-+ = ).().( ).().( . A forma mais simples de calcular a constante devido ao espalhamento atmosférico para cada banda é a subtração de um valor de nível cinza, o qual representa o efeito de espalhamento. A determinação desse valor de nível cinza pode ser realizada empiricamente da seguinte forma. Escolhe-se regiões na imagem, a ser analisada, com águas profundas porque estas devem refletir a radiação solar, aparecendo com NC próximo a zero (águas rasas geralmente possuem sedimentos em suspensão, os quais refletem a radiação e, portanto, não servem para este propósito). Seleciona-se um valor de NC nesta região, que é tomado como a constante c na equação acima. Neste caso, é necessário que exista pelo ao menos uma área de águas profundas na imagem para que sejam definidos os valores a serem subtraídos de cada banda. Na falta destas, áreas de sombra topográfica intensa podem servir como uma aproximação. Deve-se ter cautela no uso desse quociente, pois a hipótese de espalhamento atmosférico igual em qualquer das bandas não é perfeitamente válida. Existem alguns problemas práticos com a divisão de bandas. Primeiramente, existe a questão do ruído eletrônico existente nas razões, o qual por ser não correlacionado entre as bandas, tende a ser exagerado pela divisão (um alto valor espúrio tanto no numerador quanto no denominador vai produzir um valor extremo, branco ou preto). O ruído, normalmente, presente em razões de banda pode ser removido usando-se filtros adequados. 77 Calcular índice de vegetação A razão entre as bandas visíveis e infra-vermelho próximo pode realçar diferenças espectrais entre solos e vegetação. Por este motivo, a razão entre estas bandas tem sido muito utilizada na estimação de biomassa e cobertura de vegetação. Existem várias formas de calcular a razão entre bandas, que são conhecidas por índice de vegetação. O cálculo de índice de vegetação mais simples é: red NIRRVI r r= onde NIRr e redr são os NC’s das bandas infravermelho próximo e vermelho, respectivamente. Outro índice de vegetação é dado por: redNIR redNIRNDVI rr rr + -= que é conhecido por índice de vegetação normalizado. Este índice é muito usado para monitorar cobertura de vegetação em escala global usando imagens AVHRR. Outras formas de calcular índices de vegetação podem ser vistas em Schowengerdt (1997). A Figura 6.2 mostra uma imagem de índice de vegetação, calculado pela razão entre as bandas 3 e 4 do sensor TM-5. As áreas mais clara indicam a presença de vegetação, enquanto as áreas mais escuras indicam a ausência de vegetação. Fig. 6.2 - Uma imagem TM-5 da região de Brasília, DF, ilustra o cálculo do índice de vegetação obtido pela razão entre as bandas 4 e 3. Áreas mais claras indicam a presença de vegetação. Realçar alvos de interesse Como já foi dito, a escolha das bandas e da operação apropriada pode levar a resultados interessantes para a aplicação de interesse. A razão entre bandas pode ser usada para realçar algum alvo de interesse. Por exemplo, se calcularmos a razão entre as bandas 2 e 5 de uma imagem TM, corpos d'água e alguma informação sutil de terra úmida podem ser identificadas, porque a banda 5 do TM tem uma resposta baixa para este tipo de alvo. Quando dividimos o NC Processamento Digital de Imagens78 da banda 2 pela o da banda 5, estamos realçando a informação na imagem resultante, pois o valor de NC resultante será maior. Sendo assim, os valores de NC’s mais claros na imagem razão estariam relacionados com a informação de água ou umidade 6.2 Transformação de Componentes Principais A Transformação de Componentes Principais (TCP) é baseada nas propriedades estatísticas da imagem. Ao contrário das outras transformações (razão, diferença), as quais são baseadas nas características físicas das cenas e experiência do usuário. O fundamento da TCP se baseia no fato de que, geralmente, as bandas de uma imagem multi-espectral são altamente correlacionadas. Duas imagens são ditas correlacionadas quando, dada a intensidade de um pixel em uma delas, pode-se deduzir com razoável aproximação a intensidade do pixel correspondente na outra imagem. Em outras palavras, as imagens são visualmente e numericamente similares. Em um gráfico de espaço de atributos, a correlação entre duas imagens é visto como uma distribuição de pontos ao longo da reta em uma direção próxima à diagonal. Duas imagens perfeitamente correlacionadas vão ter seu espaço de atributos representado por uma linha reta como mostrado na Figura 6.3(a). Um exemplo em que duas imagens apresentam uma correlação parcial é mostrado na Figura 6.3(b), em que a distribuição tem uma forma elipsoidal ao longo da direção da diagonal principal, mas com espalhamento finito. Fig. 6.3 - Distribuição dos NC’s em duas bandas espectrais. (a) bandas perfeitamente correlacionas; (b) bandas com um certo grau de correlação. Pode-se observar que no caso da Figura 6.3(a), tomando um pixel da imagem A, acha-se um único pixel correspondente na imagem B. No caso da Figura 6.3(b), acha-se um intervalo de valores de NC’s na imagem B correspondente a um único pixel da imagem A. Esse intervalo é inversamente proporcional à correlação entre as imagens. Como se pode observar, a predição de um pixel na imagem B a partir de outro na imagem A é mais direto no caso da Figura 6.3(a) do que no caso da Figura 6.3(b). Por isso, dizemos que as bandas com uma distribuição de níveis de cinza iguais ao da Figura 6.3(a) são mais correlacionadas que as bandas com uma distribuição similar ao da Figura 6.3(b). Imagem A Imagem B Imagem A Imagem B r=1 0 < r <1 79 A Figura 6.4 mostra dois gráficos de espaço de atributos em que as imagens são totalmente descorrelacionadas. Ou seja, não se é possível estimar um valor de NC de um pixel na imagem B conhecendo-se o valor de NC do mesmo pixel na imagem A. No caso da Figura 6.4(a), as duas imagens possuem valores de variância iguais, enquanto que no caso da Figura 6.4(b), a imagem A possui variância maior do que a imagem B. Imagem B m B Imagem A Imagem B Imagem A r @ 0 e VA=VB r @ 0 e VA>VB (a) (b) Fig. 6.4 - Espaço de atributos de imagens descorrelacionadas. As causas principais da existência de correlação são: 1. Sombreamento topográfico: o sombreamento afeta todas as bandas da mesma maneira, obscurecendo feições espectrais de interesse; 2. Sobreposição das respostas espectrais entre bandas adjacentes e 3. Baixa refletância de um alvo em uma determinada faixa espectral, ocasionando assinatura espectral similar deste alvo em todas as bandas dentro daquela faixa espectral. O fato das bandas de uma imagem serem correlacionadas, faz com que a capacidade de extraçãode informação, a partir destas bandas seja reduzida. A informação que uma banda contém é similar a das outras bandas, e portanto, as informações são redundantes, e não contribuem em muito na análise da imagem. A idéia da TCP é, a partir das bandas originais da imagem multi-espectral, gerar novas bandas descorrelacionadas, isto é, sem redundância de informação. Observando-se a Figura 6.4(b), podemos observar que para transformar a distribuição de NC’s bidimensional das imagens A e B da Figura 6.3(b) na da Figura 6.4(b), basta aplicar uma transformação de rotação dos eixos dos atributos. Esta transformação está ilustrada na Fig.6.4, e é exatamente esta operação que a TCP realiza ao transformar as bandas de uma imagem multi-espectral original em bandas descorrelacionadas entre si. Estas bandas descorrelacionadas são chamadas de componentes principais (CP). Então, na transformação de componentes principais, os eixos originais são rotacionados de modo que os NC’s nos eixos A e B sejam redistribuidos sobre um novo sistema de eixos CP1 e CP2. Esta operação de rotação é realizada matematicamente por uma transformação linear descrita a seguir. Processamento Digital de Imagens80 Fig. 6.5 - Transformação de componentes principais: os eixos originais são rotacionados de modo que os NC’s nos eixos canal 1 e canal 2 sejam redistribuidos sobre um novo sistema de eixos CP1 e CP2. Dada a imagem multi-espectral g com K bandas, as componentes principais (CP) g ¢ são calculadas pela seguinte operação linear: lil K li gwg 1= S=¢ pl ,...,2,1= onde i e l são os eixos dos atributos das imagens transformada e original respectivamente. ilw são os coeficientes aplicados a imagem original, ou seja são fatores de ponderação que definem a contribuição de cada banda original para uma CP em uma combinação aditiva linear (rotação). Portanto, as CP’s são uma combinação aditiva linear das bandas originais. Na notação vetorial a transformação pode ser escrita por: gWg .=¢ ppwW ji ´= ][ , 3=p ú ú ú û ù ê ê ê ë é = ú ú ú û ù ê ê ê ë é ¢ ¢ ¢ 333231 232221 131211 3 2 1 www www www g g g W é a matriz de transformação, que é obtida a partir da matriz de covariância da imagem original, de tal forma que a matriz de covariância da imagem transformada g' seja diagonal (o valor de covariância entre duas componentes diferentes é zero). Ou seja: TWKgWgK =¢ , onde Kg e Kg' são as matrizes de covariância de g e g', respectivamente. A matriz diagonal é representada por D, mostrada abaixo: D== Tgg WWKK T 81 ú ú ú û ù ê ê ê ë é =D 33 22 11 00 00 00 l l l (matriz diagonal) Os valores 11l , 22l e 33l são conhecidos por auto-valores da matriz de covariância Kg, que nada mais são do que os valores de variância das componentes principais. Os auto-valores representam o comprimento dos eixos das CP’s medidos em unidade de variância ( )332211 lll >> . Os valores da matriz W são os autovetores de Kg, e definem a direção dos eixos das componentes principais em relação ao sistema de coordenadas das imagens originais. A primeira CP contém o sombreamento topográfico de uma cena de satélite, ou seja, é uma imagem muito semelhante a uma vista "pancromática" da cena. O número de CP’s é igual ao número de bandas espectrais utilizadas e estas são ordenadas de acordo com o decréscimo da variância das CP’s, que está relacionada com o contéudo de informação. Além disso, a soma das variâncias das CP’s é igual a soma das variâncias das imagens originais.. O usuário pode selecionar as componentes que melhor caracterizam as informações a serem extraídas, reduzindo-se assim o número de bandas utilizadas no processamento (compressão de dados). Deve-se observar que, nem sempre, apenas as duas primeiras componentes principais guardam informações importantes. Pode acontecer de as últimas componentes principais, embora tenham baixa variância, conterem informações importantes como, por exemplo, uma feição geológica não bem discriminada na primeira componente. Para melhorar a composição colorida das componentes principais pode-se aumentar o contraste das componetes principais antes de fazer a composição. Sendo assim, a composição colorida das CP’s é uma das melhores, uma vez que não há correlação entre as imagens, e a composição colorida não possui tons de cinza mas apenas cores espectrais e intensamente saturadas. A primeira e segunda coluna na Figura 6.6 mostram as bandas originais TM-5 (bandas 3, 4 e 5) e as componentes principais obtidas pela transformação CP, respectivamente. A primeira e segunda coluna na Figura 6.7 mostram os escartegramas das bandas originais TM-5 (bandas 3, 4 e 5) e das componentes principais, respectivamente. As Tabelas 6.1 e 6.2 mostram as informações estatísticas das bandas TM-5 originais mostradas na Figura 6.6 e a matriz de covariância destas bandas, repectivamente. Da mesma forma, as Tabelas 6.3 e 6.4 mostram as informações estatísticas das componentes principais ilustradas na Figura 6.6 e a matriz de covariância destas componentes, repectivamente. 6.2.1 Modificações da TCP O processo da TPC pode ser modificado de algumas formas, no sentido de melhorar sua aplicação em alguns casos específicos. Existem duas modificações da TCP que são comumente utilizadas: Análise Canônica e Realce por Decorrelação. Análise Canônica A Transformação por Componentes principais (TCP) é baseada na matriz de covariância global da imagem, e portanto não é sensível à uma feição específica na imagem que se deseja descriminar. A TCP pode também ser utilizada como uma técnica de redução de atributos, no qual os dados são transformados para um novo conjunto de eixos no qual a separabilidade entre as classes é maior do que no conjunto de eixos originais. Assim, pode-se Processamento Digital de Imagens82 escolher o eixo em que as classes de interesse são melhor separadas., reduzindo assim a quantidade de dados a serem processados. Uma destas modificações da TCP é conhecida por análise canônica que funciona bem porque as classes (tipos de solo e coberturas espectralmente similares) são, frequentemente, distribuídas sobre o eixo de maior espalhamento. PC1 PC2 PC3 B3 B4 B5 Fig 6.6 Primeira coluna bandas TM – 5 originais (3,4,e 5). Segunda coluna componentes principais 83 Tabela 6.1 - Dados Estatísticas das bandas 3, 4 e 5 d o sensor TM-5. Banda Min Max Média Desvio Padrão 3 7 218 27.26 9.63 4 0 151 39.26 10.51 5 0 255 67.05 23.51 Tabela 6.2 - Matriz de covariância das bandas 3, 4 e 5 d o sensor TM-5 . Banda Banda 3 Banda 4 Banda5 3 92.694 41.471 167.116 4 41.471 110.462 163.436 5 167.116 163.436 552.554 Tabela 6.3 - Dados estatísticos das componentes principais . CP Min Max Média Desvio padrão Auto valores 1 0 255 127.44 42.56 1811.46 2 21 250 127.51 13.28 176.31 3 0 242 127.49 9.69 93.98 Tabela 6.5 - Matriz de covariância das componentes principais (auto-valores) . Banda Banda 3 Banda 4 Banda5 3 1811.457 -0.418 0.317 4 -0.418 176.311 -0.098 5 0.317 -0.098 93.983 A TCP poderia ser calculada usando-se a matriz de covariância de um subconjunto de pixels na imagem que englobasse todos os tipos de cobertura de interesse. A transformação resultante teria seus eixos principais orientados de tal modo que os tipos de cobertura de interesse ficassem discriminados. A análise Canônica é uma transformação deste tipo, a qual gera um conjunto de eixos de atributos no qual a separabilidade entre as classes é otimizada. Neste trabalho, não será visto detalhes da implementação deste método, mas o leitor interessado pode encontrar mais informações em Richards (1993, pág. 255). Realce por Decorrelação Um dos maiores problemas associados com as imagens produzidaspela TCP diz respeito à dificuldade em interpretar os resultados, principalmente quando são usadas composições coloridas de três CP’s. O motivo dessa dificuldade esta relacionado com o significado das cores presentes numa composição colorida desse tipo. Usando-se bandas originais TM, por exemplo, e fácil de se prever o significado das cores em uma composição colorida , através da associação dessas bandas e das cores usadas em cada uma delas (RGB) com a assinatura espectral do material em questão. Assim, por exemplo, usando-se a banda TM4 em vermelho, sabe-se que toda a biomassa verde aparecerá em vermelho, a banda TM3 Processamento Digital de Imagens84 em verde mostrará solos vermelhos na cor verde e assim por diante. Porém, uma vez que os novos eixos das CP’s são rotacionados, essa associação entre bandas originais e assinaturas espectrais se torna extremamente complexa (lembre-se que cada CP é uma adição ponderada de todas as bandas que compõem a imagem ). Dessa forma, seria útil se, após a aplicação da TCP e do aumento de contraste das novas imagens CP’s, fosse possível restaurar as relações de cores originais, para efeito de interpretação. É precisamente essa a base teórica da técnica de Realce por Decorrelação (em inglês, "Decorrelation Stretch”). No Realce por Decorrelação, segue-se todos os passos usados em TCP, até a fase final em que as imagens CP’s têm o seu contraste aumentado, para que tenham a mesmas variâncias. Neste ponto, a distribuição no espaço de atributos assemelha-se a um círculo, conforme visto na Figura 6.4(a) para o caso bidimensional. Uma vez que um círculo possui a mesma forma quando visto de qualquer ângulo, ele pode ser rotacionado ao redor do seu centro sem que o formato da distribuição seja alterado e, portanto, sem que se mude a correlação entre as CP’s representadas nesse espaço de atributos. Se esse círculo fosse submetido à rotação inversa à da TCP original, as imagens resultantes teriam cores similares às das bandas originais. A única diferença é que o espaço de atributos é agora esférico e as imagens têm um intervalo de cores muito maior. A Figura 6.8 mostra um esquema de como como funciona essa técnica. No Realce por Decorrelação, após o aumento de contraste, a distribuição circular sofre a rotação inversa à sofrida pelos eixos das CP’s, para que volte a ficar orientada segundo o sistema de coordenadas das imagens originais. O Realce por Decorrelação, visa principalmente o realce da distribuição de cores, através da eliminação da correlação entre bandas. Por se tratar de uma técnica para realce de cores, ela só faz sentido em ser aplicada a tripletes de bandas, ao contrário da TCP, que normalmente é aplicada a todas as bandas de uma imagem. Portanto, o primeiro passo no Realce por Decorrelação é selecionar o triplete desejado, para depois seguir os passos indicados. TCP (W) l1= l2= l3 TCP -1 g,,, = g,,W-1 g g, = Wg g,, g,,,g, Fig. 6.8 - Realce por decorrelação. Um último comentário sobre o Realce por Decorrelação se refere à sua implementação matemática. Uma vez obtida a matriz de auto-vetores do triplete de bandas selecionado para se aplicar essa técnica, a única diferença em relação à APC é que o Realce por Decorrelação se utiliza da matriz transposta de auto-vetores, isto é, as linhas passam a ser colunas e as colunas passam a ser linhas. Uma vez transposta a matriz, calcula-se cada banda decorrelacionada da mesma forma que as CP’s, ou seja, multiplicando-se cada CP pelos respectivos auto-vetores. Essa transposição da matriz de auto-vetores representa a rotação inversa dos eixos da CP’s. As Figuras 6.9(a), (b) e (c) mostram as composições coloridas das imagens originais TM-5 realçadas (R:5 G:4 G:3), das três componentes principais e do realce por decorrelação. 85 (a) (b) Fig. 6.9 – (a) Composição colorida TM-5 realçadas (R banda 5, G banda 4, B banda 3); (b) Componentes principais; (c) Realce por decorrelação. (c) 6.3 Modelo linear de mistura de pixels Em geral a resolução espacial do sensor permite que um pixel inclua mais que um tipo de cobertura do terreno na cena. Duas situações causam o problema de mistura de pixels: os objetos são menores do que o elemento de cena ou o elemento de cena está na fronteira entre dois ou mais objetos diferentes. Desta forma, a radiância observada em um ponto é dada pela mistura das respostas de cada um dos componentes da cena , como por exemplo, solo + sombra + vegetação. O modelo linear de mistura permite modelar esta situação. Um elemento de cena puro (alvo) possui uma característica espectral chamada de assinatura espectral. Cada tipo de alvo possui sua assinatura espectral, a qual descreve o comportamento espectral do alvo em uma determinada faixa do espectro eletromagnético. No caso de um pixel conter informações de mais de um tipo de alvo, este Processamento Digital de Imagens86 pixel será caracterizado pela mistura das assinaturas espectrais de cada alvo contido nele. As técnicas de mistura de pixels têm como objetivo identificar a composição de um pixel calculando a proporção de cada um dos componentes. O modelo a ser apresentado aquí é aquele que gera imagens sintéticas as quais representam a proporção de cada componente dentro de um pixel da cena (implementado no SPRING). A mistura espacial de objetos dentro de um elemento de cena é ilustrado na Figura 6.11. Os contornos dos objetos podem ter diferentes formas, o que importa são somente as frações de cada cobertura e os valores de reflectância individuais. O modelo linear pondera os valores de radiância dos objetos de acordo com a proporção em que aparecem dentro do elemento de cena. objeto elemento de cena (a) (b) Fig. 6.10 - Mistura de pixels (a) objetos menores do que o elemento de cena, (b) elemento na fronteira dos objetos. 87 a b b c Fig 6.11 Modelo linear de mistura para um único elemento de cena O modelo linear de mistura pode ser representado matematicamente por: ijij n j i exar +S= =1 onde ir é a resposta do pixel na i -ésima banda; ija é a assinatura espectral conhecida da j - ésima componente na i -ésima banda; jx é a proporção estimada da j -ésima componente (classe) e ie é o erro da estimação para a i -ésima banda. O erro representa o erro ie residual obtido no processo de ajuste do vetor espectral de um dado pixel pela soma das respostas espectrais das classes e de um ruído desconhecido. O objetivo do modelo linear de mistura é encontrar proporções cuja combinação das assinaturas espectrais melhor aproxime o valor de nível de cinza de um pixel. Para a solução da equação acima é usado o método dos mínimos quadrados, o qual estima as proporções miminizando a soma do quadrado dos erros. Duas restrições podem ser usadas na solução da equação: å = = n j jx 1 1 e 10 ££ jx Na prática, a primeira restrição é problemática, pois muitas vezes não se sabe quantas componentes influenciaram na resposta do pixel. A escolha da assinatura espectral de cada componente em cada banda é crítica para a estimação correta das proporções. As assinaturas espectrais dos componentes podem ser obtidos automaticamente em bibliotecas digitais, digitados com base em trabalhos previamente realizados. A Tabela 6.5 mostra alguns valores para as classes sombra, vegetação e solo. Classe a: 65% da área, espectro Ea Classe b: 20% da área, espectro Eb Classe c: 15% da área, espectro Ec Espectro total no pixel: NC = 0,65Ea + 0,2Eb + 0,15Ec Processamento Digital de Imagens88 Tabela 6.5 – Assinaturas espectrais de alguns alvos. Bandas Sombra Vegetação Solo TM 3 22 21 63 TM 4 11 106 64 TM 5 4 72 148 Uma outra maneira de obter estes dados é selecionando elementos de imagem considerados puros. Por exemplo valores de NC’s em uma região de água limpa. As Figura 6.12 mostra a composição colorida das bandas usadas no modelode mistura. Os pontos marcados indicam os elementos de imagem selecionados para representar as assinaturas espectrais (elementos puros) das classes sombra, vegetação e solo. As assinaturas espectrais destas classes estão mostradas no gráfico da Figura 6.12. A Figura 6.13 mostra as imagens correspondentes as componentes sombra, vegetação e solo. 89 Fig. 6.12 - Composição colorida de uma imagem TM e as curvas espectrais das classes sombra, vegetação e solo. Os pontos marcados na imagem correspondem às amostras escolhidas como elementos puros. Processamento Digital de Imagens90 Fig. 6.13 - Imagens correspondentes às frações de cobertura de solo, sombra e vegetação
Compartilhar