Baixe o app para aproveitar ainda mais
Prévia do material em texto
MANUAL BÁSICO – PROCESSAMENTO DIGITAL DE IMAGENS Processamento de Imagens O que é processamento de imagens? As técnicas voltadas para a análise de dados multidimensionais, adquiridos por diversos tipos de sensores recebem o nome de processamento digital de imagens, ou seja é a manipulação de uma imagem por computador de modo onde a entrada e a saída do processo são imagens. Usa-se para melhorar o aspecto visual de certas feições estruturais para o analista humano e para fornecer outros subsídios para a sua interpretação, inclusive gerando produtos que possam ser posteriormente submetidos a outros processamentos. Inclui diversas áreas como a análise de recursos naturais e meteorologia por meio de imagens de satélites; transmissão digital de sinais de televisão ou fac-símile; análise de imagens biomédicas; análise de imagens metalográficas e de fibras vegetais; obtenção de imagens médicas por ultra-som, radiação nuclear ou técnicas de tomografia computadorizada; aplicações em automação industrial envolvendo o uso de sensores visuais em robôs. O uso de imagens multiespectrais registradas por satélites tais como, Landsat, SPOT ou similares é uma valiosa técnica para a extração dos dados destinados às várias aplicações de pesquisa de recursos naturais. A obtenção das informações espectrais registradas pelos sistemas nas diferentes partes do espectro eletromagnético, visando a identificação e discriminação dos alvos de interesse, depende principalmente da qualidade da representação dos dados contidos nas imagens. As técnicas de processamento digital de imagens, além de permitirem analisar uma cena nas várias regiões do espectro eletromagnético, também possibilitam a integração de vários tipos de dados, devidamente georeferenciados. Como pode-se dividir o processamento de imagens? Em pré-processamento, realce e classificação. o Pré-processamento refere-se ao processamento inicial de dados brutos para calibração radiométrica da imagem, correção de distorções geométricas e remoção de ruído. o Realce visa melhorar a qualidade da imagem, permitindo uma melhor discriminação dos objetos presentes na imagem. o Na classificação são atribuídas classes aos objetos presentes na imagem. O que é realce de contraste? A técnica de realce de contraste tem por objetivo melhorar a qualidade das imagens sob os critérios subjetivos do olho humano. É normalmente utilizada como uma etapa de pré- processamento para sistemas de reconhecimento de padrões. O contraste entre dois objetos pode ser definido como a razão entre os seus níveis de cinza médios. A manipulação do contraste consiste numa transferência radiométrica em cada "pixel", com o objetivo de aumentar a discriminação visual entre os objetos presentes na imagem. Realiza-se a operação ponto a ponto, independentemente da vizinhança. A escolha do mapeamento direto adequado é, em geral, essencialmente empírica. Entretanto, um exame prévio do histograma da imagem pode ser útil. O histograma de uma imagem descreve a distribuição estatística dos níveis de cinza em termos do número de amostras ("pixels") com cada nível. A distribuição pode também ser dada em termos da percentagem do número total de "pixels" na imagem. Pode ser estabelecida uma analogia entre o histograma de uma imagem e a função densidade de probabilidade, que é um modelo matemático da distribuição de tons de cinza de uma classe de imagens. A cada histograma está associado o contraste da imagem. Pode-se fazer um realce de contraste utilizando-se uma função matemática denominada transformação radiométrica. Esta função consiste em mapear as variações dentro do intervalo original de tons de cinza, para um outro intervalo desejado e é utilizado para aumentar o contraste de uma imagem, expandindo o intervalo original de níveis de cinza da imagem original. Quais são as características do realce Linear? O aumento de contraste por uma transformação linear é a forma mais simples das opções. A função de transferência é uma reta e apenas dois parâmetros são controlados: a inclinação da reta e o ponto de interseção com o eixo X (veja figura abaixo). A inclinação controla a quantidade de aumento de contraste e o ponto de interseção com o eixo X controla a intensidade média da imagem final. A função de mapeamento linear pode ser representada por: Y = AX + B onde: o Y = novo valor de nível de cinza; o X = valor original de nível de cinza; o A = inclinação da reta (tangente do ângulo); o B = fator de incremento, definido pelos limites mínimo e máximo fornecidos pelo usuário. No aumento linear de contraste as barras que formam o histograma da imagem de saída são espaçadas igualmente, uma vez que a função de transferência é uma reta. O histograma de saída será idêntico em formato ao histograma de entrada, exceto que ele terá um valor médio e um espalhamento diferentes. Quais são as características do realce MinMax? A manipulação de histograma pela opção MinMax (Mínimo/Máximo) é idêntica a manipulação de uma curva linear. A diferença está no momento em que feita a escolha da opção. O sistema calcula o valor de nível de cinza mínimo e máximo que é ocupado pela imagem original. De posse desses valores é aplicada uma transformação linear onde a base da reta é posicionada no valor mínimo e o topo da reta no valor máximo. Desse modo não haverá perda de informação por "overflow", isto é, todos os níveis de cinza continuarão com o mesmo número de pixels. Um "overflow" ocorre quando uma porção pixels de níveis de cinza diferentes são transformados em um único nível, isto é, quando a inclinação da reta de transferência é exagerada. Observe a figura abaixo onde a seta de "overflow" está indicando, significa perda de informação, uma vez que pixels de colunas vizinhas do histograma de entrada, que originalmente podiam ser diferenciados com base no seu nível de cinza, serão fundidos numa só coluna e passarão a ter o mesmo nível de cinza (0 para o caso da figura abaixo) OBS.: A ocorrência de "overflow" é muitas vezes desejada, uma vez que o usuário sabe em que intervalo de níveis de cinza está o que deseja realçar. Pois caso contrário estará definitivamente perdendo a informação quando salvar a imagem realçada. Quais são as características do realce RaizQuadrado?, Quadrado, Log, Negativo, EqualHist, Fatia. Utiliza-se a opção de transformação por raiz quadrada para aumentar o contraste das regiões escuras da imagem original. A função de transformação é representada pela curva como na figura abaixo. Observe que a inclinação da curva é tanto maior quanto menores os valores de níveis de cinza. Pode ser expresso pela função: Y = A onde: o Y = nível de cinza resultante o X = nível de cinza original o A = fator de ajuste para os níveis de saída ficarem entre 0 e 255 NOTA: Este mapeamento difere do logarítmico porque realça um intervalo maior de níveis de cinza baixos (escuros), enquanto o logarítmico realça um pequeno intervalo. Quais são as características do realce Quadrado? Utiliza-se este mapeamento quando se deseja aumentar o contraste de feições claras (altos níveis de cinza da imagem). Observe na figura abaixo que o aumento de contraste é maior a partir da média do histograma, mesmo havendo um deslocamento geral para a região de níveis mais escuros. A função de transformação é dada pela equação: Y = AX 2 onde: o X = nível de cinza original o Y = nível de cinza resultante o A = fator de ajuste paraos níveis de saída estarem entre 0 e 255 Quais são as características do realce Logarítmico? O mapeamento logarítmico de valores de níveis de cinza é útil para aumento de contraste em feições escuras (valores de cinza baixos). Equivale a uma curva logarítmica como mostrado na figura a seguir. A função de transformação é expressa pela equação: Y = A log (X + 1) onde: o Y = novo valor de nível de cinza o X = valor original de nível de cinza o A = fator definido a partir dos limites mínimo e máximo da tabela, para que os valores estejam entre 0 e 255 NOTA: Observe na figura acima que uma porção menor de níveis de cinza sobre um grande aumento de contraste, comparado com a transformação por raiz quadrada, mencionada mais acima. Quais são as características do realce Negativo? É uma função de mapeamento linear inversa, ou seja, o contraste ocorre de modo que as áreas escuras (baixos valores de nível de cinza) tornam-se claras (altos valores de nível de cinza) e vice-versa. A figura a seguir mostra sua representação. A função de mapeamento negativa pode ser representada por: Y = - (AX + B) onde: o Y = novo valor de nível de cinza o X = valor original de nível de cinza o A = inclinação da reta (tangente do ângulo) o B = fator de incremento, definido pelos limites mínimo e máximo fornecidos pelo usuário. NOTA: Atente para o fato que todas as opções mencionadas até o momento são passíveis de ocorrer um "overflow". NOTA: Todas as opções de contraste mencionadas acima têm o modo de operação igual ao descrito no item Manipulando um Histograma descrito acima. Quais são as características do realce por Equalização de Histograma? É uma maneira de manipulação de histograma que reduz automaticamente o contraste em áreas muito claras ou muito escuras, numa imagem. Expande também os níveis de cinza ao longo de todo intervalo. Consiste em uma transformação não-linear que considera a distribuição acumulativa da imagem original, para gerar uma imagem resultante, cujo histograma será aproximadamente uniforme (veja figura abaixo). A opção de equalização parte do princípio que o contraste de uma imagem seria otimizado se todos os 256 possíveis níveis de intensidade fossem igualmente utilizados ou, em outras palavras, todas as barras verticais que compõem o histograma fossem da mesma altura. Obviamente isso não é possível devido à natureza discreta dos dados digitais de uma imagem de sensoriamento remoto. Contudo, uma aproximação é conseguida ao se espalhar os picos do histograma da imagem, deixando intocadas as partes mais "chatas" do mesmo. Como podemos ver na figura abaixo, Este processo é obtido através de uma função de transferência que tenha uma alta inclinação toda vez que o histograma original apresentar um pico, e uma baixa inclinação no restante do histograma. O SPRING apresenta a seguinte função de equalização de histograma: Y = (faxi) . 255 Pt onde: o faxi = freqüência acumulada para o nível de cinza xi o Pt = população total (número total de "pixels") NOTA: A opção de equalização é automaticamente calculada e apresentada, de modo que o usuário não poderá alterar a forma ou posição da curva, permanecendo assim a tela no modo estático. Quais são as características do realce por Fatia? A opção fatia (ou fatiamento de níveis de cinza) é uma forma de aumento de contraste cuja operação consiste simplesmente em realçar os pixels cujas intensidades se situam dentro de um intervalo específico (a fatia), isto é, entre um máximo e um mínimo. Consiste na divisão do intervalo total de níveis de cinza de determinadas fatias (ou classes de cores). O fatiamento de níveis de cinza é considerado a forma mais simples de classificação, de modo que é aplicado apenas a uma única banda espectral. De acordo com o critério de determinação dos intervalos de níveis de cinza, pode-se obter fatiamento normal, equidistribuição e arco-íris. Fatiamento normal: as fatias são definidas de modo que o intervalo entre cada faixa seja constante. Fatiamento equidistribuição: o intervalo de níveis de cinza é dividido de modo que cada faixa contenha o mesmo número de pontos. Fatiamento arco-íris: é o mapeamento de um tom de cinza para uma determinada cor. Baseia-se no fato de que variações de cores são muito mais visíveis ao olho humano do que variações de tons de cinza. O mapeamento global desses níveis para o espaço de cor segue a seqüência do arco-íris. Quais são as características do realce por Edição? Permite a aplicação de uma tabela de transformação radiométrica definida pelo usuário. O seu objetivo é salientar um aspecto específico da imagem que o usuário deseja analisar. Exemplo: caso em que uma imagem apresenta regiões escuras (baixos níveis de cinza) dentro de uma área com pequenas variações radiométricas que não são de interesse. Pode-se utilizar o limite de saturação para realçar ou amenizar o contraste de alguma característica da imagem. A figura a seguir ilustra o efeito da variação do limiar de saturação. Se o histograma apresenta dois picos de freqüência (bimodal), pode-se segmentar a imagem em duas classes definidas por uma limiar (L). Esta operação é útil para separar dois grandes grupos de níveis de cinza na imagem. Quando a imagem em que se está trabalhando apresenta um histograma assimétrico, como é freqüentemente observado, não é aconselhável se trabalhar com uma transformação linear simples. Neste caso o usuário, com a ajuda de um cursor, pode especificar na tela uma transformação linear por partes. Isto oferece um maior grau de liberdade na especificação do histograma de saída, reduzindo a assimetria do histograma e utilizando melhor o intervalo de níveis de cinza disponível. Exemplo: Restauração O que é restauração? A Restauração é uma técnica de correção radiométrica cujo objetivo é corrigir as distorções inseridas pelo sensor óptico no processo de geração das imagens digitais. Pode-se dizer que a imagem digital é uma cópia borrada da cena, dado que os detalhes vistos na cena são suavizados devido as limitações do sensor. A idéia de restaurar a imagem é reduzir este efeito de borramento, e portanto obter uma imagem realçada. A correção é realizada por um filtro linear. Os pesos do filtro de restauração são obtidos a partir das características do sensor, e não de forma empírica como é feito no caso dos filtros de realce tradicionais. Neste caso, o filtro é específico para cada tipo de sensor e banda espectral. Este tipo de processamento é recomendado para ser realizado sobre a imagem original sem qualquer tipo de processamento tais como realce e filtragem, que alterem as características radiométricas da imagem. Deve-se observar também que não é possível processar uma imagem reamostrada, já que as características radiométrica e espacial da imagem foram alteradas. O resultado do processamento será salvo em disco. O que é eliminação de ruído? No processo de geração de imagens, alguns ruídos são inseridos nas imagens. Geralmente, os pixels com ruído aparecem como pontos com níveis de cinza bem diferentes da sua vizinhança (escuros (pretos) ou saturados (brancos)). Estes pontos ruidosos podem aparecer distribuídos aleatoriamente ou de forma sistemática (listras verticais e horizontais). As causas podem ser falha de detetores, limitações do sistema eletrônico do sensor, etc. Assim, a função Eliminação de ruído no SPRING, tem como objetivo eliminar ou reduziros pontos de ruído na imagem. O algoritmo usa dois limiares: Limiar Inferior e Limiar Superior. O usuário deverá escolher os valores destes limiares que serão utilizados na caracterização dos pontos ruidosos. Antes da execução da função, recomenda-se que o usuário faça uma prévia análise do ruído na imagem, através da função do SPRING, Leitura de Pixels. Esta análise permitirá ao usuário escolher os limiares adequados ao nível de ruído a ser eliminado na imagem. Para detectar se um ponto na imagem P(i,j) (i é linha e j é coluna) é ruído ou não, somente os seus vizinhos superior P(i-1,j) e inferior P(i+1,j) são analisados. Escolha do Limiar Inferior: o Um ponto será considerado ruído caso o seu nível de cinza esteja abaixo dos níveis de cinza de seus dois pontos vizinhos abaixo e acima (linhas de cima e de baixo) por uma diferença maior que este limiar inferior. Neste caso, o ponto será substituído pela média entre aqueles dois pontos vizinhos. O valor " default" para este parâmetro é 8. Escolha do Limiar Superior: o Um ponto será considerado ruído caso o seu nível de cinza esteja acima dos níveis de cinza de seus dois pontos vizinhos abaixo e acima (linhas de cima e de baixo) por uma diferença maior que este limiar superior. Neste caso também, o ponto será substituído pela média entre aqueles dois pontos vizinhos. O valor " default" para este parâmetro é 25. Filtragem O que é filtragem? Como se efetua? As técnicas de filtragem são transformações da imagem pixel a pixel, que não dependem apenas do nível de cinza de um determinado pixel, mas também do valor dos níveis de cinza dos pixels vizinhos. O processo de filtragem é feito utilizando matrizes denominadas máscaras, as quais são aplicadas sobre a imagem. Máscara de 3 linhas por 3 colunas com centro na posição (2,2). A aplicação da máscara com centro na posição (i,j), sendo i o número de uma dada linha e j o número de uma dada coluna sobre a imagem, consiste na substituição do valor do pixel na posição (i,j) por um novo valor que depende dos valores dos pixels vizinhos e dos pesos da máscara, gerando uma nova imagem com a eliminação das linhas e colunas iniciais e finais da imagem original. Os filtros espaciais podem ser classificados em passa-baixa, passa-alta ou passa- banda. Os dois primeiros são os mais utilizados em processamento de imagens. O filtro passa-banda é mais utilizado em processamentos específicos, principalmente para remover ruídos periódicos. O que são filtros lineares? Suavizam e realçam detalhes da imagem e minimizam efeitos de ruído, sem alterar a média da imagem. Alguns filtros são descritos a seguir. Passa-Baixa: Suaviza a imagem atenuando as altas freqüências, que correspondem às transições abruptas. Tende a minimizar ruídos e apresenta o efeito de borramento da imagem. Exemplos de filtros de média 3x3, 5x5 e 7x7. 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 *1/9 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 *1/25 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 *1/49 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Passa-Baixa, de média ponderada, são usados quando os pesos são definidos em função de sua distância do peso central. Filtros desse tipo de dimensão 3x3 são: 1 1 1 1 2 1 1 2 1 *1/10 2 4 2 *1/16 1 1 1 1 2 1 Passa-Alta: a filtragem passa-alta realça detalhes, produzindo uma "agudização" ("sharpering") da imagem, isto é, as transições entre regiões diferentes tornam-se mais nítidas. Estes filtros podem ser usados para realçar certas características presentes na imagem, tais como bordas, linhas curvas ou manchas, mas enfatizam o ruído existente na imagem. Alguns exemplos podem ser dado por: 0 -1 0 -1 -1 -1 1 -2 1 -1 5 -1 -1 9 -1 -2 5 -2 0 -1 0 -1 -1 -1 1 -2 1 Os filtros de realce de bordas realçam a cena, segundo direções preferenciais de interesse, definidas pelas máscaras. Abaixo estão algumas utilizadas para o realçamento de bordas em vários sentidos. O nome dado às máscaras indica a direção ortogonal preferencial em que será realçado o limite de borda. Assim, a máscara norte realça limites horizontais. 1 1 1 1 1 1 Norte 1 -2 1 Nordeste -1 -2 1 -1 -1 -1 -1 -1 1 -1 1 1 -1 -1 1 Leste -1 -2 1 Sudeste -1 -2 1 -1 1 1 1 1 1 -1 -1 -1 1 -1 -1 Sul 1 -2 1 Sudoeste 1 -2 -1 1 1 1 1 1 1 1 1 -1 1 1 1 Oeste 1 -2 -1 Noroeste 1 -2 -1 1 1 -1 1 -1 -1 Realce não-direcional de bordas: é utilizado para realçar bordas, independentemente da direção. As três máscaras mais comuns diferem quanto à intensidade de altos valores de níveis de cinza presentes na imagem resultante. A máscara alta deixa passar menos os baixos níveis de cinza, isto é, a imagem fica mais clara. A máscara baixa produz uma imagem mais escura que a anterior. A máscara média apresenta resultados intermediários. Alta Média Baixa -1 -1 -1 0 -1 0 1 -2 1 -1 8 -1 -1 4 -1 -2 3 -2 -1 -1 -1 0 -1 0 1 -2 1 Realce de imagens: Utiliza máscaras apropriadas ao realce de características de imagens obtidas por um sensor específico. Para imagens TM/Landsat o realce compensa distorções radiométricas do sensor. O pixel que terá seu valor de nível de cinza substituído pela aplicação da máscara, corresponde à posição sombreada. 3 -7 -7 3 -7 -7 13 -7 -7 13 13 -7 3 -7 -7 3 O que são filtros não-lineares? Minimizam/realçam ruídos e suavizam/realçam bordas, alterando a média da imagem, sendo os principais os operadores para detecção de bordas e os filtros morfológicos. o Operadores para detecção de bordas: Detecta características, como bordas, linhas, curvas e manchas, sendo os mais comuns os operadores de Roberts e Sobel. o Operador de Roberts: Apresenta a desvantagem de certas bordas serem mais realçadas do que outras dependendo da direção, mesmo com magnitude igual. Como resultado de sua aplicação, obtém-se uma imagem com altos valores de nível de cinza, em regiões de limites bem definidos e valores baixos em regiões de limites suaves, sendo 0 para regiões de nível de cinza constante. O operador consiste na função: , onde a' é o nível de cinza correspondente à localização a, a ser substituído; a, b, c, d são as localizações cujos valores serão computados para a operação. a b c d o o Efeito da aplicação do operador de Roberts. o o Operador de Sobel: Realça linhas verticais e horizontais mais escuras que o fundo, sem realçar pontos isolados. Consiste na aplicação de duas máscaras, descritas a seguir, que compõem um resultado único: a b -1 2 -1 -1 0 1 0 0 0 -2 0 2 1 2 1 -1 0 1 o o A máscara (a) detecta as variações no sentido horizontal e a máscara (b), no sentido vertical. O resultado d esta aplicação, em cada pixel, é dado por: onde a' é o valor de nível de cinza correspondente à localização do elemento central da máscara. Efeito da aplicação do operador de Roberts. O que são filtros morfológicos? Exploram as propriedades geométricas dos sinais (níveis de cinza da imagem). Para filtros morfológicos, as máscaras são denominadas elementos estruturantes e apresentam valores 0 ou 1 na matriz que correspondem ao pixel considerado. Os filtros morfológicos básicos são o filtro da mediana, erosão e dilatação. o Filtro morfológico da mediana é utilizado para suavização e eliminação de ruído e mantém a dimensão da imagem. Exemplo: elemento estruturante imagem0 1 0 3 6 5 1 1 1 2 8 3 0 1 0 2 6 5 O pixel central será alterada para o valor 6 (valor mediano na ordenação [2,3,6,6,8]). Filtro morfológico de erosão: provoca efeitos de erosão das partes claras da imagem (altos níveis de cinza), gerando imagens mais escuras. Considerando o exemplo anterior, o valor a ser substituído no pixel central corresponde ao menor valor da ordenação, 2. Filtro morfológico de dilatação: provoca efeitos de dilatação das partes escuras da imagem (baixos níveis de cinza), gerando imagens mais claras. Para o exemplo anterior, o valor resultante da aplicação deste filtro é o maior valor na ordenação, 8. Os seguintes elementos estruturantes são os mais comuns: 1 1 1 1 0 1 0 1 0 1 1 1 0 1 0 1 1 1 1 1 1 1 0 1 0 1 0 0 0 0 0 1 0 0 0 1 1 1 1 0 1 0 0 1 0 0 0 0 0 1 0 1 0 0 1 0 0 0 1 0 0 0 1 Abertura e fechamento de uma imagem: geralmente encadeiam-se filtros de erosão e dilatação com o mesmo elemento estruturante para obtenção de efeitos de abertura e fechamento. o A abertura é obtida pelo encadeamento do filtro de erosão, seguido pelo de dilatação, conforme ilustra a figura a seguir. No exemplo, há quebra de istmos e eliminação de cabos e ilhas. o O efeito de fechamento é obtido pelo encadeamento do filtro de dilatação, seguido pelo de erosão. No exemplo, há eliminação de golfos e fechamento de baías. Operação Aritmética Para que servem as operações aritméticas? Operações aritméticas são operações "pixel" a "pixel" entre imagens de bandas diferentes, através de uma regra matemática definida, tendo como resultado uma banda representando a combinação das bandas originais. As operações mais comuns são a soma, subtração, divisão (ou razão entre bandas) e a multiplicação de uma banda por uma constante (realce linear). Estas operações permitem comprimir os dados, diminuindo o número de bandas. Ocorre perda da informação original quando os resultados das operações ultrapassam o intervalo de 0-255. Neste caso, os resultados são normalizados, saturando os valores abaixo de 0 em 0, e os acima de 255, em 255, causando perda de informação espectral. Estas operações podem requerer um fator de ganho (multiplicativo) ou "off-set" (aditivo), para melhorar a qualidade de contraste da imagem. Os fatores devem ser definidos considerando a faixa de valores de entrada e a operação a executar. Em geral, a operação de adição é utilizada para realçar similaridade entre bandas ou diferentes imagens e a subtração, a multiplicação e divisão, para realçar as diferenças espectrais. Para que serve a subtração de imagens? Utilizada para realçar diferenças espectrais, conhecendo-se o comportamento espectral dos alvos de interesse e o intervalo espectral das bandas dos sensores, pode-se definir as bandas utilizadas para realçar as diferenças espectrais. Exemplos de aplicação da subtração de bandas: o Identificação de diferentes tipos de cobertura vegetal; o Identificação de minerais formados por óxido de ferro; o Detecção do padrão de mudança de cobertura, como uso do solo, expansão urbana, desmatamento. Quando a média e desvio padrão dos histogramas das imagens não coincidem, deve-se equalizá-las antes da subtração para evitar que o resultado da subtração não corresponda à diferença real entre elas. Para que serve a adição de imagens? Utilizada para a obtenção da média aritmética entre as imagens, minimizando a presença de ruído. O valor de ganho deve ser 1/n, onde n é o número de bandas utilizadas na operação. Pode ser utilizada para a integração de imagens resultantes de diferentes processamentos. Para que serve a multiplicação? É utilizada na implementação de algoritmos que se deseja aplicar sobre a imagem. Para que serve a divisão ou razão entre bandas? É utilizada para realçar as diferenças espectrais de um par de bandas, caracterizando determinadas feições da curva de assinatura espectral de alguns alvos. Pode apresentar resultados incorretos devido a: o Bandas que apresentam ruídos, pois estes serão realçados. o Presença do espalhamento atmosférico, seletivo em relação às bandas espectrais, gerando valores de nível de cinza que não representam a diferença de reflectância entre os alvos. o Presença de objetos distintos nas bandas originais com características espectrais semelhantes, porém de diferentes intensidades. Na imagem resultante, estes objetos não serão distintos. Exemplos de aplicação: o Remover efeitos de ganho provenientes de variações espaciais ou temporais, quando ocorrem em bandas de uma mesma imagem; o Diminuir variações de radiância da imagem, provenientes de efeito de topografia, declividade e aspecto. o Aumentar diferenças de radiância entre solo e vegetação. o Para aumentar o contraste entre solo e vegetação, utilizando a razão entre as bandas referentes ao vermelho e infravermelho próximo, gerando os chamados índices de vegetação. Com a equação: , onde g é o ganho, o off-set, A banda do infravermelho próximo, B a banda do vermelho e C o índice de vegetação de diferença normalizada (IVDN). Transformação IHS O que é transformação RGB-IHS? A cor de um objeto, em uma imagem pode ser representada pelas intensidades das componentes vermelho R, verde G e azul B, no sistema de cores RGB, ou pela intensidade I, pela cor ou matiz H e pela saturação Sno espaço IHS. Intensidade ou brilho é a medida de energia total envolvida em todos os comprimentos de onda, sendo responsável pela sensação de brilho da energia incidente sobre o olho. Matiz ou cor de um objeto é a medida do comprimento de onda médio da luz que se reflete ou se emite, definindo, a cor do objeto. Saturação ou pureza expressa o intervalo de comprimento de onda ao redor do comprimento de onda médio, no qual a energia é refletida ou transmitida. Um alto valor de saturação resulta em uma cor espectralmente pura, ao passo que um baixo valor indica uma mistura de comprimentos de onda produzindo tons pastéis (apagados). O espaço de cores IHS pode ser graficamente representado por um cone. A relação espacial entre o espaço RGB e IHS é mostrada na figura. A distância do ponto até a origem ou ápice do cone representa a intensidade. A distância radial do ponto até o eixo central do cone representa saturação. O matiz é representado como uma seqüência radial ao redor dos círculos de saturação e do eixo de intensidade. Por serem independentes, os três parâmetros podem ser analisados e modificados separadamente, para um melhor ajuste das cores às características do sistema visual. Na transformação RGB para IHS, escolhem-se três bandas de uma imagem e associa- se cada banda a um dos componentes RGB. Assim, cada "pixel" na imagem de saída possuirá uma correspondência a um ponto no espaço IHS. O resultado é um conjunto de três novas imagens: uma de intensidade, uma de matiz e outra de saturação. Estas imagens podem ser realçadas, expandindo o intervalo de intensidade e saturação através de contraste, e, quando convertidas de IHS para RGB, permitem melhor separação das cores e das feições que se deseja observar. Pode se utilizar para combinar imagens de diferentes sensores e resolução espacial, como na união de imagens SPOT-HRV (pancromático) e TM-Landsat. O procedimento consiste em: o Calcular os componentes IHS a partir de três bandas selecionadas do TM o Aplicar o contraste nos componentes H e S, e na imagem SPOT. o Substituiro componente I é substituído pela imagem SPOT. o Aplica-se a transformação inversa IHS para RGB. Após a transformação, a imagem colorida terá resolução espacial da imagem SPOT e resolução espectral das três bandas TM. Estatística O que é análise estatística? A Análise Estatística de Amostras permite calcular parâmetros estatísticos a partir de imagens. Os principais são momentos, mediana, matriz de covariância e correlação, matriz de autocorrelação e a matriz de correlação cruzada. O que são momentos? Se X1, X2, ..., XN são os N valores assumidos pela variável X, pode-se definir: o Momento de ordem r por: o Momento de ordem r centrado na média por: , onde (momento de ordem 1), é o valor médio dos dados. O momento centrado na média de ordem 2 é a variância. O que é média? A média dos dados numéricos X1, X2, ..., XN é representada por e definida por: , (momento de ordem 1). O que é mediana? A mediana de um conjunto de N números ordenados em ordem de grandeza, é o valor do ponto central (N ímpar) ou a média aritmética dos dois valores centrais (N par). Exemplos: o 3,4,4,5,6,8,8,8,10 tem mediana 6 o 5,5,7,9,11,12,13,17 tem mediana 10. O que é a moda? A moda é o valor mais freqüente em um conjunto de valores numéricos. A moda pode não existir e, mesmo que exista, pode não ser única. Exemplos: o 1,1,3,3,5,7,7,7,11,13 tem moda 7 o 3,5,8,11,13,18 não tem moda o 3,5,5,5,6,6,7,7,7,11,12 tem duas modas: 5,7 (bimodal). O que são desvio padrão e variância? Medem o grau de dispersão dos dados numéricos em torno de um valor médio. O Desvio Padrão de um conjunto de dados X1, ..., Xn é definido por: A Variância é o quadrado do desvio padrão: O que é covariância? Covariância entre dois conjuntos de dados numéricos a e b, com N pontos é definido por: Indica o grau de similaridade entre os conjuntos a e b, ou seja, como os dados estão correlacionados entre si. Quanto maior este valor maior o grau de correlação entre os dados. O que é coeficiente de correlação? Mede a similaridade entre dois conjuntos de dados numéricos sobre uma escala absoluta de [-1,1]. É calculado através da divisão do valor de covariância pela raiz quadrada do produto dos desvios padrões dos conjuntos de dados a e b: O que é coeficiente de variação? O efeito da variação ou dispersão em relação à média pode ser medido pela dispersão relativa, definida por: Dispersão Relativa = Dispersão Absoluta/Média Se a dispersão absoluta for o desvio padrão, a dispersão relativa é denominada coeficiente de variação v: . O coeficiente de variação deixa de ser útil quando a média é próxima de zero. O que é coeficiente do momento de assimetria? É o grau de desvio ou afastamento do eixo de simetria de uma distribuição. Para distribuições assimétricas a média tende a situar-se do lado da cauda mais longa da distribuição. Este coeficiente pode ser definido usando o 3 momento centrado na média e o desvio padrão: O que é coeficiente de Kurtosis? Mede o grau de achatamento de uma distribuição de dados, e pode ser definido pela divisão do momento de grau 4 centrado na média pela variância ao quadrado. Ou seja: Componentes Principais Transformação por Principais Componentes Observa-se freqüentemente que bandas individuais de uma imagem multiespectral são altamente correlacionadas, ou seja, as bandas são similares visual e numericamente. Esta correlação advém do efeito de sombras resultantes da topografia, da sobreposição das janelas espectrais entre bandas adjacentes e do próprio comportamento espectral dos objetos. A análise das bandas espectrais individuais pode ser então ineficiente devido à informação redundante presente em cada uma dessas bandas. A geração de componentes principais é uma técnica de realce que reduz ou remove esta redundância espectral, ou seja, gera um novo conjunto de imagens cujas bandas individuais apresentam informações não-disponíveis em outras bandas. Esta transformação é derivada da matriz de covariância entre as bandas e gera um novo conjunto de imagens onde cada valor de "pixel" é uma combinação linear dos valores originais. O número de componentes principais é igual ao número de bandas espectrais utilizadas e são ordenadas de acordo com o decréscimo da variância de nível de cinza. A primeira componente principal tem a maior variância (maior contraste) e a última, a menor variância. A figura mostra que a transformação de compo-nente principal em duas dimensões corresponde à rota-ção do eixo original da coordenada para coincidir com as direções de máxima e mínima variância no dado. Neste processo utiliza-se o coeficiente de correlação ou da covariância para se determinar um conjunto de quantidades chamadas de autovalores. Os autovalores representam o comprimento dos eixos das componentes principais de uma imagem e são medidos em unidade de variância. Associados a cada autovalor existe um vetor de módulo unitário chamado autovetor. Os autovetores representam as direções dos eixos das componentes principais. São fatores de ponderação que definem a contribuição de cada banda original para uma componente principal, numa combinação aditiva e linear. Para facilitar a percepção dessas contribuições, deve-se transformar os autovetores em porcentagens. Sabendo-se o sinal de cada coeficiente do autovetor, pode-se comparar as porcentagens com as curvas espectrais de materiais conhecidos (por exemplo, vegetação, água, diferentes tipos de solo), determinando-se assim em qual(is) componente(s) principal(is) a informação espectral desejada irá ser concentrada. O SPRING permite ao usuário analisar os dados de autovalores e autovetores (parâmetros estatísticos). A seguir, apresenta-se um exemplo que mostra como esses dados são fornecidos. Bandas Médias Variância Componentes % Informação B1 40.08 209.79 P1 64.76 B2 48.81 273.13 P2 35.24 Matriz de autovetores + 0.5271 + 0.8498 + 0.8498 - 0.5271 No exemplo tem-se que a 1ª componente principal (P1) apresenta um autovalor de 64.76, isto é, 64.76% das informações de B1 e B2 estão em P1, e que 35.24% estão em P2. Analisando-se a matriz de autovetores tem-se que: P1 = B1 x (+ 0.5271) + B2 x (+ 0.8498) P2 = B1 x (+ 0.8498) + B2 x (- 0.5271) Desta forma entende-se que para P1 a banda 2 (B2) está contribuindo com mais informação. Este mesmo raciocínio pode ser adotado para as n componentes principais. A primeira componente principal contém a informação de brilho associada às sombras de topografia e às grandes variações da reflectância espectral geral das bandas. Esta componente principal possui a maior parte da variância total dos dados, concentrando a informação antes diluída, em várias dimensões. A segunda e as subseqüentes componentes principais apresentam gradativamente menos contraste entre os alvos e são desprovidas de informação topográfica, devido à ausência de sombreamento. A terceira e quarta componentes principais contêm tipicamente menos estrutura da imagem e mais ruído que as duas primeiras, indicando a compressão dos dados nos primeiros canais. A última componente representa basicamente o ruído existente nos dados originais. As figuras abaixo mostram as três componentes de uma transformação com três bandas (3,4 e 5) do Landsat 5. Primeira Componente Segunda Componente Terceira Componente As componentes principais podem ser geradas com alteração de contraste. Aplica-se a cada C.P. um realce dos níveis digitais deforma que a média seja deslocada para valor 127 e que a partecentral de distribução estatística inclua 2,6 desvios padrões para cada lado da média. Esta transformação considera que os componentes tem distribuição normal, e apenas 0,4% de cada lado da curva é eliminado, ou seja saturado para os níveis 0 e 225. Todas as componentes terão a mesma variância e os valores de nível digital estarão distribuídos entre 0 e 255. As imagens de componentes principais podem ser combinadas em cores, como quaisquer outras. Quando comparada com qualquer combinação de canais originais, a composição colorida das componentes principais apresenta um realce na distribuição das cores, uma vez que não há correlação entre as bandas. Uma composição colorida de imagem de componentes principais tende a apresentar apenas cores espectrais puras e intensamente saturadas, não apresentando tons de cinza (o que indicaria correlação). Antes de executar a função de Principais Componentes, voce pode analisar os parâmetros estatisticos das bandas selecionadas. O usuario pode ver estes parâmetros referente a toda area da imagem ou em uma porção selecionada pelo cursor. Segmentação de Imagens O que é a segmentação de Imagens? A classificação estatística é o procedimento convencional de análise digital de imagens. Constitui um processo de análise de pixels de forma isolada. Esta abordagem apresenta a limitação da análise pontual ser baseada unicamente em atributos espectrais. Para superar estas limitações, propõe-se o uso de segmentação de imagem, anterior à fase de classificação, onde se extraem os objetos relevantes para a aplicação desejada. Neste processo, divide-se a imagem em regiões que devem corresponder às áreas de interesse da aplicação. Entende-se por regiões um conjunto de "pixels" contíguos, que se espalham bidirecionalmente e que apresentam uniformidade. A divisão em porções consiste basicamente em um processo de crescimento de regiões, de detecção de bordas ou de detecção de bacias. O que é crescimento de regiões? É uma técnica de agrupamento de dados, na qual somente as regiões adjacentes, espacialmente, podem ser agrupadas. Inicialmente, este processo de segmentação rotula cada "pixel" como uma região distinta. Calcula-se um critério de similaridade para cada par de região adjacente espacialmente. O critério de similaridade baseia-se em um teste de hipótese estatístico que testa a média entre as regiões. A seguir, divide-se a imagem em um conjunto de sub-imagens e então realiza-se a união entre elas, segundo um limiar de agregação definido. Para a união de duas regiões A e B vizinhas, deve-se adotar o seguinte critério: o A e B são similares (teste das médias); o a similaridade satisfaz o limiar estabelecido; o A e B são mutuamente próximas (dentre os vizinhos de A, B é a mais próxima, e dentre os vizinhos de B, A é a mais próxima). Caso as regiões A e B satisfaçam estes critérios, estas regiões são agregadas, caso contrário o sistema reinicia o processo de teste de agregação. O que é detecção de bacias? A classificação por detecção de bacias é feita sobre uma imagem resultante da extração de bordas. A extração de bordas é realizada por um algoritmo de detecção de bordas, ou seja pelo filtro de Sobel. Este algoritmo considera os gradientes de nível de cinza da imagem original, para gerar uma imagem gradiente ou imagem de intensidade de borda. O algoritmo calcula um limiar para a perseguição de bordas. Quando ele encontra um "pixel" com valor superior ao limiar estabelecido, tem-se início o processo de perseguição da borda. Observa-se a vizinhança para identificar o próximo "pixel" de maior valor de nível digital e segue-se nesta direção até que se encontre outra borda ou a fronteira da imagem. Deste processo gera-se uma imagem binária com os valores de 1 referentes às bordas e 0, a regiões de não-bordas. A imagem binária será rotulada de modo que as porções da imagem com valores 0 constituirão regiões limitadas pelos valores 1 da imagem, constituindo a imagem rotulada. O procedimento de segmentação por detecção de bacias pressupõe uma representação topográfica para a imagem, ou seja, para uma dada imagem gradiente, o valor de nível digital de cada "pixel" equivale a um valor de elevação naquele ponto. A imagem equivaleria a uma superfície topográfica com feições de relevo ou uma região com bacias de diferentes profundidades. O crescimento de uma região equivaleria à imersão da superfície topográfica em um lago. Define-se um altura inicial (nível digital) para o preenchimento das bacias (limiar). A "água" preencherá progressivamente as diferentes bacias da imagem até um limiar definido pela topografia (valor de nível digital). Ao alcançar o limite, define-se uma barreira entre duas regiões. O processo de preenchimento continua em outra direção até atingir um novo limite topográfico, definindo-se mais uma barreira, e assim sucessivamente até que todas as barreiras tenham sido definidas. O resultado é uma imagem rotulada, cada região apresentando um rótulo (valor de nível digital), que devem ser classificadas por classificadores de região. Classificação de Imagens O que é classificação? Classificação é o processo de extração de informação em imagens para reconhecer padrões e objetos homogêneos e são utilizados em Sensoriamento Remoto para mapear áreas da superfície terrestre que correspondem aos temas de interesse. A informação espectral de uma cena pode ser representada por uma imagem espectral, na qual cada "pixel" tem coordenadas espaciais x, y e uma espectral L, que representa a radiância do alvo em todas as bandas espectrais, ou seja para uma imagem de K bandas, existem K níveis de cinza associados a cada "pixel" sendo um para cada banda espectral. O conjunto de características espectrais de um "pixel" é denotado pelo termo atributos espectrais. Os classificadores podem ser divididos em classificadores "pixel a pixel" e classificadores por regiões. o Classificadores "pixel a pixel": Utilizam apenas a informação espectral de cada pixel para achar regiões homogêneas. Estes classificadores podem ser separados em métodos estatísticos (utilizam regras da teoria de probabilidade) e determinísticos (não utilizam probabilidade). o Classificadores por regiões: Utilizam, além de informação espectral de cada "pixel", a informação espacial que envolve a relação com seus vizinhos. Procuram simular o comportamento de um foto- intérprete, reconhecendo áreas homogêneas de imagens, baseados nas propriedades espectrais e espaciais de imagens. A informação de borda é utilizada inicialmente para separar regiões e as propriedades espaciais e espectrais irão unir áreas com mesma textura. O resultado da classificação digital é apresentado por meio de classes espectrais (áreas que possuem características espectrais semelhantes), uma vez que um alvo dificilmente é caracterizado por uma única assinatura espectral. É constituído por um mapa de "pixels" classificados, representados por símbolos gráficos ou cores, ou seja, o processo de classificação digital transforma um grande número de níveis de cinza em cada banda espectral em um pequeno número de classes em uma única imagem. As técnicas de classificação aplicadas apenas a um canal espectral (banda da imagem) são conhecidas como classificações unidimensionais. Quando o critério de decisão depende da distribuição de níveis de cinza em vários canais espectrais as técnicas são definidas como de classificação multiespectral. O primeiro passoem um processo de classificação multiespectral é o treinamento. Treinamento é o reconhecimento da assinatura espectral das classes. Existem basicamente duas formas de treinamento: supervisionado e não- supervisionado. Quando existem regiões da imagem em que o usuário dispõe de informações que permitem a identificação de uma classe de interesse, o treinamento é dito supervisionado. Para um treinamento supervisionado o usuário deve identificar na imagem uma área representativa de cada classe. É importante que a área de treinamento seja uma amostra homogênea da classe respectiva, mas ao mesmo tempo deve-se incluir toda a variabilidade dos níveis de cinza. Recomenda-se que o usuário adquira mais de uma área de treinamento, utilizando o maior número de informações disponíveis, como trabalhos de campo, mapas, etc. Para a obtenção de classes estatisticamente confiáveis, são necessários de 10 a 100 "pixels" de treinamento por classe. O número de "pixels" de treinamento necessário para a precisão do reconhecimento de uma classe aumenta com o aumento da variabilidade entre as classes. Exemplo de seleção de áreas no treinamento supervisionado. Quando o usuário utiliza algoritmos para reconhecer as classes presentes na imagem, o treinamento é dito não-supervisionado. Ao definir áreas para o treinamento não- supervisionado, o usuário não deve se preocupar com a homogeneidade das classes. As áreas escolhidas devem ser heterogêneas para assegurar que todas as possíveis classes e suas variabilidades sejam incluídas. Os "pixels" dentro de uma área de treinamento são submetidos a um algoritmo de agrupamento ("clustering") que determina o agrupamento do dado, numa feição espacial de dimensão igual ao número de bandas presentes. Este algoritmo assume que cada grupo ("cluster") representa a distribuição de probabilidade de uma classe. Exemplo de seleção de áreas no treinamento não-supervisionado. As técnicas de classificação multiespectral "pixel a pixel" mais comuns são: máxima verossimilhança (MAXVER), distância mínima e método do paralelepípedo. MAXVER é o método de classificação, que considera a ponderação das distâncias entre médias dos níveis digitais das classes, utilizando parâmetros estatísticos. Os conjuntos de treinamento definem o diagrama de dispersão das classes e suas distribuições de probabilidade, considerando a distribuição de probabilidade normal para cada classe do treinamento. Para duas classes (1 e 2) com distribuição de probabilidade distintas, as distribuições representam a probabilidade de um "pixel" pertencer a uma ou outra classe, dependendo da posição do "pixel" em relação a esta distribuição. Ocorre uma região onde as duas curvas sobrepõem-se, indicando que um determinado "pixel" tem igual probabilidade de pertencer às duas classes. Nesta situação estabelece-se um critério de decisão a partir da definição de limiares. Exemplo de limite de aceitação de uma classificação, no ponto onde as duas distribuições se cruzam. Um "pixel" localizado na área sombreada, apesar de pertencer à classe 2, será classificado como classe 1. O limiar de aceitação indica a % de "pixels" da distribuição de probabilidade de uma classe que será classificada como pertencente a esta classe. Um limite de 99%, por exemplo, engloba 99% dos "pixels", sendo que 1% serão ignorados (os de menor probabilidade), compensando a possibilidade de alguns "pixels" terem sido introduzidos no treinamento por engano, nesta classe, ou estarem no limite entre duas classes. Um limiar de 100% resultará em uma imagem classificada sem rejeição, ou seja, todos os "pixels" serão classificados. Para diminuir a confusão entre as classes, ou seja, reduzir a sobreposição entre as distribuições de probabilidades das classes, aconselha-se a aquisição de amostras significativas de alvos distintos e a avaliação da matriz de classificação das amostras. A matriz de classificação apresenta a distribuição de porcentagem de "pixels" classificados correta e erroneamente. No exemplo a seguir, apresenta-se uma matriz de classificação com as porcentagens de 4 classes definidas na aquisição de amostras, os valores de desempenho médio, abstenção (quanto não foi classificado) e confusão média. N 1 2 3 4 1 4.7 94.3 0.0 0.0 0.9 2 1.1 0.0 82.3 0.0 16.6 3 0.0 13.3 0.0 86.7 0.0 4 3.8 0.0 4.7 0.0 91.5 Desempenho médio: 89.37 Abstenção média: 3.15 Confusão média: 7.48 O valor de N representa a quantidade de cada classe (porcentagem de "pixels") que não foi classificada. A classe 1 corresponde à floresta, a classe 2 ao cerrado, a classe 3 ao rio e a classe 4 ao desmatamento. Uma matriz de classificação ideal deve apresentar os valores da diagonal principal próximos a 100%, indicando que não houve confusão entre as classes. Contudo esta é uma situação difícil em imagens com alvos de características espectrais semelhantes. O valor fora da diagonal principal, por exemplo 13.3 (classe linha 3 e coluna 1), significa que 13.3% da área da classe "rio" amostrada foi classificada como classe 1 (floresta). O mesmo raciocínio deve ser adotado para os outros valores. Para diminuir a confusão entre as classes, aconselha-se a análise das amostras. Amostras Classes 1 2 3 Floresta 90 50 87 Cerrado 5 50 0 Rio 5 0 0 Desmatamento 0 0 10 Os valores em porcentagem indicam que na amostra 1, 90% dos "pixels" são classificados como floresta, 5% como cerrado e 5% como rio, o que resulta em uma amostra confiável. Por sua vez, a amostra 2 apresentou uma confusão de 50% entre as classes floresta e cerrado, indicando que esta deve ser eliminada. O que é o classificador MAXVER-ICM? Enquanto o classificador MAXVER associa classes considerando pontos individuais da imagem, o classificador MAXVER-ICM (Interated Conditional Modes) considera também a dependência espacial na classificação. Em uma primeira fase, a imagem é classificada pelo algoritmo MAXVER atribuindo classes aos "pixels", considerando os valores de níveis digitais. Na fase seguinte, leva- se em conta a informação contextual da imagem, ou seja a classe atribuída depende tanto do valor observado nesse "pixel", quanto das classes atribuídas aos seus vizinhos. O algoritmo atribui classes a um determinado "pixel", considerando a vizinhança interativamente. Este processo é finalizado quando a % de mudança (porcentagem de "pixels" que são reclassificados) definida pelo usuário é satisfeita. O SPRING fornece ao usuário as opções de 5%, 1% e 0.5% para valores de porcentagem de mudanças. Um valor 5% significa que a reatribuição de classes aos "pixels" é interrompida quando apenas 5% ou menos do total de "pixels" da imagem foi alterado. O que é classificação por distância euclidiana? O método de classificação por distância Euclidiana é um procedimento de classificação supervisionada que utiliza esta distância para associar um "pixel" a uma determinada classe. No treinamento supervisionado, definem-se os agrupamentos que representam as classes. Na classificação, cada "pixel" será incorporado a um agrupamento, através da análise da medida de similaridade de distância Euclidiana, que é dada por: d (x,m) = (x2 - m2) 1/2 onde: x = "pixel" que está sendo testado m = média de um agrupamento N = número de bandas espectrais O classificador compara a distância Euclidiana do "pixel" à média de cada agrupamento. O "pixel" será incorporado ao agrupamento que apresenta a menor distância Euclidiana. Este procedimento é repetido até que toda a imagemseja classificada. O que é pós-classificação? Aplica-se este procedimento em uma imagem classificada, com o objetivo de uniformizar os temas, ou seja, eliminar pontos isolados, classificados diferentemente de sua vizinhança. Com isto, Gera-se um imagem classificada com aparência menos ruidosa. Em uma janela de 3 x 3 "pixels", o ponto central é avaliado quanto à freqüência das classes (temas), em sua vizinhança. De acordo com os valores de peso e limiar definidos pelo usuário, este ponto central terá ou não sua classe substituída pela classe de maior freqüência na vizinhança. o O peso varia de 1 a 7 e define o número de vezes que será considerada a freqüência do ponto central. o O limiar varia também de 1 a 7 e é o valor de freqüência acima do qual o ponto central é modificado. Por exemplo, para a janela de uma imagem classificada será avaliado o "pixel" central pertencente à classe 2. Considera-se um peso e um limiar iguais a 3. 3 3 1 5 2 3 5 5 5 Obtém-se a seguinte freqüência de classes: Classe 1 2 3 5 Freqüência 1 3 3 4 A tabela acima indica que a classe 1 ocorre uma vez; a classe 3 ocorre três vezes e a classe 5, quatro vezes. A freqüência da classe 2 é considerada 3, pelo fato do peso definido ser 3. O limiar igual a 3 fará com que o ponto central (de classe 2) seja atribuído à classe 5, cuja freqüência (4) é maior que o limiar definido. A janela classificada com seus temas uniformizados torna-se: 3 3 1 5 5 3 5 5 5 A definição de peso e limiar dependerá da experiência do usuário e das características da imagem classificada. Quanto menor o peso e menor o limiar, maior o número de substituições que serão realizadas.
Compartilhar