Buscar

MANUAL BSICO pdi

Prévia do material em texto

MANUAL BÁSICO – PROCESSAMENTO DIGITAL DE IMAGENS 
 
Processamento de Imagens 
 
O que é processamento de imagens? 
 As técnicas voltadas para a análise de dados multidimensionais, adquiridos por 
diversos tipos de sensores recebem o nome de processamento digital de imagens, ou 
seja é a manipulação de uma imagem por computador de modo onde a entrada e a 
saída do processo são imagens. 
 Usa-se para melhorar o aspecto visual de certas feições estruturais para o analista 
humano e para fornecer outros subsídios para a sua interpretação, inclusive gerando 
produtos que possam ser posteriormente submetidos a outros processamentos. 
 Inclui diversas áreas como a análise de recursos naturais e meteorologia por meio de 
imagens de satélites; transmissão digital de sinais de televisão ou fac-símile; análise de 
imagens biomédicas; análise de imagens metalográficas e de fibras vegetais; obtenção 
de imagens médicas por ultra-som, radiação nuclear ou técnicas de tomografia 
computadorizada; aplicações em automação industrial envolvendo o uso de sensores 
visuais em robôs. 
 O uso de imagens multiespectrais registradas por satélites tais como, Landsat, SPOT 
ou similares é uma valiosa técnica para a extração dos dados destinados às várias 
aplicações de pesquisa de recursos naturais. A obtenção das informações espectrais 
registradas pelos sistemas nas diferentes partes do espectro eletromagnético, visando a 
identificação e discriminação dos alvos de interesse, depende principalmente da 
qualidade da representação dos dados contidos nas imagens. 
 As técnicas de processamento digital de imagens, além de permitirem analisar uma 
cena nas várias regiões do espectro eletromagnético, também possibilitam a integração 
de vários tipos de dados, devidamente georeferenciados. 
Como pode-se dividir o processamento de imagens? 
 Em pré-processamento, realce e classificação. 
o Pré-processamento refere-se ao processamento inicial de dados brutos para 
calibração radiométrica da imagem, correção de distorções geométricas e 
remoção de ruído. 
o Realce visa melhorar a qualidade da imagem, permitindo uma melhor 
discriminação dos objetos presentes na imagem. 
o Na classificação são atribuídas classes aos objetos presentes na imagem. 
O que é realce de contraste? 
 
A técnica de realce de contraste tem por objetivo melhorar a qualidade das imagens sob os 
critérios subjetivos do olho humano. É normalmente utilizada como uma etapa de pré-
processamento para sistemas de reconhecimento de padrões. 
 O contraste entre dois objetos pode ser definido como a razão entre os seus níveis de 
cinza médios. 
 A manipulação do contraste consiste numa transferência radiométrica em cada 
"pixel", com o objetivo de aumentar a discriminação visual entre os objetos presentes 
na imagem. Realiza-se a operação ponto a ponto, independentemente da vizinhança. 
 A escolha do mapeamento direto adequado é, em geral, essencialmente empírica. 
Entretanto, um exame prévio do histograma da imagem pode ser útil. O histograma de 
uma imagem descreve a distribuição estatística dos níveis de cinza em termos do 
número de amostras ("pixels") com cada nível. A distribuição pode também ser dada 
em termos da percentagem do número total de "pixels" na imagem. Pode ser 
estabelecida uma analogia entre o histograma de uma imagem e a função densidade de 
probabilidade, que é um modelo matemático da distribuição de tons de cinza de uma 
classe de imagens. 
 A cada histograma está associado o contraste da imagem. 
 
 
 Pode-se fazer um realce de contraste utilizando-se uma função matemática 
denominada transformação radiométrica. Esta função consiste em mapear as variações 
dentro do intervalo original de tons de cinza, para um outro intervalo desejado e é 
utilizado para aumentar o contraste de uma imagem, expandindo o intervalo original 
de níveis de cinza da imagem original. 
 
Quais são as características do realce Linear? 
 
O aumento de contraste por uma transformação linear é a forma mais simples das opções. A 
função de transferência é uma reta e apenas dois parâmetros são controlados: a inclinação da 
reta e o ponto de interseção com o eixo X (veja figura abaixo). A inclinação controla a 
quantidade de aumento de contraste e o ponto de interseção com o eixo X controla a 
intensidade média da imagem final. 
 A função de mapeamento linear pode ser representada por: 
 
Y = AX + B 
 onde: 
o Y = novo valor de nível de cinza; 
o X = valor original de nível de cinza; 
o A = inclinação da reta (tangente do ângulo); 
o B = fator de incremento, definido pelos limites mínimo e máximo fornecidos 
pelo usuário. 
 
 
 No aumento linear de contraste as barras que formam o histograma da imagem de 
saída são espaçadas igualmente, uma vez que a função de transferência é uma reta. O 
histograma de saída será idêntico em formato ao histograma de entrada, exceto que ele 
terá um valor médio e um espalhamento diferentes. 
Quais são as características do realce MinMax? 
 
 A manipulação de histograma pela opção MinMax (Mínimo/Máximo) é idêntica a 
manipulação de uma curva linear. A diferença está no momento em que feita a escolha 
da opção. 
 O sistema calcula o valor de nível de cinza mínimo e máximo que é ocupado pela 
imagem original. De posse desses valores é aplicada uma transformação linear onde a 
base da reta é posicionada no valor mínimo e o topo da reta no valor máximo. Desse 
modo não haverá perda de informação por "overflow", isto é, todos os níveis de cinza 
continuarão com o mesmo número de pixels. 
 
 
 Um "overflow" ocorre quando uma porção pixels de níveis de cinza diferentes são 
transformados em um único nível, isto é, quando a inclinação da reta de transferência 
é exagerada. Observe a figura abaixo onde a seta de "overflow" está indicando, 
significa perda de informação, uma vez que pixels de colunas vizinhas do histograma 
de entrada, que originalmente podiam ser diferenciados com base no seu nível de 
cinza, serão fundidos numa só coluna e passarão a ter o mesmo nível de cinza (0 para 
o caso da figura abaixo) 
 
 OBS.: A ocorrência de "overflow" é muitas vezes desejada, uma vez que o usuário 
sabe em que intervalo de níveis de cinza está o que deseja realçar. Pois caso contrário 
estará definitivamente perdendo a informação quando salvar a imagem realçada. 
Quais são as características do realce RaizQuadrado?, Quadrado, Log, Negativo, EqualHist, 
Fatia. 
 
 Utiliza-se a opção de transformação por raiz quadrada para aumentar o contraste das 
regiões escuras da imagem original. 
 A função de transformação é representada pela curva como na figura abaixo. Observe 
que a inclinação da curva é tanto maior quanto menores os valores de níveis de cinza. 
 Pode ser expresso pela função: 
 
Y = A 
 onde: 
o Y = nível de cinza resultante 
o X = nível de cinza original 
o A = fator de ajuste para os níveis de saída ficarem entre 0 e 255 
 
 
 NOTA: Este mapeamento difere do logarítmico porque realça um intervalo maior de 
níveis de cinza baixos (escuros), enquanto o logarítmico realça um pequeno intervalo. 
Quais são as características do realce Quadrado? 
 
 
 Utiliza-se este mapeamento quando se deseja aumentar o contraste de feições claras 
(altos níveis de cinza da imagem). Observe na figura abaixo que o aumento de 
contraste é maior a partir da média do histograma, mesmo havendo um deslocamento 
geral para a região de níveis mais escuros. 
 
 
 A função de transformação é dada pela equação: 
 
Y = AX
2
 
 onde: 
o X = nível de cinza original 
o Y = nível de cinza resultante 
o A = fator de ajuste paraos níveis de saída estarem entre 0 e 255 
Quais são as características do realce Logarítmico? 
 
 O mapeamento logarítmico de valores de níveis de cinza é útil para aumento de 
contraste em feições escuras (valores de cinza baixos). Equivale a uma curva 
logarítmica como mostrado na figura a seguir. 
 A função de transformação é expressa pela equação: 
 
Y = A log (X + 1) 
 onde: 
o Y = novo valor de nível de cinza 
o X = valor original de nível de cinza 
o A = fator definido a partir dos limites mínimo e máximo da tabela, para que os 
valores estejam entre 0 e 255 
 
 
 NOTA: Observe na figura acima que uma porção menor de níveis de cinza sobre um 
grande aumento de contraste, comparado com a transformação por raiz quadrada, 
mencionada mais acima. 
Quais são as características do realce Negativo? 
 
 
 É uma função de mapeamento linear inversa, ou seja, o contraste ocorre de modo que 
as áreas escuras (baixos valores de nível de cinza) tornam-se claras (altos valores de 
nível de cinza) e vice-versa. A figura a seguir mostra sua representação. 
 
 
 A função de mapeamento negativa pode ser representada por: 
 
Y = - (AX + B) 
 onde: 
o Y = novo valor de nível de cinza 
o X = valor original de nível de cinza 
o A = inclinação da reta (tangente do ângulo) 
o B = fator de incremento, definido pelos limites mínimo e máximo fornecidos 
pelo usuário. 
 NOTA: Atente para o fato que todas as opções mencionadas até o momento são 
passíveis de ocorrer um "overflow". 
 NOTA: Todas as opções de contraste mencionadas acima têm o modo de operação 
igual ao descrito no item Manipulando um Histograma descrito acima. 
Quais são as características do realce por Equalização de Histograma? 
 
 É uma maneira de manipulação de histograma que reduz automaticamente o contraste 
em áreas muito claras ou muito escuras, numa imagem. Expande também os níveis de 
cinza ao longo de todo intervalo. Consiste em uma transformação não-linear que 
considera a distribuição acumulativa da imagem original, para gerar uma imagem 
resultante, cujo histograma será aproximadamente uniforme (veja figura abaixo). 
 A opção de equalização parte do princípio que o contraste de uma imagem seria 
otimizado se todos os 256 possíveis níveis de intensidade fossem igualmente 
utilizados ou, em outras palavras, todas as barras verticais que compõem o histograma 
fossem da mesma altura. Obviamente isso não é possível devido à natureza discreta 
dos dados digitais de uma imagem de sensoriamento remoto. Contudo, uma 
aproximação é conseguida ao se espalhar os picos do histograma da imagem, deixando 
intocadas as partes mais "chatas" do mesmo. Como podemos ver na figura abaixo, 
Este processo é obtido através de uma função de transferência que tenha uma alta 
inclinação toda vez que o histograma original apresentar um pico, e uma baixa 
inclinação no restante do histograma. 
 
 O SPRING apresenta a seguinte função de equalização de histograma: 
 
Y = (faxi) . 255 
 Pt 
 onde: 
o faxi = freqüência acumulada para o nível de cinza xi 
o Pt = população total (número total de "pixels") 
 NOTA: A opção de equalização é automaticamente calculada e apresentada, de modo 
que o usuário não poderá alterar a forma ou posição da curva, permanecendo assim a 
tela no modo estático. 
Quais são as características do realce por Fatia? 
 
 A opção fatia (ou fatiamento de níveis de cinza) é uma forma de aumento de contraste 
cuja operação consiste simplesmente em realçar os pixels cujas intensidades se situam 
dentro de um intervalo específico (a fatia), isto é, entre um máximo e um mínimo. 
Consiste na divisão do intervalo total de níveis de cinza de determinadas fatias (ou 
classes de cores). 
 O fatiamento de níveis de cinza é considerado a forma mais simples de classificação, 
de modo que é aplicado apenas a uma única banda espectral. 
 De acordo com o critério de determinação dos intervalos de níveis de cinza, pode-se 
obter fatiamento normal, equidistribuição e arco-íris. 
 Fatiamento normal: as fatias são definidas de modo que o intervalo entre cada faixa 
seja constante. 
 
 
 Fatiamento equidistribuição: o intervalo de níveis de cinza é dividido de modo que 
cada faixa contenha o mesmo número de pontos. 
 
 
 Fatiamento arco-íris: é o mapeamento de um tom de cinza para uma determinada 
cor. Baseia-se no fato de que variações de cores são muito mais visíveis ao olho 
humano do que variações de tons de cinza. O mapeamento global desses níveis para o 
espaço de cor segue a seqüência do arco-íris. 
 
 
Quais são as características do realce por Edição? 
 
 
 Permite a aplicação de uma tabela de transformação radiométrica definida pelo 
usuário. O seu objetivo é salientar um aspecto específico da imagem que o usuário 
deseja analisar. 
 
 
 Exemplo: caso em que uma imagem apresenta regiões escuras (baixos níveis de cinza) 
dentro de uma área com pequenas variações radiométricas que não são de interesse. 
Pode-se utilizar o limite de saturação para realçar ou amenizar o contraste de alguma 
característica da imagem. A figura a seguir ilustra o efeito da variação do limiar de 
saturação. 
 Se o histograma apresenta dois picos de freqüência (bimodal), pode-se segmentar a 
imagem em duas classes definidas por uma limiar (L). Esta operação é útil para 
separar dois grandes grupos de níveis de cinza na imagem. 
 
 
 Quando a imagem em que se está trabalhando apresenta um histograma assimétrico, 
como é freqüentemente observado, não é aconselhável se trabalhar com uma 
transformação linear simples. Neste caso o usuário, com a ajuda de um cursor, pode 
especificar na tela uma transformação linear por partes. Isto oferece um maior grau de 
liberdade na especificação do histograma de saída, reduzindo a assimetria do 
histograma e utilizando melhor o intervalo de níveis de cinza disponível. Exemplo: 
 
Restauração 
 
O que é restauração? 
 A Restauração é uma técnica de correção radiométrica cujo objetivo é corrigir as 
distorções inseridas pelo sensor óptico no processo de geração das imagens digitais. 
Pode-se dizer que a imagem digital é uma cópia borrada da cena, dado que os detalhes 
vistos na cena são suavizados devido as limitações do sensor. A idéia de restaurar a 
imagem é reduzir este efeito de borramento, e portanto obter uma imagem realçada. 
 A correção é realizada por um filtro linear. Os pesos do filtro de restauração são 
obtidos a partir das características do sensor, e não de forma empírica como é feito no 
caso dos filtros de realce tradicionais. Neste caso, o filtro é específico para cada tipo 
de sensor e banda espectral. 
 Este tipo de processamento é recomendado para ser realizado sobre a imagem original 
sem qualquer tipo de processamento tais como realce e filtragem, que alterem as 
características radiométricas da imagem. Deve-se observar também que não é possível 
processar uma imagem reamostrada, já que as características radiométrica e espacial 
da imagem foram alteradas. O resultado do processamento será salvo em disco. 
O que é eliminação de ruído? 
 No processo de geração de imagens, alguns ruídos são inseridos nas imagens. 
Geralmente, os pixels com ruído aparecem como pontos com níveis de cinza bem 
diferentes da sua vizinhança (escuros (pretos) ou saturados (brancos)). Estes pontos 
ruidosos podem aparecer distribuídos aleatoriamente ou de forma sistemática (listras 
verticais e horizontais). As causas podem ser falha de detetores, limitações do sistema 
eletrônico do sensor, etc. Assim, a função Eliminação de ruído no SPRING, tem 
como objetivo eliminar ou reduziros pontos de ruído na imagem. 
 O algoritmo usa dois limiares: Limiar Inferior e Limiar Superior. O usuário deverá 
escolher os valores destes limiares que serão utilizados na caracterização dos pontos 
ruidosos. Antes da execução da função, recomenda-se que o usuário faça uma prévia 
análise do ruído na imagem, através da função do SPRING, Leitura de Pixels. Esta 
análise permitirá ao usuário escolher os limiares adequados ao nível de ruído a ser 
eliminado na imagem. 
 Para detectar se um ponto na imagem P(i,j) (i é linha e j é coluna) é ruído ou não, 
somente os seus vizinhos superior P(i-1,j) e inferior P(i+1,j) são analisados. 
 Escolha do Limiar Inferior: 
o Um ponto será considerado ruído caso o seu nível de cinza esteja abaixo dos 
níveis de cinza de seus dois pontos vizinhos abaixo e acima (linhas de cima e 
de baixo) por uma diferença maior que este limiar inferior. Neste caso, o ponto 
será substituído pela média entre aqueles dois pontos vizinhos. O valor " 
default" para este parâmetro é 8. 
 Escolha do Limiar Superior: 
o Um ponto será considerado ruído caso o seu nível de cinza esteja acima dos 
níveis de cinza de seus dois pontos vizinhos abaixo e acima (linhas de cima e 
de baixo) por uma diferença maior que este limiar superior. Neste caso 
também, o ponto será substituído pela média entre aqueles dois pontos 
vizinhos. O valor " default" para este parâmetro é 25. 
Filtragem 
 
O que é filtragem? Como se efetua? 
 As técnicas de filtragem são transformações da imagem pixel a pixel, que não 
dependem apenas do nível de cinza de um determinado pixel, mas também do valor 
dos níveis de cinza dos pixels vizinhos. 
 O processo de filtragem é feito utilizando matrizes denominadas máscaras, as quais 
são aplicadas sobre a imagem. 
 
Máscara de 3 linhas por 3 colunas com centro na posição (2,2). 
 A aplicação da máscara com centro na posição (i,j), sendo i o número de uma dada 
linha e j o número de uma dada coluna sobre a imagem, consiste na substituição do 
valor do pixel na posição (i,j) por um novo valor que depende dos valores dos pixels 
vizinhos e dos pesos da máscara, gerando uma nova imagem com a eliminação das 
linhas e colunas iniciais e finais da imagem original. 
 Os filtros espaciais podem ser classificados em passa-baixa, passa-alta ou passa-
banda. Os dois primeiros são os mais utilizados em processamento de imagens. O 
filtro passa-banda é mais utilizado em processamentos específicos, principalmente 
para remover ruídos periódicos. 
O que são filtros lineares? 
 Suavizam e realçam detalhes da imagem e minimizam efeitos de ruído, sem alterar a 
média da imagem. Alguns filtros são descritos a seguir. 
 Passa-Baixa: Suaviza a imagem atenuando as altas freqüências, que correspondem às 
transições abruptas. Tende a minimizar ruídos e apresenta o efeito de borramento da 
imagem. Exemplos de filtros de média 3x3, 5x5 e 7x7. 
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 
1 1 1 *1/9 1 1 1 1 1 1 1 1 1 1 1 1 
1 1 1 1 1 1 1 1 *1/25 1 1 1 1 1 1 1 
 1 1 1 1 1 1 1 1 1 1 1 1 *1/49 
 1 1 1 1 1 1 1 1 1 1 1 1 
 1 1 1 1 1 1 1 
 1 1 1 1 1 1 1 
 Passa-Baixa, de média ponderada, são usados quando os pesos são definidos em 
função de sua distância do peso central. Filtros desse tipo de dimensão 3x3 são: 
1 1 1 1 2 1 
1 2 1 *1/10 2 4 2 *1/16 
1 1 1 1 2 1 
 Passa-Alta: a filtragem passa-alta realça detalhes, produzindo uma "agudização" 
("sharpering") da imagem, isto é, as transições entre regiões diferentes tornam-se mais 
nítidas. Estes filtros podem ser usados para realçar certas características presentes na 
imagem, tais como bordas, linhas curvas ou manchas, mas enfatizam o ruído existente 
na imagem. Alguns exemplos podem ser dado por: 
0 -1 0 -1 -1 -1 1 -2 1 
-1 5 -1 -1 9 -1 -2 5 -2 
0 -1 0 -1 -1 -1 1 -2 1 
 Os filtros de realce de bordas realçam a cena, segundo direções preferenciais de 
interesse, definidas pelas máscaras. Abaixo estão algumas utilizadas para o 
realçamento de bordas em vários sentidos. O nome dado às máscaras indica a direção 
ortogonal preferencial em que será realçado o limite de borda. Assim, a máscara norte 
realça limites horizontais. 
 1 1 1 1 1 1 
Norte 1 -2 1 Nordeste -1 -2 1 
 -1 -1 -1 -1 -1 1 
 
 -1 1 1 -1 -1 1 
Leste -1 -2 1 Sudeste -1 -2 1 
 -1 1 1 1 1 1 
 
 -1 -1 -1 1 -1 -1 
Sul 1 -2 1 Sudoeste 1 -2 -1 
 1 1 1 1 1 1 
 
 1 1 -1 1 1 1 
Oeste 1 -2 -1 Noroeste 1 -2 -1 
 1 1 -1 1 -1 -1 
 Realce não-direcional de bordas: é utilizado para realçar bordas, independentemente 
da direção. As três máscaras mais comuns diferem quanto à intensidade de altos 
valores de níveis de cinza presentes na imagem resultante. A máscara alta deixa passar 
menos os baixos níveis de cinza, isto é, a imagem fica mais clara. A máscara baixa 
produz uma imagem mais escura que a anterior. A máscara média apresenta resultados 
intermediários. 
Alta Média Baixa 
-1 -1 -1 0 -1 0 1 -2 1 
-1 8 -1 -1 4 -1 -2 3 -2 
-1 -1 -1 0 -1 0 1 -2 1 
 Realce de imagens: Utiliza máscaras apropriadas ao realce de características de 
imagens obtidas por um sensor específico. Para imagens TM/Landsat o realce 
compensa distorções radiométricas do sensor. O pixel que terá seu valor de nível de 
cinza substituído pela aplicação da máscara, corresponde à posição sombreada. 
3 -7 -7 3 
-7 -7 13 -7 
-7 13 13 -7 
3 -7 -7 3 
O que são filtros não-lineares? 
 Minimizam/realçam ruídos e suavizam/realçam bordas, alterando a média da imagem, 
sendo os principais os operadores para detecção de bordas e os filtros morfológicos. 
o Operadores para detecção de bordas: Detecta características, como bordas, 
linhas, curvas e manchas, sendo os mais comuns os operadores de Roberts e 
Sobel. 
o Operador de Roberts: Apresenta a desvantagem de certas bordas serem mais 
realçadas do que outras dependendo da direção, mesmo com magnitude igual. 
Como resultado de sua aplicação, obtém-se uma imagem com altos valores de 
nível de cinza, em regiões de limites bem definidos e valores baixos em 
regiões de limites suaves, sendo 0 para regiões de nível de cinza constante. O 
operador consiste na função: , onde a' é o nível de 
cinza correspondente à localização a, a ser substituído; a, b, c, d são as 
localizações cujos valores serão computados para a operação. 
a b 
c d 
o 
o 
Efeito da aplicação do operador de Roberts. 
o 
o Operador de Sobel: Realça linhas verticais e horizontais mais escuras que o 
fundo, sem realçar pontos isolados. Consiste na aplicação de duas máscaras, 
descritas a seguir, que compõem um resultado único: 
a b 
-1 2 -1 -1 0 1 
0 0 0 -2 0 2 
1 2 1 -1 0 1 
o 
o A máscara (a) detecta as variações no sentido horizontal e a máscara (b), no 
sentido vertical. O resultado d esta aplicação, em cada pixel, é dado por: 
 onde a' é o valor de nível de cinza correspondente à localização 
do elemento central da máscara. 
 
Efeito da aplicação do operador de Roberts. 
O que são filtros morfológicos? 
 Exploram as propriedades geométricas dos sinais (níveis de cinza da imagem). Para 
filtros morfológicos, as máscaras são denominadas elementos estruturantes e 
apresentam valores 0 ou 1 na matriz que correspondem ao pixel considerado. Os 
filtros morfológicos básicos são o filtro da mediana, erosão e dilatação. 
o Filtro morfológico da mediana é utilizado para suavização e eliminação de 
ruído e mantém a dimensão da imagem. Exemplo: 
elemento 
estruturante 
 imagem0 1 0 3 6 5 
1 1 1 2 8 3 
0 1 0 2 6 5 
 O pixel central será alterada para o valor 6 (valor mediano na ordenação [2,3,6,6,8]). 
 Filtro morfológico de erosão: provoca efeitos de erosão das partes claras da imagem 
(altos níveis de cinza), gerando imagens mais escuras. Considerando o exemplo 
anterior, o valor a ser substituído no pixel central corresponde ao menor valor da 
ordenação, 2. 
 Filtro morfológico de dilatação: provoca efeitos de dilatação das partes escuras da 
imagem (baixos níveis de cinza), gerando imagens mais claras. Para o exemplo 
anterior, o valor resultante da aplicação deste filtro é o maior valor na ordenação, 8. 
 Os seguintes elementos estruturantes são os mais comuns: 
1 1 1 1 0 1 0 1 0 
1 1 1 0 1 0 1 1 1 
1 1 1 1 0 1 0 1 0 
 
0 0 0 0 1 0 0 0 1 
1 1 1 0 1 0 0 1 0 
0 0 0 0 1 0 1 0 0 
 
1 0 0 
0 1 0 
0 0 1 
 
 Abertura e fechamento de uma imagem: geralmente encadeiam-se filtros de erosão e 
dilatação com o mesmo elemento estruturante para obtenção de efeitos de abertura e 
fechamento. 
o A abertura é obtida pelo encadeamento do filtro de erosão, seguido pelo de 
dilatação, conforme ilustra a figura a seguir. No exemplo, há quebra de istmos 
e eliminação de cabos e ilhas. 
 
 
o O efeito de fechamento é obtido pelo encadeamento do filtro de dilatação, 
seguido pelo de erosão. No exemplo, há eliminação de golfos e fechamento de 
baías. 
 
Operação Aritmética 
 
Para que servem as operações aritméticas? 
 Operações aritméticas são operações "pixel" a "pixel" entre imagens de bandas 
diferentes, através de uma regra matemática definida, tendo como resultado uma 
banda representando a combinação das bandas originais. 
 As operações mais comuns são a soma, subtração, divisão (ou razão entre bandas) e a 
multiplicação de uma banda por uma constante (realce linear). 
 Estas operações permitem comprimir os dados, diminuindo o número de bandas. 
Ocorre perda da informação original quando os resultados das operações ultrapassam 
o intervalo de 0-255. Neste caso, os resultados são normalizados, saturando os valores 
abaixo de 0 em 0, e os acima de 255, em 255, causando perda de informação espectral. 
 Estas operações podem requerer um fator de ganho (multiplicativo) ou "off-set" 
(aditivo), para melhorar a qualidade de contraste da imagem. Os fatores devem ser 
definidos considerando a faixa de valores de entrada e a operação a executar. 
 Em geral, a operação de adição é utilizada para realçar similaridade entre bandas ou 
diferentes imagens e a subtração, a multiplicação e divisão, para realçar as diferenças 
espectrais. 
Para que serve a subtração de imagens? 
 Utilizada para realçar diferenças espectrais, conhecendo-se o comportamento espectral 
dos alvos de interesse e o intervalo espectral das bandas dos sensores, pode-se definir 
as bandas utilizadas para realçar as diferenças espectrais. 
 Exemplos de aplicação da subtração de bandas: 
o Identificação de diferentes tipos de cobertura vegetal; 
o Identificação de minerais formados por óxido de ferro; 
o Detecção do padrão de mudança de cobertura, como uso do solo, expansão 
urbana, desmatamento. 
 Quando a média e desvio padrão dos histogramas das imagens não coincidem, deve-se 
equalizá-las antes da subtração para evitar que o resultado da subtração não 
corresponda à diferença real entre elas. 
Para que serve a adição de imagens? 
 Utilizada para a obtenção da média aritmética entre as imagens, minimizando a 
presença de ruído. O valor de ganho deve ser 1/n, onde n é o número de bandas 
utilizadas na operação. 
 Pode ser utilizada para a integração de imagens resultantes de diferentes 
processamentos. 
Para que serve a multiplicação? 
 É utilizada na implementação de algoritmos que se deseja aplicar sobre a imagem. 
Para que serve a divisão ou razão entre bandas? 
 É utilizada para realçar as diferenças espectrais de um par de bandas, caracterizando 
determinadas feições da curva de assinatura espectral de alguns alvos. 
 Pode apresentar resultados incorretos devido a: 
o Bandas que apresentam ruídos, pois estes serão realçados. 
o Presença do espalhamento atmosférico, seletivo em relação às bandas 
espectrais, gerando valores de nível de cinza que não representam a diferença 
de reflectância entre os alvos. 
o Presença de objetos distintos nas bandas originais com características 
espectrais semelhantes, porém de diferentes intensidades. Na imagem 
resultante, estes objetos não serão distintos. 
 Exemplos de aplicação: 
o Remover efeitos de ganho provenientes de variações espaciais ou temporais, 
quando ocorrem em bandas de uma mesma imagem; 
o Diminuir variações de radiância da imagem, provenientes de efeito de 
topografia, declividade e aspecto. 
o Aumentar diferenças de radiância entre solo e vegetação. 
o Para aumentar o contraste entre solo e vegetação, utilizando a razão entre as 
bandas referentes ao vermelho e infravermelho próximo, gerando os chamados 
índices de vegetação. Com a equação: 
 , onde g é o ganho, o off-set, A banda do infravermelho 
próximo, B a banda do vermelho e C o índice de vegetação de diferença 
normalizada (IVDN). 
Transformação IHS 
 
O que é transformação RGB-IHS? 
 A cor de um objeto, em uma imagem pode ser representada pelas intensidades das 
componentes vermelho R, verde G e azul B, no sistema de cores RGB, ou pela 
intensidade I, pela cor ou matiz H e pela saturação Sno espaço IHS. 
 Intensidade ou brilho é a medida de energia total envolvida em todos os comprimentos 
de onda, sendo responsável pela sensação de brilho da energia incidente sobre o olho. 
 Matiz ou cor de um objeto é a medida do comprimento de onda médio da luz que se 
reflete ou se emite, definindo, a cor do objeto. 
 Saturação ou pureza expressa o intervalo de comprimento de onda ao redor do 
comprimento de onda médio, no qual a energia é refletida ou transmitida. Um alto 
valor de saturação resulta em uma cor espectralmente pura, ao passo que um baixo 
valor indica uma mistura de comprimentos de onda produzindo tons pastéis 
(apagados). 
 O espaço de cores IHS pode ser graficamente representado por um cone. A relação 
espacial entre o espaço RGB e IHS é mostrada na figura. 
 
 
 A distância do ponto até a origem ou ápice do cone representa a intensidade. 
 A distância radial do ponto até o eixo central do cone representa saturação. 
 O matiz é representado como uma seqüência radial ao redor dos círculos de saturação 
e do eixo de intensidade. 
 Por serem independentes, os três parâmetros podem ser analisados e modificados 
separadamente, para um melhor ajuste das cores às características do sistema visual. 
 Na transformação RGB para IHS, escolhem-se três bandas de uma imagem e associa-
se cada banda a um dos componentes RGB. Assim, cada "pixel" na imagem de saída 
possuirá uma correspondência a um ponto no espaço IHS. O resultado é um conjunto 
de três novas imagens: uma de intensidade, uma de matiz e outra de saturação. Estas 
imagens podem ser realçadas, expandindo o intervalo de intensidade e saturação 
através de contraste, e, quando convertidas de IHS para RGB, permitem melhor 
separação das cores e das feições que se deseja observar. 
 Pode se utilizar para combinar imagens de diferentes sensores e resolução espacial, 
como na união de imagens SPOT-HRV (pancromático) e TM-Landsat. O 
procedimento consiste em: 
o Calcular os componentes IHS a partir de três bandas selecionadas do TM 
o Aplicar o contraste nos componentes H e S, e na imagem SPOT. 
o Substituiro componente I é substituído pela imagem SPOT. 
o Aplica-se a transformação inversa IHS para RGB. 
 Após a transformação, a imagem colorida terá resolução espacial da imagem SPOT e 
resolução espectral das três bandas TM. 
Estatística 
 
O que é análise estatística? 
 A Análise Estatística de Amostras permite calcular parâmetros estatísticos a partir de 
imagens. Os principais são momentos, mediana, matriz de covariância e correlação, 
matriz de autocorrelação e a matriz de correlação cruzada. 
O que são momentos? 
 Se X1, X2, ..., XN são os N valores assumidos pela variável X, pode-se definir: 
o Momento de ordem r por: 
o Momento de ordem r centrado na média por: , 
onde (momento de ordem 1), é o valor médio dos dados. 
 O momento centrado na média de ordem 2 é a variância. 
O que é média? 
 A média dos dados numéricos X1, X2, ..., XN é representada por e definida 
por: , (momento de ordem 1). 
O que é mediana? 
 A mediana de um conjunto de N números ordenados em ordem de grandeza, é o valor 
do ponto central (N ímpar) ou a média aritmética dos dois valores centrais (N par). 
Exemplos: 
o 3,4,4,5,6,8,8,8,10 tem mediana 6 
o 5,5,7,9,11,12,13,17 tem mediana 10. 
O que é a moda? 
 A moda é o valor mais freqüente em um conjunto de valores numéricos. A moda pode 
não existir e, mesmo que exista, pode não ser única. Exemplos: 
o 1,1,3,3,5,7,7,7,11,13 tem moda 7 
o 3,5,8,11,13,18 não tem moda 
o 3,5,5,5,6,6,7,7,7,11,12 tem duas modas: 5,7 (bimodal). 
O que são desvio padrão e variância? 
 Medem o grau de dispersão dos dados numéricos em torno de um valor médio. O 
Desvio Padrão de um conjunto de dados X1, ..., Xn é definido por: 
 A Variância é o quadrado do desvio padrão: 
O que é covariância? 
 Covariância entre dois conjuntos de dados numéricos a e b, com N pontos é definido 
por: 
 Indica o grau de similaridade entre os conjuntos a e b, ou seja, como os dados estão 
correlacionados entre si. Quanto maior este valor maior o grau de correlação entre os 
dados. 
O que é coeficiente de correlação? 
 Mede a similaridade entre dois conjuntos de dados numéricos sobre uma escala 
absoluta de [-1,1]. É calculado através da divisão do valor de covariância pela raiz 
quadrada do produto dos desvios padrões dos conjuntos de dados a e 
b: 
O que é coeficiente de variação? 
 O efeito da variação ou dispersão em relação à média pode ser medido pela dispersão 
relativa, definida por: Dispersão Relativa = Dispersão Absoluta/Média 
 Se a dispersão absoluta for o desvio padrão, a dispersão relativa é denominada 
coeficiente de variação v: . 
 O coeficiente de variação deixa de ser útil quando a média é próxima de zero. 
O que é coeficiente do momento de assimetria? 
 É o grau de desvio ou afastamento do eixo de simetria de uma distribuição. Para 
distribuições assimétricas a média tende a situar-se do lado da cauda mais longa da 
distribuição. Este coeficiente pode ser definido usando o 3 momento centrado na 
média e o desvio padrão: 
O que é coeficiente de Kurtosis? 
 Mede o grau de achatamento de uma distribuição de dados, e pode ser definido pela 
divisão do momento de grau 4 centrado na média pela variância ao quadrado. Ou 
seja: 
Componentes Principais 
 
Transformação por Principais Componentes 
 
Observa-se freqüentemente que bandas individuais de uma imagem multiespectral são 
altamente correlacionadas, ou seja, as bandas são similares visual e numericamente. 
 
Esta correlação advém do efeito de sombras resultantes da topografia, da sobreposição das 
janelas espectrais entre bandas adjacentes e do próprio comportamento espectral dos objetos. 
 
A análise das bandas espectrais individuais pode ser então ineficiente devido à informação 
redundante presente em cada uma dessas bandas. 
 
A geração de componentes principais é uma técnica de realce que reduz ou remove esta 
redundância espectral, ou seja, gera um novo conjunto de imagens cujas bandas individuais 
apresentam informações não-disponíveis em outras bandas. 
 
Esta transformação é derivada da matriz de covariância entre as bandas e gera um novo 
conjunto de imagens onde cada valor de "pixel" é uma combinação linear dos valores 
originais. O número de componentes principais é igual ao número de bandas espectrais 
utilizadas e são ordenadas de acordo com o decréscimo da variância de nível de cinza. A 
primeira componente principal tem a maior variância (maior contraste) e a última, a menor 
variância. 
 
A figura mostra que a transformação de compo-nente principal em duas dimensões 
corresponde à rota-ção do eixo original da coordenada para coincidir com as direções 
de máxima e mínima variância no dado. 
 
Neste processo utiliza-se o coeficiente de correlação ou da covariância para se determinar um 
conjunto de quantidades chamadas de autovalores. 
 
Os autovalores representam o comprimento dos eixos das componentes principais de uma 
imagem e são medidos em unidade de variância. Associados a cada autovalor existe um vetor 
de módulo unitário chamado autovetor. Os autovetores representam as direções dos eixos das 
componentes principais. São fatores de ponderação que definem a contribuição de cada banda 
original para uma componente principal, numa combinação aditiva e linear. 
 
Para facilitar a percepção dessas contribuições, deve-se transformar os autovetores em 
porcentagens. Sabendo-se o sinal de cada coeficiente do autovetor, pode-se comparar as 
porcentagens com as curvas espectrais de materiais conhecidos (por exemplo, vegetação, 
água, diferentes tipos de solo), determinando-se assim em qual(is) componente(s) principal(is) 
a informação espectral desejada irá ser concentrada. 
 
O SPRING permite ao usuário analisar os dados de autovalores e autovetores (parâmetros 
estatísticos). A seguir, apresenta-se um exemplo que mostra como esses dados são fornecidos. 
 
Bandas Médias Variância Componentes % Informação 
B1 40.08 209.79 P1 64.76 
B2 48.81 273.13 P2 35.24 
 
 
Matriz de autovetores 
+ 0.5271 + 0.8498 
+ 0.8498 - 0.5271 
No exemplo tem-se que a 1ª componente principal (P1) apresenta um autovalor de 64.76, isto 
é, 64.76% das informações de B1 e B2 estão em P1, e que 35.24% estão em P2. 
 
Analisando-se a matriz de autovetores tem-se que: 
 P1 = B1 x (+ 0.5271) + B2 x (+ 0.8498) 
 P2 = B1 x (+ 0.8498) + B2 x (- 0.5271) 
Desta forma entende-se que para P1 a banda 2 (B2) está contribuindo com mais informação. 
Este mesmo raciocínio pode ser adotado para as n componentes principais. 
 
A primeira componente principal contém a informação de brilho associada às sombras de 
topografia e às grandes variações da reflectância espectral geral das bandas. Esta componente 
principal possui a maior parte da variância total dos dados, concentrando a informação antes 
diluída, em várias dimensões. 
 
A segunda e as subseqüentes componentes principais apresentam gradativamente menos 
contraste entre os alvos e são desprovidas de informação topográfica, devido à ausência de 
sombreamento. 
 
A terceira e quarta componentes principais contêm tipicamente menos estrutura da imagem 
e mais ruído que as duas primeiras, indicando a compressão dos dados nos primeiros canais. 
 
A última componente representa basicamente o ruído existente nos dados originais. 
 
As figuras abaixo mostram as três componentes de uma transformação com três bandas (3,4 e 
5) do Landsat 5. 
 
 
Primeira Componente 
 
 
Segunda Componente 
 
 
Terceira Componente 
 
As componentes principais podem ser geradas com alteração de contraste. 
Aplica-se a cada C.P. um realce dos níveis digitais deforma que a média seja deslocada para 
valor 127 e que a partecentral de distribução estatística inclua 2,6 desvios padrões para cada 
lado da média. 
 
Esta transformação considera que os componentes tem distribuição normal, e apenas 0,4% de 
cada lado da curva é eliminado, ou seja saturado para os níveis 0 e 225. 
 
Todas as componentes terão a mesma variância e os valores de nível digital estarão 
distribuídos entre 0 e 255. 
 
As imagens de componentes principais podem ser combinadas em cores, como quaisquer 
outras. Quando comparada com qualquer combinação de canais originais, a composição 
colorida das componentes principais apresenta um realce na distribuição das cores, uma vez 
que não há correlação entre as bandas. 
 
Uma composição colorida de imagem de componentes principais tende a apresentar apenas 
cores espectrais puras e intensamente saturadas, não apresentando tons de cinza (o que 
indicaria correlação). 
 
Antes de executar a função de Principais Componentes, voce pode analisar os parâmetros 
estatisticos das bandas selecionadas. O usuario pode ver estes parâmetros referente a toda area 
da imagem ou em uma porção selecionada pelo cursor. 
Segmentação de Imagens 
 
O que é a segmentação de Imagens? 
 
 
 A classificação estatística é o procedimento convencional de análise digital de 
imagens. Constitui um processo de análise de pixels de forma isolada. Esta abordagem 
apresenta a limitação da análise pontual ser baseada unicamente em atributos 
espectrais. Para superar estas limitações, propõe-se o uso de segmentação de imagem, 
anterior à fase de classificação, onde se extraem os objetos relevantes para a aplicação 
desejada. 
 Neste processo, divide-se a imagem em regiões que devem corresponder às áreas de 
interesse da aplicação. Entende-se por regiões um conjunto de "pixels" contíguos, que 
se espalham bidirecionalmente e que apresentam uniformidade. 
 A divisão em porções consiste basicamente em um processo de crescimento de 
regiões, de detecção de bordas ou de detecção de bacias. 
O que é crescimento de regiões? 
 
 
 É uma técnica de agrupamento de dados, na qual somente as regiões adjacentes, 
espacialmente, podem ser agrupadas. 
 Inicialmente, este processo de segmentação rotula cada "pixel" como uma região 
distinta. Calcula-se um critério de similaridade para cada par de região adjacente 
espacialmente. O critério de similaridade baseia-se em um teste de hipótese estatístico 
que testa a média entre as regiões. A seguir, divide-se a imagem em um conjunto de 
sub-imagens e então realiza-se a união entre elas, segundo um limiar de agregação 
definido. 
 Para a união de duas regiões A e B vizinhas, deve-se adotar o seguinte critério: 
o A e B são similares (teste das médias); 
o a similaridade satisfaz o limiar estabelecido; 
o A e B são mutuamente próximas (dentre os vizinhos de A, B é a mais próxima, 
e dentre os vizinhos de B, A é a mais próxima). 
 Caso as regiões A e B satisfaçam estes critérios, estas regiões são agregadas, caso 
contrário o sistema reinicia o processo de teste de agregação. 
O que é detecção de bacias? 
 
 
 A classificação por detecção de bacias é feita sobre uma imagem resultante da 
extração de bordas. 
 A extração de bordas é realizada por um algoritmo de detecção de bordas, ou seja pelo 
filtro de Sobel. Este algoritmo considera os gradientes de nível de cinza da imagem 
original, para gerar uma imagem gradiente ou imagem de intensidade de borda. 
 O algoritmo calcula um limiar para a perseguição de bordas. Quando ele encontra um 
"pixel" com valor superior ao limiar estabelecido, tem-se início o processo de 
perseguição da borda. Observa-se a vizinhança para identificar o próximo "pixel" de 
maior valor de nível digital e segue-se nesta direção até que se encontre outra borda ou 
a fronteira da imagem. Deste processo gera-se uma imagem binária com os valores de 
1 referentes às bordas e 0, a regiões de não-bordas. 
 A imagem binária será rotulada de modo que as porções da imagem com valores 0 
constituirão regiões limitadas pelos valores 1 da imagem, constituindo a imagem 
rotulada. 
 O procedimento de segmentação por detecção de bacias pressupõe uma representação 
topográfica para a imagem, ou seja, para uma dada imagem gradiente, o valor de nível 
digital de cada "pixel" equivale a um valor de elevação naquele ponto. A imagem 
equivaleria a uma superfície topográfica com feições de relevo ou uma região com 
bacias de diferentes profundidades. 
 O crescimento de uma região equivaleria à imersão da superfície topográfica em um 
lago. Define-se um altura inicial (nível digital) para o preenchimento das bacias 
(limiar). A "água" preencherá progressivamente as diferentes bacias da imagem até 
um limiar definido pela topografia (valor de nível digital). Ao alcançar o limite, 
define-se uma barreira entre duas regiões. O processo de preenchimento continua em 
outra direção até atingir um novo limite topográfico, definindo-se mais uma barreira, e 
assim sucessivamente até que todas as barreiras tenham sido definidas. 
 O resultado é uma imagem rotulada, cada região apresentando um rótulo (valor de 
nível digital), que devem ser classificadas por classificadores de região. 
 
Classificação de Imagens 
 
O que é classificação? 
 
 
 Classificação é o processo de extração de informação em imagens para reconhecer 
padrões e objetos homogêneos e são utilizados em Sensoriamento Remoto para 
mapear áreas da superfície terrestre que correspondem aos temas de interesse. 
 A informação espectral de uma cena pode ser representada por uma imagem espectral, 
na qual cada "pixel" tem coordenadas espaciais x, y e uma espectral L, que representa 
a radiância do alvo em todas as bandas espectrais, ou seja para uma imagem de K 
bandas, existem K níveis de cinza associados a cada "pixel" sendo um para cada banda 
espectral. O conjunto de características espectrais de um "pixel" é denotado pelo termo 
atributos espectrais. 
 Os classificadores podem ser divididos em classificadores "pixel a pixel" e 
classificadores por regiões. 
o Classificadores "pixel a pixel": Utilizam apenas a informação espectral de 
cada pixel para achar regiões homogêneas. Estes classificadores podem ser 
separados em métodos estatísticos (utilizam regras da teoria de probabilidade) 
e determinísticos (não utilizam probabilidade). 
o Classificadores por regiões: Utilizam, além de informação espectral de cada 
"pixel", a informação espacial que envolve a relação com seus vizinhos. 
Procuram simular o comportamento de um foto- intérprete, reconhecendo áreas 
homogêneas de imagens, baseados nas propriedades espectrais e espaciais de 
imagens. A informação de borda é utilizada inicialmente para separar regiões e 
as propriedades espaciais e espectrais irão unir áreas com mesma textura. 
 O resultado da classificação digital é apresentado por meio de classes espectrais (áreas 
que possuem características espectrais semelhantes), uma vez que um alvo 
dificilmente é caracterizado por uma única assinatura espectral. É constituído por um 
mapa de "pixels" classificados, representados por símbolos gráficos ou cores, ou seja, 
o processo de classificação digital transforma um grande número de níveis de cinza 
em cada banda espectral em um pequeno número de classes em uma única imagem. 
 As técnicas de classificação aplicadas apenas a um canal espectral (banda da imagem) 
são conhecidas como classificações unidimensionais. Quando o critério de decisão 
depende da distribuição de níveis de cinza em vários canais espectrais as técnicas são 
definidas como de classificação multiespectral. 
 O primeiro passoem um processo de classificação multiespectral é o treinamento. 
Treinamento é o reconhecimento da assinatura espectral das classes. Existem 
basicamente duas formas de treinamento: supervisionado e não- supervisionado. 
 Quando existem regiões da imagem em que o usuário dispõe de informações que 
permitem a identificação de uma classe de interesse, o treinamento é dito 
supervisionado. Para um treinamento supervisionado o usuário deve identificar na 
imagem uma área representativa de cada classe. É importante que a área de 
treinamento seja uma amostra homogênea da classe respectiva, mas ao mesmo tempo 
deve-se incluir toda a variabilidade dos níveis de cinza. Recomenda-se que o usuário 
adquira mais de uma área de treinamento, utilizando o maior número de informações 
disponíveis, como trabalhos de campo, mapas, etc. Para a obtenção de classes 
estatisticamente confiáveis, são necessários de 10 a 100 "pixels" de treinamento por 
classe. O número de "pixels" de treinamento necessário para a precisão do 
reconhecimento de uma classe aumenta com o aumento da variabilidade entre as 
classes. 
 
 
 
Exemplo de seleção de áreas no treinamento supervisionado. 
 
Quando o usuário utiliza algoritmos para reconhecer as classes presentes na imagem, o 
treinamento é dito não-supervisionado. Ao definir áreas para o treinamento não-
supervisionado, o usuário não deve se preocupar com a homogeneidade das classes. As áreas 
escolhidas devem ser heterogêneas para assegurar que todas as possíveis classes e suas 
variabilidades sejam incluídas. Os "pixels" dentro de uma área de treinamento são submetidos 
a um algoritmo de agrupamento ("clustering") que determina o agrupamento do dado, numa 
feição espacial de dimensão igual ao número de bandas presentes. Este algoritmo assume que 
cada grupo ("cluster") representa a distribuição de probabilidade de uma classe. 
 
 
 
 
Exemplo de seleção de áreas no treinamento não-supervisionado. 
 As técnicas de classificação multiespectral "pixel a pixel" mais comuns são: máxima 
verossimilhança (MAXVER), distância mínima e método do paralelepípedo. 
 MAXVER é o método de classificação, que considera a ponderação das distâncias 
entre médias dos níveis digitais das classes, utilizando parâmetros estatísticos. 
 Os conjuntos de treinamento definem o diagrama de dispersão das classes e suas 
distribuições de probabilidade, considerando a distribuição de probabilidade normal 
para cada classe do treinamento. 
 Para duas classes (1 e 2) com distribuição de probabilidade distintas, as distribuições 
representam a probabilidade de um "pixel" pertencer a uma ou outra classe, 
dependendo da posição do "pixel" em relação a esta distribuição. Ocorre uma região 
onde as duas curvas sobrepõem-se, indicando que um determinado "pixel" tem igual 
probabilidade de pertencer às duas classes. Nesta situação estabelece-se um critério de 
decisão a partir da definição de limiares. 
 
 
 
Exemplo de limite de aceitação de uma classificação, no ponto onde as duas distribuições se 
cruzam. Um "pixel" localizado na área sombreada, apesar de pertencer à classe 2, será 
classificado como classe 1. 
 O limiar de aceitação indica a % de "pixels" da distribuição de probabilidade de uma 
classe que será classificada como pertencente a esta classe. Um limite de 99%, por 
exemplo, engloba 99% dos "pixels", sendo que 1% serão ignorados (os de menor 
probabilidade), compensando a possibilidade de alguns "pixels" terem sido 
introduzidos no treinamento por engano, nesta classe, ou estarem no limite entre duas 
classes. Um limiar de 100% resultará em uma imagem classificada sem rejeição, ou 
seja, todos os "pixels" serão classificados. 
 Para diminuir a confusão entre as classes, ou seja, reduzir a sobreposição entre as 
distribuições de probabilidades das classes, aconselha-se a aquisição de amostras 
significativas de alvos distintos e a avaliação da matriz de classificação das amostras. 
 A matriz de classificação apresenta a distribuição de porcentagem de "pixels" 
classificados correta e erroneamente. No exemplo a seguir, apresenta-se uma matriz de 
classificação com as porcentagens de 4 classes definidas na aquisição de amostras, os 
valores de desempenho médio, abstenção (quanto não foi classificado) e confusão 
média. 
 
N 1 2 3 4 
1 4.7 94.3 0.0 0.0 0.9 
2 1.1 0.0 82.3 0.0 16.6 
3 0.0 13.3 0.0 86.7 0.0 
4 3.8 0.0 4.7 0.0 91.5 
 
 Desempenho médio: 89.37 
 Abstenção média: 3.15 
 Confusão média: 7.48 
 O valor de N representa a quantidade de cada classe (porcentagem de "pixels") que 
não foi classificada. 
 A classe 1 corresponde à floresta, a classe 2 ao cerrado, a classe 3 ao rio e a classe 4 
ao desmatamento. 
 Uma matriz de classificação ideal deve apresentar os valores da diagonal principal 
próximos a 100%, indicando que não houve confusão entre as classes. Contudo esta é 
uma situação difícil em imagens com alvos de características espectrais semelhantes. 
 O valor fora da diagonal principal, por exemplo 13.3 (classe linha 3 e coluna 1), 
significa que 13.3% da área da classe "rio" amostrada foi classificada como classe 1 
(floresta). O mesmo raciocínio deve ser adotado para os outros valores. 
 Para diminuir a confusão entre as classes, aconselha-se a análise das amostras. 
 
Amostras 
Classes 1 2 3 
Floresta 90 50 87 
Cerrado 5 50 0 
Rio 5 0 0 
Desmatamento 0 0 10 
 
 Os valores em porcentagem indicam que na amostra 1, 90% dos "pixels" são 
classificados como floresta, 5% como cerrado e 5% como rio, o que resulta em uma 
amostra confiável. Por sua vez, a amostra 2 apresentou uma confusão de 50% entre as 
classes floresta e cerrado, indicando que esta deve ser eliminada. 
O que é o classificador MAXVER-ICM? 
 
 
 Enquanto o classificador MAXVER associa classes considerando pontos individuais 
da imagem, o classificador MAXVER-ICM (Interated Conditional Modes) considera 
também a dependência espacial na classificação. 
 Em uma primeira fase, a imagem é classificada pelo algoritmo MAXVER atribuindo 
classes aos "pixels", considerando os valores de níveis digitais. Na fase seguinte, leva-
se em conta a informação contextual da imagem, ou seja a classe atribuída depende 
tanto do valor observado nesse "pixel", quanto das classes atribuídas aos seus 
vizinhos. 
 O algoritmo atribui classes a um determinado "pixel", considerando a vizinhança 
interativamente. Este processo é finalizado quando a % de mudança (porcentagem de 
"pixels" que são reclassificados) definida pelo usuário é satisfeita. O SPRING fornece 
ao usuário as opções de 5%, 1% e 0.5% para valores de porcentagem de mudanças. 
Um valor 5% significa que a reatribuição de classes aos "pixels" é interrompida 
quando apenas 5% ou menos do total de "pixels" da imagem foi alterado. 
O que é classificação por distância euclidiana? 
 
 
 O método de classificação por distância Euclidiana é um procedimento de 
classificação supervisionada que utiliza esta distância para associar um "pixel" a uma 
determinada classe. 
 No treinamento supervisionado, definem-se os agrupamentos que representam as 
classes. Na classificação, cada "pixel" será incorporado a um agrupamento, através da 
análise da medida de similaridade de distância Euclidiana, que é dada por: 
 
d (x,m) = (x2 - m2) 1/2 
 
onde: 
 x = "pixel" que está sendo testado 
 m = média de um agrupamento 
 N = número de bandas espectrais 
 O classificador compara a distância Euclidiana do "pixel" à média de cada 
agrupamento. O "pixel" será incorporado ao agrupamento que apresenta a menor 
distância Euclidiana. Este procedimento é repetido até que toda a imagemseja 
classificada. 
O que é pós-classificação? 
 
 Aplica-se este procedimento em uma imagem classificada, com o objetivo de 
uniformizar os temas, ou seja, eliminar pontos isolados, classificados diferentemente 
de sua vizinhança. Com isto, Gera-se um imagem classificada com aparência menos 
ruidosa. 
 Em uma janela de 3 x 3 "pixels", o ponto central é avaliado quanto à freqüência das 
classes (temas), em sua vizinhança. De acordo com os valores de peso e limiar 
definidos pelo usuário, este ponto central terá ou não sua classe substituída pela classe 
de maior freqüência na vizinhança. 
o O peso varia de 1 a 7 e define o número de vezes que será considerada a 
freqüência do ponto central. 
o O limiar varia também de 1 a 7 e é o valor de freqüência acima do qual o ponto 
central é modificado. 
 Por exemplo, para a janela de uma imagem classificada será avaliado o "pixel" central 
pertencente à classe 2. Considera-se um peso e um limiar iguais a 3. 
3 3 1 
5 2 3 
5 5 5 
 Obtém-se a seguinte freqüência de classes: 
Classe 1 2 3 5 
Freqüência 1 3 3 4 
 
 A tabela acima indica que a classe 1 ocorre uma vez; a classe 3 ocorre três vezes e a 
classe 5, quatro vezes. A freqüência da classe 2 é considerada 3, pelo fato do peso 
definido ser 3. O limiar igual a 3 fará com que o ponto central (de classe 2) seja 
atribuído à classe 5, cuja freqüência (4) é maior que o limiar definido. 
 A janela classificada com seus temas uniformizados torna-se: 
3 3 1 
5 5 3 
5 5 5 
 
 A definição de peso e limiar dependerá da experiência do usuário e das características 
da imagem classificada. Quanto menor o peso e menor o limiar, maior o número de 
substituições que serão realizadas.

Continue navegando