Buscar

02_02_TED_UFF-SPU_Apostila_Sensoriamento_2017-12-18

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 133 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 133 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 133 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

SENSORIAMENTO
REMOTO
SU
M
ÁR
IO Definição
1. Princípios Físicos
 1.1 Radiação eletromagnética 
 1.2 Fonte de radiação eletromagnética
 1.3 Interação da radiação eletromagnética com a matéria
 1.4 Espectro eletromagnético 
2. Produtos de Sensores Remotos
 2.1 Estrutura de uma imagem digital
 2.2 Resolução espacial 
 2.3 Resolução radiométrica
 2.4 Resolução espectral
 2.5 Resolução temporal
3. Sistemas Sensores
 3.1 Sensores não imageadores
 3.2 Sensores imageadores 
4. Aquisição de Dados 
 4.1 Níveis de aquisição 
 4.2 Plataformas de sensores remotos
 4.3 Sistemas aeroportados
 4.4 Sistemas orbitais
5. Pré-Processamento
 5.1. Eliminação de ruídos
 5.2 Correção geométrica
 5.3 Correção radiométrica
6. Processamento Digital de Imagens
 6.1 Espaço de cores RGB
 6.2 Histograma e aumento de contraste 
 6.3 Intensidade, Matiz, Saturação
 6.4 Operação aritmética
 6.5 Filtros
 6.6 Classificação
7. Comportamento Espectral de Alvos
 7.1 Assinatura espectral
Referência Bibliográfica
Contato
3 
97
SU
M
ÁR
IO
Definição
Na literatura são encontradas as mais variadas definições de sensoriamento 
remoto, algumas mais simples e outras mais científicas. A definição maissimples 
de Sensoriamento Remoto é: Sensoriamento Remoto é a coleta de dados sem o 
contato direto ou proximidade com o objeto ou superfície analisada.
A definição mais científica é: Sensoriamento Remoto é uma ciência que visa 
o desenvolvimento da obtenção de imagens da superfície terrestre por meio 
da detecção e medição quantitativa das respostas das interações da radiação 
eletromagnética com os materiais terrestres (Meneses e Almeida, 2012).
Definição
4 
97
SU
M
ÁR
IO
1. Princípios Físicos
1.1 Radiação eletromagnética
Entender a maneira como a radiação eletromagnética é gerada, propagada 
e modificada possui considerável importância, pois é com base nesse 
entendimento que os diferentes sensores são projetados e seus produtos 
utilizados para as mais variadas aplicações (Drury, 2001). Segundo Jensen 
(2011), a radiação eletromagnética é gerada toda vez que uma carga elétrica é 
acelerada. A propagação da radiação eletromagnética no espaço vazio ocorre 
na forma de ondas e de energia. A dualidade do comportamento da radiação 
eletromagnética é formulada pelos modelosondulatório (onda) e corpuscular 
(energia) (Meneses e Almeida, 2012). 
1.1.1 Modelo ondulatório
No modelo ondulatório a radiação eletromagnética pode ser explicada 
como uma forma de onda senoidal e hormônica (Meneses e Almeida, 2012).
Uma partícula com carga elétrica gera um campo elétrico em torno de si e o 
movimento dessa partícula gera, por sua vez, um campo magnético. Ambos os 
campos atuamconjuntamente e ortogonalmente entre si (Figura1.1). 
A radiação eletromagnética se propaga no vácuo à velocidade da luz. Fora do vácuo, 
a energia eletromagnética pode afetar partículas em um meio físico qualquer, 
mudando as propriedades eletrônicas, vibracionais e rotacionais de tais partículas.
Frequência
(número de cíclos por segundo)
Velocidade da luz
Comprimento da onda
E
MCampo Magnético M
Campo Elétrico E
Figura 1.1 – Flutuação dos campos elétrico (E) e magnético (M) com a propagação da 
radiação eletromagnética a velocidade da luz (Meneses & Almeida, 2012).
1. Princípios físicos > 1.1 Radiação eletromagnética > 1.1.1 Modelo ondulatório
5 
97
SU
M
ÁR
IO
No comportamento ondulatório, são considerados os seguintes parâmetros:
Comprimento de onda (λ) é a distância entre “cristas ou vales”. Pode ser 
representado em metros (m), onde nanômetro(nm) é igual a 10-9 m, e 
micrômetro(µm) igual a 10-6 m. 
Frequência (ν) é o número de vibrações ou ciclos que passa por um ponto em 
1 segundo. É expresso em herz (Hz), onde megaherz(MHz) corresponde a 106 
Hz e kiloherz (kHz) é igual a 103 Hz.
O modelo ondulatório pode ser representado pela equação 1.1, que mostra 
a relação inversamente proporcional entre comprimento de onda (λ) e 
frequência (ν), onde c é igual a velocidade da luz (3x108m/s).
λ = c/ν (eq.1.1)
1.1.2 Modelo corpuscular
Em 1901, Max Planck observou que a radiação eletromagnética transferia 
energia de um corpo para outro em quantidades discretas, à qual denominou 
de fótons ouquanta (Meneses e Almeida, 2012). O fóton ou quantum é a 
partícula básica estudada em física quântica e que pode ser descrita como 
a partícula mensageira da energia da onda eletromagnética. O termo 
discreto significa que a intensidade de energia transportada pela radiação 
eletromagnéticaem um dado comprimento de onda é sempre a mesma.
Segundo a teoria quântica, a frequência da radiação eletromagnética é função 
da energia do quantum envolvido:
E = νh (eq.1.2) 
onde, 
E = energia, 
ν = frequência, 
h = constante de Planck (6,62 x 10-34Joules.seg)
A equação1.2 indica que energia é diretamente proporcional a frequência 
do comprimento de onda. Assim, quanto mais alta frequência da radiação 
eletromagnética maior a energia gerada.
A intensidade da radiação eletromagnéticapode ser considerada em termos 
da amplitude dos campos elétrico e magnético (modelo ondulatório) e 
quantidade de energia (modelo corpuscular). Desse modo, a energia associada 
ao comprimento de ondas longo é menor que aquela associada a comprimento 
de onda curto. Consequentemente, detectores de energia eletromagnética de 
comprimentos de ondas longos necessitam compensar tal diferença através do 
tempo de detecção e/ou realizando a detecção sobre áreas maiores.
1. Princípios físicos > 1.1 Radiação eletromagnética > 1.1.2 Modelo corpuscular
6 
97
SU
M
ÁR
IO
1.2 Fonte de radiação eletromagnética
No universo, toda matéria acima do zero absoluto (-273,15 °C ou 0°K) emite alguma 
forma de radiação eletromagnética. Segundo Meneses e Almeida (2012), toda 
a matéria acima do zero absoluto apresenta uma movimentação aleatória das 
partículas dos átomos e das moléculas. Quando essas partículas se colidem elas 
mudam o seu estado de energia e emitem radiação eletromagnética.Portanto, 
quanto mais alta a temperatura da fonte maior a sua potência irradiante de energia 
(Figura 1.2).Nesse contexto, a principal fonte de radiação eletromagnética é o Sol 
com temperatura de superfície próxima a 6000°C. A Terra também emite radiação 
eletromagnética, mas em menor potência, com temperatura média de 27°C.
Radiação
Solar
Radiação
Terrestre
100
90
80
70
60
50
40
30
20
10
0 0,1 0,5 1,0 1,5 2,0 10 20 30 40 50
Comprimento de onda em micrômetros
InfravermelhoVisívelUltravioleta
Ondas LongasOndas Curtas
Figura1.2 – Intensidade da energia radiante emitida pelo Sol e pela Terra(Meneses & 
Almeida, 2012).
1.3 Interação da radiação eletromagnética com a 
matéria
O entendimento do modo como os dados de sensoriamento remoto ajudam na 
identificação de diferentes materiais na superfície terrestre depende em grande 
parte da compreensão dos mecanismos pelos quais a radiação eletromagnética 
interage com a matéria.Cada átomo ou composto químico possui determinado 
estado de energia, e esse estado pode transitar de um estado energético para 
outro se for excitado por radiação eletromagnética de determinada frequência.
Três tipos de transição são conhecidos:
• eletrônica: ocorre atransferência de elétrons entre os orbitais mais 
externos de um átomo (valência e propriedades químicas) em sólidos, 
líquidos e gases. Requer alta energia de excitação, por isso é mais comum 
em comprimentos de onda mais curtos (ultravioleta e visível);
• vibracional: ocorrem mudanças na posição relativa dos átomos em 
moléculas de sólidos, líquidos e gases. Para se desenvolver requer menos 
energia que a transição eletrônica, ocorre somente nos comprimentos de 
onda mais longos da região do infravermelho;
• rotacional: ocorre a mudança no momento deinércia das 
moléculas,sendorestrita a gases. São importantes na interação entre 
radiação eletromagnética e a atmosfera (gases).
A energia de qualquer comprimento de onda pode ser transmitida através 
1. Princípios físicos > 1.2 Fonte de radiação eletromagnética7 
97
SU
M
ÁR
IO
da matéria, absorvida, refletida pela sua superfície, espalhada pelas suas 
partículas constituintes ou irradiada com outro comprimento de onda após a 
absorção. A interação da radiação eletromagnética com a matéria ocorre tanto 
na atmosfera como na superfície.
1.3.1 Interação da radiação eletromagnética com a matéria na 
atmosfera 
Refração
A refração refere-se ao desvio da luz quando ela passa de um meio a outro com 
densidades diferentes (Jensen, 2011). A figura 1.3 mostra a refração em três 
camadas atmosféricas não turbulentas. A energia radiante incidente é desviada 
de sua trajetória normal quando atravessa uma camada atmosférica para outra. 
A Lei de Snell pode ser usada para explicar quanto de desvio ocorrerá com base 
no ângulo de incidência (θ) e no índice de refração de cada nível atmosférico 
(n1, n2 e n3). O índice de refração (n) é a razão entre avelocidade da luz no vácuo 
(C) e a velocidade da luz no meio atravessado (Cn):
n = C / Cn (eq.1.3)
Figura 1.3 – Exemplo de refração em três camadas atmosféricas nãoturbulentas 
(Jensen, 2011).
Espalhamento
O espalhamento da radiação eletromagnética ocorre devido à presença 
de partículas (moléculas e aerossóis)na atmosfera em diferentes altitudes 
(Figura 1.4).Ao contrário da refração, a direção associada ao espalhamento é 
imprevisível (Jensen, 2011).
θ1
θ2
θ3
n1 = índice de refração
para esta camada
da atmosfera
n2 
Atmosfera
opticamente
mais densa
n3 
Atmosfera
opticamente
menos densa
Atmosfera
opticamente
menos densa
Energia radiante
incidente
Normal à
superfície
Refração Atmosférica
Percurso da
energia na
atmosfera
homogênea
Percurso da energia afetada
pela refração atmosférica
1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.1 Interação da radiação eletromagnética com a matéria na atmosfera
8 
97
SU
M
ÁR
IO
Figura 1.4 – Principais subdivisões da atmosfera e os tipos de moléculas e aerossóis 
encontrados em cada camada(Jensen, 2011).
Existem basicamente três tipos de espalhamento atmosférico (Figura 1.5):
• Espalhamento Rayleigh ocorre quando o diâmetro efetivo das moléculas 
de gás envolvidas, como por exemplo, oxigênio (O2) e nitrogênio (N2), é 
menor que o comprimento de onda da radiação eletromagnética incidente. 
A intensidade do espalhamento Rayleigh é inversamente proporcional à 
quarta potência do comprimento de onda (λ-4) da radiação (Figura1.6). 
Quanto menor o comprimento de onda maior o espalhamento por partículas 
pequenas. Por esse motivo, o espalhamento Rayleigh é responsável pela cor 
azul do céu, onde o comprimento de onda nas regiões do ultravioleta e azul é 
muito mais espalhado que o comprimento de onda na região do vermelho.
• Espalhamento Mie ocorre na parte inferior da atmosfera (em torno de 
4,5 km a partir da superfície), onde são encontradas partículas geralmente 
esféricas (poeira, fumaça) com diâmetros aproximadamente iguais ao 
comprimento de onda da radiação eletromagnética incidente.
• Espalhamento não-seletivo ocorre nas porções mais baixas da atmosfera, 
onde existem partículas (gotículas de água e cristais de gelo que formam as 
nuvens e nevoeiros) com tamanhos superiores a 10 vezes o comprimento 
de onda da radiação eletromagnética. O espalhamento ocorre de forma 
não seletiva onde todos os comprimentos de ondas da região do visível são 
espalhados, fazendo com que a nuvem pareça branca.
Figura 1.5 – O tipo de espalhamento atmosférico é uma função do comprimento de 
onda e o tamanho da molécula de gás, partículas de poeira e fumaça, e gotículas de 
vapor d’água (Jensen, 2011).
20 km
Superfície doTerreno
Al
tit
ud
e 
Ac
im
a 
do
 N
ív
el
 d
o 
M
ar
H2O, aerossóis estratosféricos
O3, aerossóis estratosféricos
O2, CO2, gases traços
Moléculas de gás
(espalhamento Rayleigh)
15 km
10 km
8 km
2-3 km
diâmetro
Vapor
d’água
Molécula de gás
Fumaça, poeira
Fóton de energia
eletromagnética
modelado como
uma onda
Espalhamento Mie
Espalhamento Não-seletivo
Espalhamento Rayleigh
Espalhamento Atmosférico
λ
b.
a.
c.
1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.1 Interação da radiação eletromagnética com a matéria na atmosfera
9 
97
SU
M
ÁR
IO
B G Y O R
Energia em elétro-volts (eV)
0,4 0,5
0
20
40
60
80
100
0,6 0,7
3 2,75 2,5 2,25 2 1,75
Comprimento de Onda, µm
In
te
ns
id
ad
e 
da
 L
uz
 E
sp
al
ha
da
Figura 1.6 – A intensidade do espalhamento Rayleigh é inversamente proporcional à 
quarta potência do comprimento de onda (Jensen, 2011).
Absorção
Absorção é o processo pelo qual a energia radiante incidente é absorvida e 
convertida em outras formas de energia (Jensen, 2011).O dióxido de carbono (CO2), 
oxigênio (O2), ozônio (O3) e água (H2O) na atmosfera absorvem a energia solar em 
diferentes comprimentos de ondas. Como resultado as curvas de radiação solar 
medida no topo da atmosfera e a nível do mar são diferentes (Figura 1.7). 
Comprimento de Onda, µm
Ra
di
aç
ão
 S
ol
ar
 ( 
W
 m
-2
 µ
m
-1
 )
2000
1500
1000
500
0
0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 2,6 2,8 3,0 3,2
O3
O2, H2O
H2O
H2O
H2O
H2O
H2O CO2
H2O CO2 H2O CO2O3
Radiação solar no
topo da atmosfera
Radiação solar ao
nível do mar
Figura 1.7 – Curvas de radiação solar mostrando a energia absorvida pelos gases em 
diferentes comprimentos de onda (Drury, 2001).
A energia disponível para as interações com a matéria na superfície terrestre é 
dividida em janelas atmosféricas discretas separadas por regiões dominadas 
por absorção atmosférica. As janelas atmosféricas são partes do espectro 
eletromagnético que transmitem a energia radiante, e são nessas janelas que 
os sistemas de sensoriamento remoto são desenvolvidos (Figura 1.8).
1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.1 Interação da radiação eletromagnética com a matéria na atmosfera
10 
97
SU
M
ÁR
IO
100
80
60
40
20
0
0,3 0,5 1 1,5 2 3 5 10 15 20 30
100
80
60
40
20
0
300 500 1000 0,5
0,1
1 5 10 50 80
UV VNIR
VISIBLE SWIR MID INFRARED
FAR
INFRARED
NEAR INFRARED
FAR INFRARED MICROWAVE
Tr
an
sm
is
si
on
 (%
)
Tr
an
sm
is
si
on
 (%
)
Wavelength (µm)
Wavelength (µm)(µm)
Figura 1.8 –Principais janelas atmosféricas ao longo do espectro eletromagnético em 
escala logarítmica e a porcentagem de transmissão da radiação eletromagnética na 
atmosférica (Drury, 2001).
Reflectância
A maior parte da radiação eletromagnética é refletida de volta ao espaço pelo 
topo das nuvens e outros materiais na atmosfera por reflexão especular ou 
reflexão difusa (Lambertiana).Na reflexão especular, toda a energia é refletida 
em um ângulo oposto e igual ao ângulo de incidência(Figura1.9). Na reflexão 
difusa ou Lambertiana, a energia refletida é aproximadamente igual em todas 
as direções, independentemente do ângulo de incidência. O mesmo princípio 
da reflexão especular ou difusa também é aplicada à matéria na superfície.
θ θ
(a) (b) (c)
Figura 1.9 – Exemplos de reflexão. a) Reflexão especular;b) Reflexão difusa ou 
Lambertiana; c) Reflexão envolvendo as componentes especular e difusa (Drury, 2001).
1.3.2 Interação da radiação eletromagnética com a matéria na 
superfície 
Aradiação eletromagnéticaao atingir a superfície pode sofrer três tipos de interação 
com a matéria:Reflexão, absorção e transmissão. A Lei da Conservação de Energia 
determina que para qualquer interação radiação eletromagnéticaematéria, o fluxo 
radiante incidente em umdeterminado comprimento de onda (ΦIλ) é divididoem 
fluxo radiante refletido(ΦRλ), fluxo radiante absorvido (ΦAλ) e fluxo radiante 
transmitido(ΦTλ)pela matéria envolvida.
ΦIλ = ΦRλ + ΦAλ + ΦTλ (eq. 1.4)
1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.2 Interação da radiação eletromagnética com a matéria na superfície 
11 
97
SU
M
ÁR
IO
Dividindo a equação acimapelo fluxo radiante incidente (ΦIλ)é gerada uma 
expressão que permite que as propriedadesespectrais dos materiais sejam 
definidas em termos de reflectância (ρλ=ΦRλ/ΦIλ), absortância(τλ=ΦAλ/ΦIλ) e 
transmitância(αλ=ΦTλ/ΦIλ) espectral.
ρλ + τλ + αλ = 1 (eq.1.5)
O valor da reflectância(ρλ)de uma superfície caracteriza a proporção de 
energia incidente que é refletida em um comprimento de onda específico, e o 
qual dependeráda superfície de reflexão (especular e/ou difusa).
Medida da energia radiante
A medida da energia radiante em um detector, por exemplo, é efetuada com 
base no fluxo radiante (Φ). O fluxo radiante por definição é a quantidade de 
energia que passa por um ponto durante um determinado tempo, sendo 
expresso em Joules por segundo(J-s) ou Watt (W) (Novo, 2009). A quantificação 
do fluxo radiante interceptado por uma unidade de área ou superfície pode ser 
determinada pela irradiância (E), emitância (M) e radiância (L).
A irradiância é a quantidade de fluxo radiante incidente sobre uma superfície 
por unidade de área, e a emitânciaou excitânciaé a quantidade de fluxo 
radiante emitida de uma superfície por unidade de área (Jensen, 2011; Novo, 
2010). As duas grandezas são medidas em Watts por metro quadrado (W m-2).
A radiância(L) é a intensidade do fluxo radiante (Φ) por unidade de ângulo 
sólido (Ω) por unidade de área projetada numa direção específica (Figura 
1.10). A radiância é medida em Watts por metro quadrado por esferorradiano 
(W m-2sr-1)(Jensen, 2011).
L = (Φ/Ω)/A cos θ (eq.1.6)
L = (Φ/Ω)/A cos θ
Fluxo Φ
Área A
Área A
θ
Área projetada
A cos θ
Normal à super�cie
Figura 1.10 –Conceito de radiância de uma área projetada em uma direção específica e 
normal à superfície (Novo, 2009).
1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.2 Interação da radiação eletromagnética com a matéria na superfície 
12 
97
SU
M
ÁR
IO
1.4 Espectro eletromagnético
A figura 1.11 mostra as principais regiões espectrais utilizadas em 
sensoriamento remoto, bem como a relação entre o comprimento de onda (λ), 
frequência (ν) e os fenômenos que estão envolvidos na geração e interação da 
radiação eletromagnética. Os limites das regiões e a nomenclatura das regiões 
podem variar de autor para autor.
Nos comprimentos de onda mais curtos, os raios gama (0,01 – 0,1Å) tem sua 
origem no núcleoatômico a partir do decaimento radioativo. Os raios X (0,1 - 
10Å), radiação ultravioleta (10nm – 0,38μm)e radiação visível (0,38 – 0,76μm) 
são gerados na nuvem eletrônica externa ao núcleo atômico. Quando um 
elétron se move de uma órbita de alta energia para uma de menor energia, 
é liberado um fóton de um comprimento de onda específico. As radiaçõesdo 
infravermelho e micro-ondassão produzidas por vibração e rotação de 
moléculas e por emissão termal. A região do infravermelho é geralmente 
subdividida em infravermelho próximo (0,76 – 1,2 μm), infravermelho de 
ondas curtas (1,2 - 3μm), infravermelho médio (3 - 5μm) e infravermelho 
termal (5μm – 1 mm). A radiação dasmicro-ondas(1mm – 100cm) também 
é gerada por flutuações nos campos elétricos e magnéticos. O principal 
mecanismo de interação na região das micro-ondas e ondas de radio é o 
retroespalhamento, reflexão e condutividade.
Figura 1.11– Espectro eletromagnético mostrando a relação entre comprimento de 
onda e frequência, e os fenômenos envolvidos na geração e interação da radiação 
eletromagnética, e a nomenclatura de diferentes partes do espectro (Drury, 2001).
eletric and magnetic
field fluctuations
molecular
rotation
molecular
vibration
scattering
electron shi�s
atomic
processes
rain and fog
attenuation
heating heating
Phenomena
Wavelength
gamma
radiation
visible
X-rays ultra-
violet
near mid far
infrared
microwave
radar
radio bands
Frequency (Hz)
(waves s1)
100 µm10 µm1 µm100 nm10 nm1 nm 1 mm 1 cm 10 cm 1 m 10 m 100 m 1 km 10 km 103 km 104 km 3 x 105 km100 km100 pm10 pm
1020 1018 1016 1014 1012 1010 108 106 104 102 1
1. Princípios físicos > 1.4 Espectro eletromagnético
13 
97
SU
M
ÁR
IO
2. Produtos de Sensores Remotos
Os produtos de sensores remotos podem ser divididos em duas categorias: 
produtos analógicos e produtos digitais. Os produtos analógicos foram utilizados 
antes da popularização dos microcomputadores. Apesar de possuir considerável 
importância na visualização de feições da superfície terrestre, os produtos 
analógicos têm sido gradativamente substituídos pelos produtos digitais.
As imagens coletadas por sensores remoto possuem características, como 
estrutura e resoluções espacial, radiométrica, espectral e temporal, que as 
diferenciam de outras imagens digitais. 
2.1 Estrutura de uma imagem digital
A imagem digital é constituída por um arranjo de elementos sob a forma 
de uma matriz, com linhas e colunas (Figura2.1). Cada cela ou pixel 
(pictureelement) da matriztem sua localização definida em um sistema de 
coordenadas X e Y. Cada pixel possui ainda um atributo numérico Z que indica 
o nível de cinza, denominado de Número Digital (ND) ou Digital Number (DN). 
O ND de cada pixel corresponde à intensidade de radiânciado terreno.
Figura 2.1 – Imagem digital com sua estrutura na forma de uma matriz com a 
representação dos números digitais em cada pixel.
2.2 Resolução espacial
A resolução espacial é a capacidade do sensor de enxergar objetos ou alvos 
na superfície. Quanto menor o objeto ou alvo discriminado maior a resolução 
espacial (Figura 2.2). 
54 40 31
31
31
31
31
31
31
31
31
31
27
27
27
27
27
27
27 28
28
28
28
39 51 52 50 45 25 24
24
24
24 23
26
26
26
2626
55 37 37
37
37
37
37
35
35 35
35
35
35 58 66 38 13
13
17 21
21
21
19
14 14
14
16 1651 51
51
51
32
30
30
3030
30
40
40
40
20
20
50
60
70
56
52
42
39
34
29 29 29 44 4444
29
29
29
26
29
36 36
36
36
3636
39
39 39
33
33
33
33
33
76 76
45
42 49 48
67 49
49
50 85
72 56
52
47 35 24
52
52
46 58
43 54 53
49 37
32
34
2538
26 29 30
36
22
 
Pixel (pictureelement) 
2. Produtos de Sensores Remotos > 2.1 Estrutura de uma imagem digital
14 
97
SU
M
ÁR
IO
Figura 2.2 – Imagens dos satélites Landsat 
com resolução espacial de 30m, SPOT com 
10m e IKONOS com 1m 
(Meneses e Almeida, 2012).
Nos sensores ópticos a resolução espacial é determinada pelo campo de 
visada instantâneo (Instantaneous Field OfView - IFOV). O IFOV define a área do 
terreno vista pelo sensor a uma dada altitude e a um determinado tempo.O 
IFOV representa, portanto, o tamanho do pixel da imagem o qual corresponde 
com a dimensão da área vista pelo sensor (Figura 2.3). 
Figura 2.3 – O IFOV define o campo de visada que projeta sobre a superfície a 
dimensão mínima da área vista pelo sensor.
2.3 Resoluçãoradiométrica
A resolução radiométrica é a medida da intensidade de energia refletida, 
emitida ou retroespalhadapela matéria ou objeto na superfície terrestre. Quanto 
maior a resolução radiométricado sensor maior será a capacidade do detector 
para medir as diferenças de intensidades do sinal (Figura2.4).Em função da 
intensidade do sinal de entrada no sensor, a resposta de saída dos detectores é 
convertida eletronicamente em um número digital discreto, o qual é expresso 
em termos de números de dígitos binários (bits). Bit (Binarydigit) é a menor 
unidade de informação que pode ser armazenada ou transmitida. O valor em 
bits é sempre uma potência do número 2. Assim,os sensores com resolução 
radiométrica de 8bits(28) possuem valores variando de0 a 255,e sensores 
com16bits (216) registram valores quevariam de0 a 65.536.
Figura 2.4– Imagens com 
resoluçãoradiométrica distinta. a) Imagem 
com resolução radiométrica de 1 bit (branco e 
preto); b) imagem com resolução radiométrica 
de 16bits (65.536 níveis de cinza).
FOV
IFOV
Swath
2. Produtos de Sensores Remotos > 2.3 Resoluçãoradiométrica
15 
97
SU
M
ÁR
IO
2.4 Resolução espectral
A resolução espectral é uma medida do número e do tamanho do intervalo do 
comprimento de onda (denominado de bandas) no espectro eletromagnético 
ao qual o sensoré sensível (Jensen, 2011). Assim, quanto maior o número 
de bandas e menor o tamanho do intervalo do comprimento de onda maior 
será a resolução espectral do sensor. Os sistemas sensores multiespectrais 
(exemplo, Landsat5/TM) detectam energia em múltiplas bandas do espectro 
eletromagnético, e os sensores hiperespectrais (exemplo, AVIRIS) adquirem 
dados em centenas de bandas espectrais (Figura 2.5). 
Figura 2.5 – Resolução espectral do Landsat5/TM (multiespectral com 4 bandas) e AVIRIS 
(hiperespectral com 50 bandas) no intervalo do comprimento de ondas do visível e 
infravermelho próximo (Schowengerdt,2007).
2.5 Resolução temporal
A resolução temporal do sensor está associada ao intervalo de tempo para 
reamostragem de um determinado local.Os satélites executam uma órbita 
heliossíncrona ortogonal ao sentido de rotação da Terra e passam sobre o 
mesmoponto da superfície terrestre na mesma hora (Meneses e Almeida, 
2012). O satélite Landsat5/TM, por exemplo, tem resolução temporal de 16 
dias. As órbitas de um mesmo dia se distanciam entre si de 2.752 km, sendo 
necessários 16 dias para o recobrimento total da Terra (Figura 2.6). 
Figura 2.6 – Resolução temporal de 16 dias do Landsat5/TM (Robinson, 1995).
1 2
3
4band
bandTM
400
wavelength (nm)
900
400
wavelength (nm)
900
λ
y
x
λ
y
x
AVIRIS
1
50
Day 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
1 Equador
Spacing between
successive orbits
2752 km
2. Produtos de Sensores Remotos > 2.4 Resolução espectral
16 
97
SU
M
ÁR
IO
3. Sistemas Sensores
Segundo Novo (2010) os sensores são os sistemas responsáveis pela 
conversão da energia proveniente dos objetos em um registro na forma de 
imagem ou gráfico, os quaispermite associar a distribuição da radiância, 
emitância, ou retroespalhamento com suas propriedades físicas, químicas, 
biológicas ou geométricas.
Os sistemas sensores podem ser classificados de acordo com a sua fonte de 
energia em sensores passivos e sensores ativos (Figura 3.1):
• O sensor passivo detecta a radiação solar refletida ou a radiação emitida 
pela superfície terrestre. O sensor passivo pode ser classificado comosensor 
óptico quando constituído por espelhos e prismas de lentes.
• O sensor ativo produz a própria radiação eletromagnética. A energia 
emitidaérefletida pelo objeto e captada pelosensor. Os exemplos de 
sensores ativos são os radares e os lasers.
Figura 3.1 – Sensores passivos e ativos e a sua relação com as fontes naturais (Sol e 
Terra) e artificiais de radiação eletromagnética.
Os sistemas sensores são ainda classificados em não imageadores e 
imageadores (Novo, 2010). 
Radar Imaging
Atmospheric
Absorbtion
Atmospheric
Reflectance
Reflected
by objects
Reflected
by objectsEmitted
by sensor
Emitted
by objects
Passive Remote Sensing Active Remote Sensing
Sun
3. Sistemas Sensores
17 
97
SU
M
ÁR
IO
3.1 Sensores não imageadores
O sensor não imageador fornece medidas da intensidade da energia oriunda 
da matéria sem, no entanto produzir uma imagem do terreno. Um exemplo de 
sensor não imageador é o espectrorradiômetro que fornece a assinatura espectral 
do objeto na forma de gráfico. O sensor não imageador não será abordado de 
forma detalhada nesta apostila, mas poderá ser consultado em Novo (2010).
3.2 Sensores imageadores
O sensorimageadorproduz uma imagem bidimensional da radiância, 
emitância ou retroespalhamento do terreno. Dentre os sensores imageadores, 
destacam-se o sistema fotográfico, sistema de imageamento eletro-óptico, 
sistema termal e sistema passivo e ativo de micro-ondas.
3.2.1 Sistema fotográfico
A fotografia aérea foi a primeira forma de sensoriamento remoto usado para 
inventariar e mapear sistematicamente as feições da Terra (Figura 3.2). Mesmo 
com o desenvolvimento de sistemas eletrônicos sofisticados para o registro de 
imagens da Terra, a fotografia aérea com sua alta resolução espacial continua 
sendo um dos principais produtos de sensoriamento remoto.
Para a obtenção de fotografia aérea são necessários os seguintes componentes:
Câmera – As primeiras câmeras aéreas para mapeamento foram desenvolvidas 
durante a Primeira Guerra Mundial. Os sensores fotográficos são classificados 
comocâmeras métricas que empregam sistemas ópticos de alta precisão que 
minimizam as distorções geométricas na fotografia. As câmeras métricas 
podem ser estruturadas com uma objetiva ou com múltiplas objetivas (Figura 
3.3).As câmeras com múltiplas objetivas utilizam diferentes filmes, obtendo 
fotografias aéreas simultaneamente em diferentes regiões do espectro 
eletromagnético, principalmente nas regiões do azul, verde, vermelho e 
infravermelho próximo(Figura 3.4).
Figura 3.2 –Sistema fotográfico constituído por câmera e filme.
Imagem
Objeto
Lentes
Fotografia
3. Sistemas Sensores > 3.1 Sensores não imageadores
18 
97
SU
M
ÁR
IO
Figura 3.3 – Vista do perfil da câmera métrica e dos componentes do sistema 
(Jensen, 2011).
Figura 3.4 – Câmera com múltiplas objetivas 
(Jensen, 2011).
Filmes fotográficos – Os filmes fotográficos são compostos de uma base 
plástica transparente com uma emulsão de cristais de haleto de prata. 
Esses cristais são sensíveis à radiação eletromagnéticae funcionam como 
detectores. A emulsão fotográfica registra energia entre 0,3 a 1,2μm (região do 
ultravioleta ao infravermelho próximo). Quatro emulsões foram desenvolvidas 
nesse intervalo do comprimento de ondas: 
• Filme pancromático em preto e branco cobre as regiões do ultravioleta 
e do visível, especificamente no intervalo do comprimento de onda de 
0,3 a 0,7μm. A presença de névoa/neblina causada pelo espalhamento 
atmosférico é mais intensa em comprimentos de onda mais curtos (regiões 
do ultravioleta e azul). Para eliminar a perda de contraste da fotografia 
causada pela névoa, um filtro que absorve esses comprimentos de onda é 
colocado na lente da câmera.
• Filme colorido no visível possui três camadas de emulsão sensíveis à 
radiação eletromagnética na região do azul, verde e vermelho. O filme 
colorido na região do visível tem a vantagem de contribuir para a nossa 
capacidade de distinguir diferentes cores, ao contrário dos tons de cinza.
• Filme infravermelho em preto e branco é usado com um filtro para 
absorver toda a energia do comprimento de onda da região do ultravioleta 
ao visível, e registrar somente a radiação eletromagnética na região do 
infravermelho de 0,7 a 0,9μm. Diferentes tipos de vegetação podem 
ser distinguidos pela variação de tonalidade na fotografia obtida no 
Superfície
de vácuo
para
aplanar
o filme
Bobina de
recolhimento
Bobina de
filme virgem
Filme
Plano Focal
Distância
Focal. ƒ
Eixo
óptico
Corpo da
Câmera
Carretel
do Filme
Montagem do
Cone das Lentes
Lente
Diafragma
Lente dianteira
do ponto nodalFiltro
Obturador
Lente traseira do
ponto nodal
3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.1 Sistema fotográfico
19 
97
SU
M
ÁR
IO
infravermelho. O filme em preto e branco no infravermelho é utilizado 
geralmente para o inventário e mapeamento de florestas. As fotografias 
aéreas obtidas com filmes no infravermelho também são recomendadas 
para mapear e delimitar o limite de rios, lagos e outras feições hidrográficas. 
Principalmente pelo fato da água absorver a radiação eletromagnética na 
região do infravermelho.
• Filme infravermelho colorido possui três camadas de emulsão sensíveis 
à radiação eletromagnética na região do verde, vermelho e infravermelho. 
As três emulsões são sensíveis ao azul, portanto um filtro amarelo (que 
absorve o azul) é usado para expor corretamente cada camada. Este filme 
foi desenvolvido na Segunda Guerra Mundial e foi denominado de filme 
de detecção de camuflagem, o qual auxiliou os militares na distinção de 
camuflagens artificiais a partir da vegetação saudável. As folhas das plantas 
saudáveis refletem no infravermelho enquanto que a camuflagem não.
3.2.2 Sistema de imageamento eletro-óptico
O sistema de imageamento eletro-óptico possui detectores com capacidade de 
transformara radiação eletromagnética em sinais elétricos que são transmitidos 
para estações remotas. O sistema de imageamento eletro-óptico é constituído 
por um sistema óptico e por detectores ou receptores. O sistema óptico focaliza a 
energia proveniente sobre o detector (Novo, 2010). O detector produz um conjunto 
de sinais elétricos associados ao nível de intensidade da energia com a sua 
localização espacial, gerando uma imagem bidimensional da superfície terrestre.
Os sistemas de imageamento eletro-ópticos podem ser classificados em: 
sistema de imageamento de quadro, sistema de varredura mecânica e sistema 
de varreduraeletrônica.
Sistema de imageamento de quadro
No imageamento de quadro a imagem de uma área é adquirida de forma 
instantânea e projetada sobre um arranjo de detectores, ou sobre tubos 
fotossensíveis conhecidos como câmaras RBV (ReturnBeamVidicon) com sistema 
de varredura por feixe de elétrons.O sistema de imageamento de quadro foi 
utilizado até 1970 quando foi substituído pelo sistema de varredura mecânica.
Sistema de varredura mecânica
O sistema de varredura mecânica é constituído por um espelho plano que oscila 
ortogonalmente em relação ao deslocamento da plataforma (Figura 3.5). Com 
esse movimento oscilatório a cena é imageada linha por linha. Atualmente, tal 
tecnologia não é mais empregada nos sistemas de imageamento.
3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.2 Sistema de imageamento eletro-óptico
20 
97
SU
M
ÁR
IO
Direção de avanço
da plataforma
Detectores
Óptica
Espelho
oscilatório
Figura 3.5 – Sistema de varredura mecânica com espelho oscilatório (Novo, 2010).
Sistema de varredura eletrônica
O sistema de varredura eletrônica possui um sistema óptico angular onde 
uma área é imageada através de um arranjo linear de detectores do tipo 
CCD (Charge Coupled Detector). O CCD é um chip de metal semicondutor 
montado em matrizes bidimensionais, onde cada detector produz um sinal 
elétrico proporcional àintensidade de fótons recebida (Figura 3.6). Cada chip 
corresponde a um pixel de uma imagem. 
Matriz linear
de detectores
Matriz linear
projetada no terreno
Direção de avanço
da plataforma
Óptica
Figura 3.6 – Sistema de varredura eletrônicacom arranjo linear de detectores CCD 
(Novo, 2010).
Sensores multiespectrais
Os sensores multiespectrais obtêm imagens simultâneas de uma mesma área 
em várias regiões do espectro eletromagnético. Devido a essa característica 
as imagens obtidas por sensores multiespectrais fornecem informações 
da resposta da interação da radiação eletromagnética com os objetosda 
superfície em diferentes comprimentos de ondas.A maior parte dos programas 
espaciais possui como sensor o sistema de imageamento multiespectral com 
bandas no visível (VIS), infravermelho próximo (NIR), infravermelho de ondas 
curtas (SWIR) e infravermelho termal (TIR).
3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.2 Sistema de imageamento eletro-óptico
21 
97
SU
M
ÁR
IO
O sistema do sensor multiespectral é constituído por vários componentes 
como por exemplo, espelho, prisma e detectores eletrônicos (Figura 3.7).
Figura 3.7 - Sistema de varredura multiespectral com os principais componentes 
(Novo, 2010).
Sensores hiperespectrais
Os sensores hiperespectraissão capazes de adquirir medidas em pelo menos 
100 bandas espectrais contínuas, principalmente na região do visível ao 
infravermelho. O sensor hiperespectralpossui um sistema de dispersão 
da radiação eletromagnética que permite dividi-la em vários intervalos de 
comprimento de ondas, eredirecioná-la sobre a matriz bidimensional com 
detectores CCD (Novo, 2010) (Figura 3.8).
3.2.3 Sensores termais
Sensores termais detectam energia do infravermelho médio no intervalo 
de 3 a 14μm. A energia detectada na região do infravermelho termal é mais 
fracaem comparação àquela detectada na região do visível e do infravermelho 
próximo. Os sensores termais utilizam principalmente detectores de telureto 
de mercúrio e cádmio (HgCdTe) ou o composto germânio-mercúrio (Ge(Hg)). 
Outro componente fundamental no sensor termal é o sistema de refrigeração 
para manter a temperatura dos detectores entre 30 e 77K (Novo, 2010). Esse 
sistema de refrigeração tem a função de controlar o aumento da temperatura 
dos detectores que podem interferir sobre o sinal registrado.
3.2.4 Sensores passivosradiômetro de micro-ondas
Sensores passivos no microndas detectam e registram energia no intervalo do 
comprimento de onda de 0,1 a 25 cm, onde a absorção atmosférica é mínima. A 
detecção da energia do micro-ondas é realizada com um radiômetro de micro-
ondas. O principal componente de um radiômetro de micro-ondas é a antena.
3.2.5 Sensores ativos de micro-ondas
Os sensores ativos de micro-ondas,cujo acrônimo RADAR deriva de Radio 
DetectionandRanging, foram desenvolvidos durante a Segunda Guerra Mundial para 
fins militares contribuindo na detecção de submarinos. O RADAR possui um sistema 
com transmissor e receptor de energia. O transmissor emite um pulso de energia 
Faixa de terreno sendo imageado
Direção do voo
Motor
Eixo de
rotação
Radiação
refletida
432
1
5
6
Radiação
emitida
7
8
9
10
11
 – Telescópio
 – Espelhofigratório
 – Óptica
 – Grade dicrômica
 – Prisma
 – Detectores
 – Controle eletrônico
 – Tubo de raios catódicos
 – Filme
 – Gravador
 – Conversor analógico/digital e gravador
1
2
3
4
5
6
7
8
9
10
11
3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.3 Sensores termais
22 
97
SU
M
ÁR
IO
no intervalo do comprimento de ondas de 0,8 a 100 cm, e o receptor ou detector 
registra a quantidade de energia refletida (retroespalhada) pelo alvo (Figura 3.9). Por 
medida de segurança foram atribuídos códigos para diferentes bandas na região das 
micro-ondas. As bandas mais usadas são as bandas Ka, X, C e L (Tabela 3.1)
Por ser um sistema ativo o imageamento pode ser efetuado de dia ou de noite.
Atualmente o sistema de radar transmite quase que exclusivamente radiação 
eletromagnética na região de micro-ondas. As imagens de radar são amplamente 
utilizadas em regiões com clima tropical, com constante ocorrência de nuvens e 
névoas, devido a pouca interferência da atmosfera nos dados obtidos por esse 
tipo de sensor.O controle da interação entre a REM e a superfície se deve: 
a. Geometria e disposição espacial do alvo 
b. Rugosidade e heterogeneidade da superfície do alvo 
c. Comprimento de onda, polarização e ângulo de depressão do radar 
(controlados)
d. Propriedades elétricas (constante dielétrica)da superfície do alvo
 
Figura 3.9 - Configuração de um sistema RADAR com transmissor e detector de 
energia (Novo, 2010).
Retroespalhamento
Range
ou
alcance
Pulso
3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.5 Sensores ativos de micro-ondas
23 
97
SU
M
ÁR
IO
Código Comprimento de onda (cm)
Ka 0,8 – 1,1
K 1,1 – 1,7
Ku 1,7 – 2,4
X 2,4 -3,8
C 3,8 – 7,5
S 7,5 – 15
L 15 – 30
P 30 - 100
 
Tabela 3.1 - Códigos usados na região das micro-ondas pelos sensores de radar 
(Drury, 2001).
Radar de visada lateral
O radar de visada lateral é um radar de abertura real, onde o tamanho da 
antena é inversamente proporcional à largura angular do feixe de radar que 
ilumina a superfície do terreno (Jensen, 2011).
Radar de Abertura Sintética
O radar de abertura sintética utiliza uma antena menor devido ao 
desenvolvimento de procedimentos que sintetizam eletronicamente o 
tamanho da antena. A utilização de duas antenas devidamente espaçadas 
possibilita a obtenção da interferometria por radar. O sistema foi utilizado 
primeiramente em aeronaves e é o princípio adotado pela missão SRTM 
(Figura 3.10).
z
y
r - Δr r
h
B
A2 A2
Figura 3.10 – Aquisição de imagens por Radar de Abertura Sintética por interferometria.
3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.5 Sensores ativos de micro-ondas
24 
97
SU
M
ÁR
IO
4. Aquisição de Dados
4.1 Níveis de aquisição
Os produtos de sensores remotos podem se divididos em imagens obtidas 
em diferentesníveis de aquisição de dados. Nesse caso, o nível de aquisição 
de dados é definido pela altura do sensor acoplado na plataforma e o alvo 
analisado. Três tipos principais de níveis são conhecidos: nível de laboratório 
ou campo, nível de aeronave e nível orbital (Figura 4.1). 
Figura 4.1 – Diferentes níveis de aquisição 
de dados por sensoriamento remoto 
(Novo, 2010).
4.2 Plataformas de sensores remotos
Plataformas são os veículos que transportam sensores remotos acima da superfície 
terrestre ou da água. As plataformas como veículos terrestres e guindaste são 
utilizadas para aquisição de dados no nível de campo. Veículos Aéreos 
Não Tripulados e aeronaves são plataformas que adquirem dados no nível 
de aeronave. Os produtos aeroportadosobtidos por sensores remotos e 
atualmente mais utilizados para o mapeamento da superfície terrestre são 
asfotografias aéreas, dados Lidar (Light DetectionAndRanging) e imagens 
RADAR.No nível orbital são utilizadas principalmente as plataformas satelitais 
que ficam em órbitaao redor da Terra. Os produtos de sensores remotos 
orbitais podem ser divididos em duas categorias: 
1. Para análise regional: As imagens são disponibilizadas sem custo para o público 
em geral(exemplo de programas espaciais: LANDSAT, ASTER, CBERS, SRTM);
2. Para análise de detalhe: Geralmente são utilizadas imagens dos 
satélites IKONOS, WORLDVIEW ou ALOS que envolve um custo mediano a 
relativamente elevadopara a sua aquisição.
Em razão da disponibilidade gratuita, os dados LANDSAT, ASTER, CBERS e SRTM são 
amplamente utilizados, apesar da limitação imposta pela escala de detalhe possível 
de análise (1:50.000).Os dados dos sensores IKONOS, WORLDVIEW e em menor 
proporção ALOS são utilizados em trabalhos de mais detalhe, inclusive fornecendo 
dados de relevo para geração de modelo digital de elevação (ALOS e ASTER).
4. Aquisição de Dados > 4.1 Níveis de aquisição 
25 
97
SU
M
ÁR
IO
4.3 Sistemas aeroportados
4.3.1 Fotografia aérea
A fotografia aérea pode ser obtida com visada vertical ou oblíqua. 
A fotografia aérea é considerada vertical quando o eixo óptico da câmera está 
perpendicular à superfície da Terra (Jensen, 2011) (Figura 4.2).A fotografia 
aérea oblíqua é obtida quando o eixo óptico da câmera está deslocado da 
vertical em alguns graus (Wolf e DeWitt, 2000).
Campo de
visada
Eixo
óptico
Altura acima da
superfície (AAS)
Plano do filme
da câmera
Fotografia Aérea
Vertical de um
Terreno Plano
Ponto principal
(PP) 900
Figura 4.2 – Fotografia aérea vertical em um relevo plano (Jensen, 2011).
As fotografias aéreas são obtidas ao longo das linhas de voo com 60% de 
sobreposição de uma fotografia para outra, e com 20 a 30% de sobreposição 
lateral (Figura 4.3). A sobreposição entre as fotografias aéreas permite a 
visualização em três dimensões a partir daestereoscopia. Os princípios de 
fotogrametria são aplicados para a geração das seguintes informações: a) 
mapas planialtimétricos com coordenadas x e y de alvos e feições naturais e 
artificiais; b) mapas topográficos com dados de altitudez; c) modelos digitais de 
elevação;e d) ortofotosgerados a partir de fotografias aéreas corrigidas em x e y.
Figura 4.3 – Fotografias aéreas obtidas ao longo da linha de voo com 60% de 
sobreposição.
4.3.2 Lidar (Light DetectionAndRanging) – Detecção de luz e distância
O sistema Lidar é um sensor ativo constituído por um transmissor e receptor. O 
transmissor emite pulsos de luz laser no comprimento de onda no infravermelho 
próximo (1,04 a 1,06 μm) por um espelho que efetua o imageamento por 
varredura perpendicular a trajetória da aeronave (Figura 4.4). 
lente
#1 #2 #3
Direção de voo
Posição de exposição
Altitude
acima do
nível do
solo, H
60% de
sobreposição
Modelo estereoscópico
Cobertura da fotografia
terreno registrado em três
fotografia sucessivas
4. Aquisição de Dados > 4.3 Sistemas aeroportados > 4.3.1 Fotografia aérea
26 
97
SU
M
ÁR
IO
A área de cobertura de um pulso de luz laser no terreno tem a forma aproximada 
de um círculo. O Lidar pode emitir mais de 100.000 pulsos por segundo. A 
medição baseia-se no tempo que o pulso de luz leva do transmissor ao alvo 
e do alvo para o receptor (Figura 4.5). O receptor capta o retorno da luz laser 
na forma de múltiplos retornos. Como resultado do levantamento Lidar, um 
conjunto de pontos com dados de localização e elevação (x, y e z) denominados 
de masspoints é obtido ao longo da linha de voo (Figura 4.6).
O GPS Diferencial obtem dados precisos de localização do conjunto de pontos. 
Um receptor GPS da estação base é posicionado em um local com coordenadas 
x, y e z bem definidas, e o do receptor GPS é instalado na aeronave.
Os dados Lidar apresentam dados de alta precisão e alta resolução espacial. 
Geralmente os dados Lidar sãoprocessados para gerar modelos digitais de 
superfície e de terreno, e para o estudo da cobertura vegetal.
 
Figura 4.4 – O Lidar possui um sistema de imageamento por varredura que emite o 
pulso de luz laser em uma área com uma forma aproximadamente circular.
divergência
do feixe
laser γ
área de visada
instantânea
do laser
transmissor/receptor
espelho de
varredura
Altitude AGL, h 
ângulo de varredura
alcance (Range)
GPS
IMU
Z
Y
X
γ
θ
Φ
γ
κ
4. Aquisição de Dados > 4.3 Sistemas aeroportados > 4.3.2 Lidar (Light DetectionAndRanging) – Detecção de luz e distância
27 
97
SU
M
ÁR
IO
Figura 4.5 – Oreceptor registra múltiplos retornos do pulso de luz laser em uma área 
de cobertura (Jensen, 2011).
Figura 4.6 – Conjunto de pontos coletados 
pelo receptor do Lidar para uma área com 
vegetação (Fonte: Embrapa)
4.4 Sistemas orbitais
4.4.1 LANDSAT
Desde 1972 os satélites do Programa Landsat, desenvolvido pela NASA, 
monitoram e observam a superfície da Terra. São mais de quatro décadas 
de imageamento contínuo da superfície terrestre, contribuindo para as 
mais diversas áreas da ciência: geologia, geografia, ambiental, agricultura, 
planejamento regional, educação, mapeamento e pesquisa sobre mudança 
global. Atualmente o Serviço Geológico dos EUA (USGS) é responsável pelo 
armazenamento e preservação do maior acervo contínuo da superfície 
terrestre vista do espaço.
LANDSAT8
O Landsat8foi lançado em 11 de fevereiro de 2013 e constitui o oitavo 
satélite da série Landsat (Figura 4.7). Opera com dois instrumentos 
imageadores: Operacional Land Imager (OLI) e ThermalInfrared Sensor (TIRS).
Figura 4.7 – Satélite Landsat8.
área de cobertura
laser instantânea
distância (range)
pulso Bpulso A
LIDAR
Retornos de LIDAR
1° e
último
retornos último
1°
2°
pulso
4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.1 LANDSAT
28 
97
SU
M
ÁR
IO
As características das imagens obtidas peloLandsat8são apresentadas 
na tabela4.1. As bandas multiespectrais cobrem as regiões do visível, 
infravermelho próximo, infravermelho de ondas curtas e infravermelho 
termal. A resolução espacial varia de 15 x 15m para a imagem pancromática, 
30 x 30m para as imagens multiespectrais do visível ao infravermelho próximo 
e ondas curtas, e 100 x 100m para o infravermelho termal. O Landsat8 coleta 
dados em uma faixa imageada de 183km e com intervalo de revisita de 16 
dias. Para maiores informações sobre o programa Landsat8, dados técnicos 
dos sensores e as características das bandas espectrais consultar o sítio 
eletrônico da NASA e USGS.
Bandas espectrais Sensores Resolução espectral (micrometros) Resolução espacial (m) Resolução temporal Faixa Imageada
1 - Ultra azul
OLI
0,43 – 0,45
30
16 dias 183 km
2 - Azul 0,45 – 0,51
3 - Verde 0,53 – 0,59
4 - Vermelho 0,64 – 0,67
5 - Infravermelho próximo 0,85 – 0,88
6 - Infravermelho de 
ondas curtas 1,57 – 1,65
7 - Infravermelho de 
ondas curtas 2,11 – 2,29
8 - Pancromático 0,5 – 0,68 15
9 - Cirrus 1,36 – 1,38 30
10 - Infravermelho termal
TIRS
10,6 – 11,19 100
11 - Infravermelho termal 11,5 – 12,51 100
Tabela 4.1 –Características dos sensores OLI e TIRS do Landsat8.
4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.1LANDSAT
29 
97
SU
M
ÁR
IO
4.4.2 ASTER (Advanced Spaceborne Thermal Emission and 
Reflectance Radiometer)
O primeiro satélite Terrada série Earth Observing System (EOS) foi lançado 
em dezembro de 1999. O ASTER (Advanced Spaceborne Thermal Emissionand 
Reflectance Radiometer) é um dos cinco sistemas de sensores a bordo do 
satélite Terra. O ASTER é constituído por três sensores que operam em 
diferentes regiões do espectro eletromagnético: 
1. região do visível e infravermelho próximo - VNIR, 
2. infravermelho deondas curtas - SWIR 
3. infravermelho termal - TIR (Tabela 4.2). 
A resolução espacial das imagens varia de 15m x 15m para VNIR, 30m x 
30mpara SWIR e 90m x 90m para TIR. As bandas 3N e 3B constituem pares 
estereoscópicos obtidos com visadas nadir e para trás, e possibilitam a 
geração de modelos digitais de elevação (Figura 4.5).
27,6
0
3B3N
H
70
5 
km
6.7 km/seg
64 55
B
9 0 seg.
3N3B
2a Aquisição
Fim Início
1a Aquisição
Fim Início
Cena
Estereoscópica 1
430 370 60 0 km Solo
B - Base
 Estereoscópica
H - Altitude da órbita
Figura 4.5 –Cenas estereoscópicas obtidas na região do visível
4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.2 ASTER (Advanced Spaceborne Thermal Emission and Reflectance Radiometer)
30 
97
SU
M
ÁR
IO
Bandas 
espectrais
Resolução 
espectral 
(micrometros)
Resolução 
espacial (m)
Resolução 
radiométrica 
(bits)
Faixa 
imageada
(km)
Visível e 
infravermelho 
próximo - VNIR
1 0,52 – 0,60
15
8
60
2 0,63 – 0,69
3N 0,76 – 0,86
3B 0,76 – 0,86
Visível e 
infravermelho 
próximo - VNIR
4 1,6 – 1,7
30
5 2,145 – 2,185
6 2,185– 2,225
7 2,235 – 2,285
8 2,295 – 2,365
9 2,360 – 2,430
Visível e 
infravermelho 
próximo - VNIR
10 8,125 – 8,475
90 12
11 8,475 – 8,825
12 8,925 – 9,275
13 10,25 – 10,95
14 10,95 – 11,65
4.4.3 CBERS
O CBERS é um programa espacial desenvolvido a partir da parceria 
entre Brasil e China. Atualmente encontra-se em órbita o quinto satélite 
desenvolvido pelo programa CBERS, o CBERS-4 lançado em dezembro de 
2014 (Figura 4.6). O CBERS-4 opera com quatro sistemas sensores: Câmera 
pancromática e multiespectral (PAN), câmera multiespectral regular (MUX), 
Câmera de campo largo (WFI) e Imageador multiespectral e termal (IRS) 
(Tabela 4.3). Cada câmera possui suas especificações em termos de resoluções 
espectral, espacial e radiométricaconferindo ao CBERS-4 uma variedade de 
produtos para o estudoda superfície da Terra. Informações detalhadas sobre 
os sistemas sensores que compõem o CBERS-4 devem ser consultadas no sítio 
eletrônico do Instituto Nacional de Pesquisas Espaciais do Brasil – INPE.
Figura 4.6 – Satélite CBERS-4 (Fonte: INPE).
Tabela 4.2 – Características dos sensores do ASTER a bordo da 
plataforma orbital Terra.
4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.3 CBERS
31 
97
SU
M
ÁR
IO
Sensores Bandas espectrais
Resolução espectral 
(micrometros)
Resolução 
espacial (m)
Resolução 
radiométrica 
(bits)
Resolução 
temporal
Faixa 
imageada
PAN
Banda 1 0,51 – 0,85 5
60
Banda 2 0,52 – 0,59
10Banda 3 0,63 – 0,69
Banda 4 0,77 – 0,89
MUX
Banda 5 0,45 – 0,54
20
26
120
Banda 6 0,52 – 0,59
Banda 7 0,63 – 0,69
Banda 8 0,77 – 0,89
IRS
Banda 9 0,50 – 0,90
40
120
Banda 10 1,55 – 1,75
Banda 11 2,08 – 2,35
Banda 12 10,4 – 12,5 80
WFI
Banda 13 0,45 – 0,52
64 10 866
Banda 14 0,52 – 0,59
Banda 15 0,63 – 0,69
Banda 16 0,77 – 0,89
Tabela 4.3 – Características das quatro câmeras a bordo do CBERS-4 (Fonte: INPE).
4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.3 CBERS
32 
97
SU
M
ÁR
IO
4.4.4. ALOS (AdvancedLandObservingSatellite)
O satélite ALOS-2 desenvolvido pela Agência de Exploração Espacial do Japão 
(JapanAerospaceExplorationAgency- JAXA) foi lançado em 24 de maio de 2014 
(Figura 4.7).O ALOS-2 ou Daichi-2 é equipado com três principais sistemas 
sensores: Panchromatic Remote-sensingInstruments for StereoMapping (PRISM), 
AdvancedVisibleandNearInfraredRadiometer tipo 2 (AVNIR-2) e PhasedArraytype 
L-bandSyntheticAperture Radar (PALSAR). O sensor PRISM obtem cenas 
estereoscópicas com três visadas distintas (nadir, para frente e para trás) que 
permite a geração de modelos digitais de elevação de alta resolução espacial 
(Tabela 4.4). O sensor AVNIR-2 fornece dados multiespectrais em quatro bandas 
nas regiões do visível e infravermelho próximo. O sistema sensor PALSAR é um 
sensor ativo de micro-ondas operando na banda L. O PALSAR possui quatro 
modos operacionais com diferentes parâmetros definidos: resolução espacial, 
resoluçãoradiométrica, frequência da radiação eletromagnética e área imageada. 
Para maiores detalhes sobre as principais características operacionais dos sistemas 
sensores do ALOS-2 (http://www.eorc.jaxa.jp/ALOS/en/about/palsar.htm).
Figura 4.7 – Satélite ALOS 2.
Sensor Bandas espectrais
Resolução 
espectral 
(micrometros)
Resolução 
espacial 
(m)
Resolução 
radiométrica 
(bits)
Resolução 
temporal 
(dias)
PRISM
Pancromático 
(Nadir, para frente e 
para trás)
0,52 -0,77 2,5
8 14
AVNIR-2
Azul 0,42 – 0,5 10
Verde 0,52 – 0,6 10
Vermelho 0,61 – 0,69 10
Infravermelho 0,76 – 0,89 10
Sensores Bandas espectrais Frequencia
Resolução 
espacial 
(m)
Resolução 
radiométrica 
(bits)
Resolução 
temporal 
(dias)
PALSAR SAR-L
Banda L 
1.270 MHz
10 -100 3 a 5 14
Tabela 4.4 – Características dos sensores PRISM, AVNIR-2 e PALSAR acoplados no 
satélite ALOS-2.
4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.4. ALOS (AdvancedLandObservingSatellite)
http://www.eorc.jaxa.jp/ALOS/en/about/palsar.htm
33 
97
SU
M
ÁR
IO
4.4.5 IKONOS
O IKONOS foi lançado em 1999 como o primeiro satélite comercial de alta 
resolução espacial pela empresa DigitalGlobe, e desativado em janeiro de 
2015 devido a problemas técnicos (Figura 4.8). Osatélite IKONOSoperava 
no modo pancromático com uma banda espectral entre 0,45μm e 0,9 μm e 
resolução espacial de 0,8m x 0,8m,e modo multiespectralcom quatro bandas 
espectrais nas regiões do visível e infravermelho próximo e resolução espacial 
de 3,2m x 3,2m (Tabela 4.5). Possui um acervo de imagens de alta resolução 
com mais de 15 anos de imageamento da superfície da Terra.
Figura 4.8 –Satélite IKONOS 
(Fonte: DigitalGlobe)
Bandas 
espectrais
Resolução 
espectral 
(micrometros)
Resolução 
espacial (m)
Resolução 
radiométrica 
(bits)
Faixa 
imageada
Resolução 
temporal 
(dias)
Azul 0,45 – 0,52 3,2
11 11,3 km 3
Verde 0,52 – 0,6 3,2
Vermelho 0,63 – 0,69 3,2
Infravermelho 0,76 – 0,90 3,2
Pancromático 0,45 – 0,9 0,8
 
Tabela 4.5– Características dos sensores a bordo do satélite IKONOS.
4.4.6 Worldview
Os satélites WorldView junto com o IKONOS e GeoEyes fazem parte do 
conjunto de satélites comerciais de alta resolução espacial operado pela 
DigitalGlobe(Figura 4.9). Atualmente existem 4 satélites WorldViewem 
operação, todas com resolução espacial abaixo de 1,85m x 1,85m, chegando 
a uma resolução de 0,31m x 0,31m (Tabela 4.6). O WorldView-1 foi lançado 
em 2007 com um sensor pancromático de alta resolução espacial. Em 2009 
foi lançado o WorldView-2 como primeiro satélite comercial com 8 bandas 
multiespectrais de alta resolução (1,85m x 1,85m), e com a resolução espacial 
melhorada para a banda pancromática (0,46m x 0,46m). O WorldView-3 
apresenta um avanço em termos de resolução espectralcom bandas 
4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.5 IKONOS
34 
97
SU
M
ÁR
IO
espectrais contíguas na região do visível ao infravermelho de ondas curtas, 
mantendo ainda alta resolução espacial. O Worldview-4 opera no modo 
pancromático com uma banda e multiespectral com 4 bandas na região do 
visível e infravermelho próximo. A resolução espacial é alta com 0,31 x 0,31m 
para a banda pancromática e 1,24m x 1,24m para as bandas multiespectrais.
Figura 4.9 –Satélite WorldView-4 
(Fonte: DigitalGlobe).
Satélite Bandas espectrais
Resolução 
espectral 
(micrometros)
Resolução 
espacial (m)
Resolução 
temporal 
(dias)
Faixa 
imageada 
(km)
WorldView-1 1 banda pancromática0,4 – 0,9 0,5 1,7 17,7
WorldView-2
1 banda 
pancromática 
e 8 bandas 
multiespectrais
0,45 – 1,04 0,46 – 1,85 1,1 16,4
WorldView-3
1 banda 
pancromática 
e 16 bandas 
multiespectrais
0,45 – 2,365 0,31 – 3,7 1 13,2
WorldView-4
1 banda 
pancromática 
e 4 bandas 
multiespectrais
0,45 – 0,92 0,31 – 1,24 1 13,1
Tabela 4.6 – Características gerais dos sensores WorldView.
4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.6 Worldview
35 
97
SU
M
ÁR
IO
4.4.7 SRTM (SHUTTLE RADAR TOPOGRAPHIC MISSION)
A missão Shuttle Radar Topographic Mission - SRTM foi lançada em fevereiro 
2000 a bordo do ônibus espacial Endeavour/NASA. A missão durou 11 dias com a 
obtenção de dados topográficos deaproximadamente 80% dasuperfície da Terra. 
Duas antenas com sistemas de sensores de radar foram acopladas no ônibus 
espacial. A antena principal foi instalada no compartimento principal com dois 
radares que transmitiram e receberam os sinais nas bandas C e X da região das 
micro-ondas. Asegunda antena foi instalada na ponta de um mastro de 60m 
de comprimentopara apenas receber os sinais das bandas C e X (Figura 4.10). A 
utilização de duas antenas espaçadas possibilitou a obtenção da interferometria 
por radar, e a geração demodelos digitais de elevação de quase toda a superfície 
terrestre com uma resolução espacial de 30m x 30m e 90m x 90m.
Figura 4.10 – Sistema sensor da missão 
SRTM por interferometria (Drury, 2004).
4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.7 SRTM (SHUTTLE RADAR TOPOGRAPHIC MISSION)7. Comportamento Espectral de Alvos > 7.1 Assinatura espectral > 7.1.4 Materiais urbanos
36 
97
SU
M
ÁR
IO
5. Pré-Processamento
O pré-processamento é uma etapa que precede o processamento digital 
de imagens de sensoriamento remoto. Na etapa de pré-processamento 
são aplicadas funções operacionais para remover ou corrigir os erros e as 
distorções introduzidas nas imagens dos sistemas sensores pelos seguintes 
fatores (Meneses e Almeida, 2012):
• erros instrumentais que causam ruídos espúrios;
• geometria do imageamentocom distorções;
• interferências da atmosfera que causam erros radiométricos.
5.1 Eliminação de ruídos
As imagens podem conter erros no valor digital do pixel que são decorrentes 
de erros instrumentais (Figura 5.1).Tais erros são caracterizados por pixels 
com valores saturados (claros) ou sem sinal (escuros) que ocorrem na forma 
de linhas e que são denominados de ruídos.O método para eliminar o ruído 
consiste em substituir a linha pelo “valor médio” dos pixels correspondentes 
das linhas anterior e posterior (Meneses e Almeida, 2012).
Figura 5.1- Imagem com linhas com valores 
saturados (Meneses e Almeida, 2012).
5.2 Correção geométrica
A correção geométrica consiste em corrigir as distorções geométricas dos 
produtos de sensores remotos, e é realizada basicamente em duas etapas 
(Meneses e Almeida, 2012):
• Etapa 1 - As distorções geométricas sistemáticas introduzidas no momento 
da aquisição das imagens devido a rotação, inclinação e curvatura da Terra, 
e instabilidade da plataforma são removidas nesta etapa pelo laboratóriode 
produção de imagens.
• Etapa 2 - O georreferenciamento é efetuadoa partir da definição de um 
sistema de projeção para estabelecer um referencial de coordenadas que 
possibilite localizar na imagem a posição geográfica dos alvos. Essa etapa é 
realizada nos laboratórios de produção de imagens ou pelo usuário.
5. Pré-Procesamento > 5.1 Eliminação de ruídos
37 
97
SU
M
ÁR
IO
O georreferenciamento além de corrigir as distorções geométricas dos produtos 
de sensores remotos, deve ser aplicado em dados e informações que necessitam 
do referencial de coordenadas, como por exemplo, em mapas digitalizados. Para o 
georreferenciamento dos produtos de sensores remotos e mapas digitalizados, os 
seguintes tópicos apresentados a seguir devem ser considerados:
• Pontos de controle;
• Tabelas de correlação;
• Precisão;
• Reamostragem.
5.2.1 Pontos de controle
Os pontos de controle são feições bem definidas e facilmente reconhecíveis 
no terreno, nas imagens e mapas georreferenciados e não georreferenciados. 
Dependendo da resolução espacial da imagem, os pontos de controle podem 
ser identificados com maior ou menor detalhe. Em áreas urbanizadas os 
pontos de controle são representados por cruzamento ou bifurcação de vias 
de acesso (rodovias, estradas, ruas, pontes), monumentos, limite do terreno 
ou imóvele feições naturais e artificiais geométricas (Figura 5.2). 
Figura 5.2 – Imagens de satélite com a 
identificação de pontos de controle (pista de 
aeroporto, bifurcação e cruzamento de vias 
de acesso) em área urbanizada destacados 
com círculo vermelho. 
Dentre os fatores mais importantes a serem considerados na obtenção dos 
pontos de controle destacam-se asua distribuição por toda a área a ser 
georreferenciada,o número adequado de pontos,a precisão na marcação e a 
inserção correta de coordenadas.
As principais formas de obtenção dos pontos de controle são:
• Uso do GPS (Global Position System) no terreno.
• Grades de coordenadas em mapas, imagens, cartas-imagens.
• Mapas georreferenciados com elementos pontuais.
• Imagens ortorretificadase/ougeorreferenciadascom elementos pontuais.
 
 
5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.1 Pontos de controle
38 
97
SU
M
ÁR
IO
GPS (Global Position System) no terreno
O posicionamento de pontos de controle no terreno pode ser obtido com o 
usodo GPS simples ou diferencial em locais previamente identificadosnos 
produtos de sensores remotosou mapas a serem georreferenciados.Esse 
método é útil para o georreferenciamentode imagens de alta resolução 
espacial (Figura 5.3). 
Figura 5.3 – GPS diferencial e a ortofoto 
com a localização dos pontos de controle 
representados por pontos no limite do 
terreno.
Grade de coordenadas em mapas, imagens e cartas-imagens
A grade de coordenadasé utilizada como referência para a identificação 
das coordenadas X e Y dos pontos de controle em mapas planialtimétricose 
temáticos (Figura 5.4).
Figura 5.4 – Parte da carta planialtimétrica 
(IBGE, escala 1:50.000) com a grade de 
coordenadas em UTM e os pontos de 
controle destacados com círculo vermelho.
Mapas georreferenciadoscom elementos pontuais 
As cartas planialtimétricas (cartas e mapas geralmente elaborados pelo IBGE ou 
DSG) são utilizadas para a identificação e obtenção das coordenadas X e Y dos 
pontos de controle no terreno (Figura5.5). Nesse caso, os pontos de controle 
são identificados tanto no mapa georreferenciado como na imagem de satélite 
que será georreferenciada, e incluem a intersecção ou bifurcação de estradas, 
confluência de drenagens, feições artificiais e naturais identificadas.
Figura 5.5 – Mapa planialtimétrico com 
pontos de controle identificados para o 
georreferenciamento da imagem de satélite 
(Meneses e Almeida, 2012).
 
Imagens otificadas ou georreferenciadas com elementos pontuais
O georreferenciamento é realizado de imagem para imagem, onde os 
pontos de controle são identificados nas duas imagens (Figura5.6). O 
georreferenciamento se baseia nas coordenadas X e Y dos pontos de controle 
da imagem ortorretificada ou georreferenciada.
5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.1 Pontos de controle
39 
97
SU
M
ÁR
IO
Figura 5.6 - Georreferenciamento de 
imagem para imagem, na qual uma 
das imagens está ortorretificada ou 
georrerferenciada.
 
5.2.2 Tabelas de correlação
A tabela de correlação é utilizada para definir a correlação entre as coordenadas 
X e Y da imagem de referência georreferenciadae aimagem nãogeorreferenciada 
(Figura5.7).As transformações polinomiaissão comuns no georreferenciamento 
de imagens e permitemvincular tais coordenadas. Segundo Meneses e Almeida 
(2012) as transformações polinomiais de 1ª e 2ª ordem são usadas nas imagens 
de baixa à média resolução espacial. Para as imagens de alta resolução espacial 
são empregadas ordens polinomiais mais altas.
Figura 5.7 – Tabela de correlação 
comas coordenadas X e Y da imagem 
georreferenciada e não georreferenciada.
 
 
5.2.3 Precisão
A precisão fornece uma estimativa do erro associado ao processo de 
georreferenciamento. A precisãodecorre em grande parte da qualidade dos 
dados e informações espaciais utilizadas, bem como da habilidade empreendida 
no georreferenciamento.Cada ponto de controle utilizado terá um erro residual 
associado denominado de erro quadrático médio ou Root Mean Square (RMS) 
(Figura 5.8). O RMS do ponto de controle é calculado com base na distância total 
entre a coordenada na imagem de referênciae a coordenada a ser estimada 
(Equação 5.1, Figura 5.9).O valor do RMS pode ser expresso em número de pixel 
ou unidade na qual está sendo efetuado o georreferenciamento. No exemplo, 
recomenda-se um erro máximo de 1 pixel. O ponto de controle com erro muito 
alto deve ser reavaliado ou descartado do processo.
 
5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.2 Tabelas de correlação
40 
97
SU
M
ÁR
IO
Figura 5.8 –Tabela com pontos de controle e 
os erros RMS associados.
O erro RMS é calculado pela equação:
Ri = √(XRi2+YRi2 ) (eq. 5.1) 
onde, 
Ri = erro RMS para o ponto de controle 
XRi = residual X 
YRi2 = residual Y
Residual XPC fonte
PC saída
Erro RMSResidual Y
Figura 5.9 – Representação geométrica da medida do erro RMS de um ponto de 
controle (Meneses e Almeida, 2012).
5.2.4 Reamostragem
No georreferenciamento, o centro de cada pixel da imagem ou mapa 
de referência deveria ser transferido exatamente para o centro do 
pixelcorrespondente na imagem que foi georreferenciada (Figura5.10). No 
entanto, raramente a localização do pixel da imagem ou mapa de referência e 
da imagem que foi georreferenciadairá coincidir exatamente em um mesmo 
ponto. Aimprecisão na localização do ponto de controle é demonstrada 
pela estimativa do erro RMS. Para solucionar esse problema é realizada 
a reamostragem dos pixels, que consiste em determinar o valor do brilho 
5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.4 Reamostragem
41 
97
SU
M
ÁR
IO
da imagem corrigida a partir do brilho da imagem original, com base na 
extrapolação dos valores digitais dos pixels. Para o processo de reamostragem 
dos pixels podem ser utilizados os seguintes interpoladores: vizinho próximo, 
bilineare convolução cúbica.
mapa imagem
Figura 5.10 – Condição ideal na qual o centro do pixel do mapa de referência 
corresponde com o centro do pixel da imagem que foi georreferenciada (Meneses e 
Almeida, 2012).
5.3 Correção radiométrica
A correção radiométrica é necessária principalmente devido à distorção 
radiométrica causada pela presença e interferência da atmosfera. A 
intensidade da degradação ou distorção radiométricadepende do 
comprimento de onda, da data de imageamento e da trajetória da 
radiação. A atmosfera absorve a radiação eletromagnética atenuando a 
intensidade de energia que ilumina o alvo na superfície, e reflete a radiação 
eletromagnética adicionando radiância extra ao sinal que é detectado pelo 
sensor. A transparência da atmosfera pode se tornar opaca em determinados 
comprimentos de onda quando a atenuação atinge um determinado valor, 
impossibilitando a obtenção de imagens.Portanto, deve-se verificar a 
degradação causada pelo espalhamento atmosférico, avaliando quanto de 
radiação foi adicionado ao pixel e que não é proveniente do alvo (Meneses 
e Almeida, 2012). Portanto, aradiância medida pelo sensor é diferente da 
radiância real do material, devido ao efeito aditivo do espalhamento causados 
pelos aerossóis, gases e moléculas d’água da atmosfera.
5. Pré-Procesamento > 5.3 Correção radiométrica
42 
97
SU
M
ÁR
IO
Dentre as diferentes técnicas de correção atmosférica destaca-se a subtração 
escura ou darksubtraction.A correção atmosférica por subtração escura utiliza 
os valores digitais do limite inferior do histograma de cada banda(Meneses 
e Almeida, 2012).Considerando que cada banda deveria conter pixels com 
valores digitais próximos ou iguais a zero, principalmente em áreas de 
sombra de relevo e corpos de água límpidos. Mas devido ao espalhamento 
atmosférico é adicionado um valor de brilho a todos os pixels da imagem. 
Esse valor deve ser identificado no histograma de cada banda espectral e 
subtraídopara a remoção da distorção radiométrica (Figura 5.11).
57
44
32
28
20
11
ETM banda 1 (0,45 - 0,52 µm)
ETM banda 2 (0,52 - 0,60 µm)
ETM banda 3 (0,63 - 0,69 µm)
ETM banda 4 (0,76 - 0,90 µm)
ETM banda 5 (1,55 - 1,75 µm)
ETM banda 7 (2,08 - 2,35 µm)
Figura 5.11 – Histogramas das seis bandas do Landsat7 sensor ETM com a indicação 
do valor digital que mede a quantidade de espalhamento atmosférico adicionada ao 
sinal (Meneses e Almeida, 2012).
5. Pré-Procesamento > 5.3 Correção radiométrica
43 
97
SU
M
ÁR
IO
6. Processamento Digital de Imagens
O processamento digital de imagens consiste em executar operações 
matemáticas com o objetivo de melhorar a qualidade espectral e espacial das 
imagens.A estrutura matricial das imagens facilita a aplicação de operações 
matemáticas e estatísticas para analisar o grande volume de dados dos produtos 
de sensoriamento remoto. No domínio espectral,as operações são efetuadas 
pixel a pixel, onde cada pixel da imagem aumenta o seu contraste independente 
do valor do pixel vizinho. No domínio espacial,cada pixel da imagem aumenta o 
seu contraste em dependência do valor do pixel dos seus vizinhos. Nesse caso o 
processamento irá depender da distribuição espacial dos pixels.
Na literatura são encontradas as mais variadas técnicas de PDI. Nesta apostila 
serão abordadas as principais técnicas de realce de dados espectrais e 
espaciais, e a técnica de classificação de imagens (Figura 6.1).
Figura 6.1 – Fluxograma do processamento digital de imagens para realce de dados 
espectrais, espaciais e classificação.
6. Processamento Digital de Imagens
44 
97
SU
M
ÁR
IO
6.1 Espaço de cores RGB
A visão humana tem baixa percepção para discriminar níveis de cinza, no 
máximo 30 tons de cinza. Por outro lado, a percepção da visão humana 
aumenta por meio de imagens coloridas, por que a visão humana é colorida. 
Por isso a importância da cor para a visualização das imagens multiespectrais 
de sensoriamento remoto. 
As cores são dividas em cores primárias (vermelho, verde e azul) e cores 
secundárias (amarelo, ciano e magenta). As cores secundárias resultam da 
combinação de cores primárias. O ciano é gerado pelas cores azul everde, 
magenta pela combinação de azul evermelho, e amarelo resulta das cores 
verde e vermelho (Figura 6.2). Demais cores são obtidas com a variação da 
intensidade de luz de qualquer uma das três cores primárias. A projeção dos 
focos de luzes azul, verde e vermelho resulta na cor branca. 
 
Figura 6.2 - Mostra as cores primárias (vermelho, verde e azul), secundárias 
(magenta, amarelo e ciano) e a cor branca.
Para a construção de imagens coloridas pode se utilizar o espaço de cores 
RGB (Figura 6.3). Na composição colorida RGB, três bandas espectrais são 
selecionadas onde cada banda é representada uma cor primária (Figura 6.4).
Os eixos do cubo no espaço de cores RGB representam a quantização da 
radiânciareferente ao comprimento de onda de um conjunto de três bandas.
Os vértices do cubo representam as cores primárias e secundárias. O eixo 
diagonal com origem no centro do cubo (preto) e em direção ao vértice oposto 
(branco) contem os tons de cinza.
Verde
Green
Vermelho
Red
Azul
Blue
RGB
6. Processamento Digital de Imagens > 6.1 Espaço de cores RGB
45 
97
SU
M
ÁR
IO
 
Figura 6.3 –Representação do espaço de cores RGB (Meneses e Almeida, 2012).
Figura 6.4 – Composição colorida RGB das 
bandas 5, 4 e 3 do Landsat5.
6.2 Histograma e aumento de contraste
O histograma é a forma mais comum de representar a distribuição dos valores 
ou números digitais (ND) de uma imagem, fornecendo informações sobre 
quantos pixels na imagem possuem cada valor possível de ND (Figura 6.5).
Figura 6.5 – Imagens do Landsatda 
região do estado do Ceará. a) imagem sem 
contraste, b) imagem com contraste, c) 
histograma com aumento de contraste linear. 
O aumento de contraste é uma função que permite redistribuir os valores de 
uma imagem ao longo do intervalo de dados (Figura 6.6):
• Na expansão linear os valores são expandidos de forma uniforme. Os níveis 
de cinza são deslocados com o intuito de centralizar o histograma próximo 
da média.
• Expansão linear por partes é aplicada para imagem com histograma 
bimodal ou multimodal.
• Na expansão equalizada os valores são redistribuídos com base na 
sua frequência de ocorrência. Geralmente é aplicada em imagens com 
branco
amarelo
magenta
blue
(0,0,255)
green
(0,255,0)
red
(255,0,0)
preto
6. Processamento Digital de Imagens > 6.2 Histograma e aumento de contraste
46 
97
SU
M
ÁR
IO
histograma assimétrico para distribuir de forma desigual os valores de brilho entre 
0 a 255. Os valores são redistribuídos com base na sua frequência de ocorrência.
• Na expansão Gaussiana dois parâmetros são analisados a média e variância. 
O contraste é controlado pela média dos resultados e pelo desvio padrão. 
Aumentando o desvio padrão há um aumento da distribuição dos dados.
 
Figura 6.6 – Histograma com aumento de contraste linear e por equalização 
(Lillesand e Kiefer, 1994)
6.3 Intensidade, Matiz, Saturação
Espaço IHS trata dos atributos da cor em termos de intensidade, matiz e 
saturação.Intensidade (I) é a quantidade de brilho de uma cena (medida do 
albedo).Saturação (S) é o grau de diluição de uma cor pura por luz branca 
(pureza da cor).Matiz define a cor espectral dominante (Figura 6.7).
 
Figura 6.7 – Modelo de representação dos atributos IHS da cor 
(Meneses e Almeida, 2012).
600
0
108 158
60 158
255
0 127 255
600 108 158 255
0 38 255
255
0
60 158108
255 Image values (DN)
Image values (DN)
Display levels (DN’)
Display levels (DN’)
Display levels (DN’)
Image values (DN)
(a) Histogram
(b) No strech
(c) Linear strech
(d) Histogram strech
1,0 branco
S Red (0
0)ciano
Green (1200)
Blue (2400) magenta
amarelo
0.0 preto
Red
Green amarelo
magentaBlue
ciano
p’a
p
bo
p é o ponto representando a cor
I = R + G + B/3
H = ap / ab
S = op / op’
I
6. Processamento Digital de Imagens > 6.3 Intensidade, Matiz, Saturação
47 
97
SU
M
ÁR
IO
6.4 Operação aritmética
O processamento digital de imagens com a aplicação da operação aritmética 
é simples e rápido.É um processamento que transforma os dados a partir da 
combinação de imagens, gerando uma nova imagem em relação às imagens 
de entrada. O processamento é executado pixel a pixel por meio de uma 
regra matemática pré-definida, como por exemplo, as operações de soma, 
subtração, multiplicação e divisão (Figura 6.8).
As operações aritméticas de soma e a multiplicação realçam similaridades 
espectrais entre imagens de diferentes bandas.A subtração e a divisão realçam 
diferenças espectrais do alvo.
Figura 6.8 – Operações aritméticas executadas pixel a pixel entre duas bandas 
(Menese e Almeida, 2012).
6.4.1 Índice de vegetação 
Índice de diferença normalizada de vegetação ou Normalize Difference 
Vegetation Index (NDVI), envolve a diferença e a soma entre as bandas 
na região do comprimento de onda do infravermelho próximo (NIR) e do 
vermelho (RED).
NDVI = NIR-RED/NIR+RED (eq. 6.1)
Os valores do índice variam de -1 a +1, onde geralmente +1 equivale a áreas de 
densa vegetação, valores negativos às áreas com total ausência de vegetação 
(água) e valores que se aproximam de zero a solos expostos.
6.4.2 Índice de água 
Para o cálculo do Índice de Diferença Normalizada de Água (NDWI)é utilizada a 
banda na região do comprimento de onda da cor verde (GREEN) e uma banda 
no comprimento de onda do infravermelho próximo (NIR).
NDWI = GREEN – NIR / GREEN + NIR (eq. 6.2)
+
–
x
/
=
6. Processamento Digital de Imagens > 6.4 Operação aritmética > 6.4.1 Índice de vegetação 
48 
97
SU
M
ÁR
IO
6.5 Filtros
Variação no Número Digital (ND) ao longo de uma linha em uma imagem 
pode ser representada na forma de um gráfico. Essa curva complexa pode ser 
decomposta em um conjunto de ondas senoidais com diferentes frequências e 
amplitudes (Figura 6.9).
Distance
Br
ig
ht
ne
ss
Br
ig
ht
ne
ss
(a)
(b)
Figura 6.9 – Variação do número digital ao longo da linha em uma imagem 
(a) representado na forma de ondas senoidais (b) com diferentes amplitudes e 
frequências (Drury, 2001).
Todas as imagens possuem limites entre áreas com diferentes respostas em 
relação à radiação eletromagnética associadas a diferentes coberturas do terreno 
(solo, vegetação, rocha), e ao contato entre áreas com diferentes condições de 
iluminação (devido ao sombreamento topográfico). Tais limites são representados 
por gradientes inclinados, e são conhecidos como bordas. Por variar bastante em 
áreas pequenas são denominadas de feições de alta frequência. 
A mistura de frequências em uma imagem dificulta a interpretação de feições 
com frequências específicas. Portanto, para realçar de forma seletiva as 
feições de alta, média e baixa frequência são aplicadas técnicas de filtragem 
espacial.A aplicação de filtros permite destacar principalmente bordas, feições 
lineares de determinadas direções e padrões de textura.Existem duas técnicas 
de filtragem:
a. Convolução atua no domínio espacial de uma imagem e emprega o 
conceito de janela móvel. Os principais tipos de filtros de convolução: passa-
baixa, passa-alta e direcionais.
b. Análise Fourier atua no domínio da frequência de uma imagem. A análise 
Fourier não será abordada nesta apostila, mas os conceitos básicos sobre o tema 
podem ser consultados emLillesand e Kiefer (1994) e Schowengerdt (1997).
6. Processamento Digital de Imagens > 6.5 Filtros
49 
97
SU
M
ÁR
IO
6.5.1 Filtro por convolução
No conceito da janela móvel a janela 3x3 inicia a filtragem a partir do canto 
superior esquerdo da imagem (Figura6.10). Cada número digital das 9 células ou 
pixels da imagem é multiplicado pelo respectivo valor das 9 células da janela 3x3. 
O valor do pixel central dessa área da imagem é substituído pela soma desses 9 
valores, atribuindo um novo valor de pixel para a imagem de saída. A imagem de 
saída irá possuir valores iguais a zero nos pixels situados nas bordas resultando 
em uma imagem com efeito de bordas (Schowengerdt, 1997;Crósta, 1993).
(a) (b)
(c)
Figura 6.10 - Mostra o conceito da janela móvel de uma janela 3x3 
(Lilesand e Kiefer, 1994).
Filtro passa-baixa
O filtro passa-baixa elimina as feições de altafrequência da imagem deixando 
passar as de baixa frequência. O filtro passa-baixa remove os ruídos eletrônicos 
comuns nos produtos de sensores remotos (Crósta, 1992). Portanto, a imagem 
com filtro passa-baixa mostra feições suavizadas (Figuras 6.11a e 6.11b).
Filtro passa-baixa mais comum é o filtro de média que substitui o número digital (ND) 
do pixel original central pela média aritmética do pixel e seus vizinhos (Figura 6.12).
Figura 6.11 – Imagens com aplicação dos 
filtros passa-baixa e passa-alta. a) imagem 
original com as componentes de alta e baixa 
frequência; b) imagem com passa-baixa com 
feições suavizadas; c) imagem com passa-
alta destacando as bordas e limites entre 
áreas com valores diferentes de ND.
6. Processamento Digital de Imagens > 6.5 Filtros > 6.5.1 Filtro por convolução
50 
97
SU
M
ÁR
IO
 
Figura 6.12 – Filtro de média com uma janela de 3x3 (a), e estrutura matricial da imagem 
com os números digitais (ND) comdestaque para a área sombreada (b), onde o número 
digital do pixel central resulta da média aritmética do pixel e seus vizinhos(c), A imagem 
resultante com aplicação do filtro passa-baixa (Drury, 2001).
Filtro passa-alta
O filtro passa-alta elimina as feições de baixa frequência mantendo apenas 
as de alta frequência (Figura 6.11c). As imagens com filtro passa-alta realçam 
bordas e limites entre áreas com valores de números digitais (ND)diferentes.
O tipo mais comum de

Outros materiais