Buscar

GEOTECNOLOGIAS APLICADAS A ENGENHARIA FLORESTAL

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 64 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 64 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 64 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

MÓDULO 1 
 
Apostila do Curso 
 
Prof. Drª. Ana Paula Dalla Corte 
Curso de Extensão 
Ambiental e Florestal 
CURSO DE EXTENSÃO 
 
GEOTECNOLOGIAS APLICADAS A 
ENGENHARIA FLORESTAL 
 
 
2 
 
SUMÁRIO 
1. CARTOGRAFIA BÁSICA..............................................………................... 4 
1.1. FORMA DA TERRA......................................................................................... 4 
1.2. COORDENADAS............................................................................................. 6 
1.2.1. SISTEMA DE COORDENADAS GEOGRÁFICAS................................................... 6 
1.2.2. SISTEMA DE COORDENADAS PLANAS............................................................. 7 
1.2.2.1 A PROJEÇÃO UTM.......................................................................................... 7 
1.3. PROJEÇÕES CARTOGRÁFICAS......................................................................... 8 
1.4. ESCALA.......................................................................................................... 9 
2. SENSORIAMENTO REMOTO......................................…………................ 11 
2.1. PRINCIPIOS DO SENSORIAMENTO REMOTO................................................... 11 
2.2. SISTEMAS DE SENSORES................................................................................ 13 
2.3. ESTRUTURA DE DADOS DE SENSORIAMENTO REMOTO.................................. 15 
2.4. PRINCIPAIS SENSORES REMOTOS.................................................................. 19 
2.4.1. SATÉLITE CBERS, SENSOR CCD........................................................................ 21 
2.4.2. SATÉLITES LANDSAT 5 e LANDSAT 8............................................................... 22 
2.4.3. SATÉLITE SPOT 5............................................................................................ 24 
2.4.4. SATÉLITE IKONOS II........................................................................................ 26 
2.4.5. SATÉLITE QUICKBIRD..................................................................................... 27 
2.4.6. SATÉLITE ALOS.............................................................................................. 28 
2.4.7. SATÉLITE WORLDVIEW – 3............................................................................. 30 
2.5. PRINCIPAIS PROCEDIMENTOS PARA USO DAS IMAGENS DE SATÉLITE............ 32 
2.5.1. VISUALIZAÇÃO DAS IMAGENS EM COMPOSIÇÃO COLORIDA.......................... 32 
2.5.2. FUSÃO DE BANDAS........................................................................................ 32 
2.5.3. CORREÇÃO GEOMÉTRICA.............................................................................. 34 
2.5.4. CORRECAO RADIOMÉTRICA........................................................................... 36 
2.5.5. ORTORETIFICAÇÃO........................................................................................ 37 
2.5.6. CLASSIFICAÇÕES DIGITAIS DE IMAGENS......................................................... 38 
2.5.7. ACURÁCIA..................................................................................................... 41 
2.5.8. ÍNDICES DE VEGETAÇÃO................................................................................ 42 
3. AEROFOTOGRAMETRIA E FOTOINTERPRETAÇÃO......………….......................... 46 
3.1. FOTOGRAMETRIA.......................................................................................... 46 
3.2. FOTOINTERPRETAÇÃO................................................................................... 48 
 
 
 
 
 
 
 
 
 
 
 
 
 
3 
 
 
4 VEÍCULOS AÉREOS NÃO TRIPULADOS – VANTs.............................................. 51 
4.1. HISTÓRICO E IMPORTÂNCIA.......................................................................... 51 
4.2. FUNCIONAMENTO DOS VANT....................................................................... 52 
4.3. EXEMPLO DE APLICAÇÃO DO VANT EM INVENTÁRIOS FLORESTAIS................ 54 
5 REFERÊNCIAS BIBLIOGRÁFICAS...................................................................... 57 
1. 
 
É proibida a reprodução, total ou parcial, sob pena da lei, do conteúdo 
sem a prévia autorização do autor da obra. Divulgação autorizada para o 
Curso de Extensão da Universidade Federal do Paraná - Turma 2018. 
 
 
4 
 
CARTOGRAFIA BÁSICA 
 
1.1 FORMA DA TERRA 
 
A forma da terra é um tema que vem sendo pesquisado ao longo dos anos em 
várias partes do mundo. Muitas foram os modelos desenvolvidos para definir qual seria 
a forma da Terra. Pitágoras em 528 A.C. introduziu o conceito de forma esférica para o 
planeta, e a partir daí sucessivas teorias foram desenvolvidas até alcançarmos o conceito 
que é hoje bem aceito no meio científico internacional (IBGE, 1998). 
Segundo o conceito introduzido pelo matemático alemão CARL FRIEDRICH 
GAUSS (1777-1855), a forma do planeta, é o GEÓIDE (Figura 1) que corresponde à 
superfície do nível médio do mar homogêneo (ausência de correntezas, ventos, variação 
de densidade da água, entre outros) supostamente prolongado por sob continentes. 
Essa superfície se deve, principalmente, às forças de atração (gravidade) e força 
centrífuga (rotação da Terra) (IBGE, 1998). 
Os diferentes materiais que compõem a superfície terrestre possuem diferentes 
densidades, fazendo com que a força gravitacional atue com maior ou menor 
intensidade em locais diferentes. As águas do oceano procuram uma situação de 
equilíbrio, ajustando-se às forças que atuam sobre elas, inclusive no seu suposto 
prolongamento. A interação (compensação gravitacional) de forças buscando equilíbrio, 
faz com que o geóide tenha o mesmo potencial gravimétrico em todos os pontos de sua 
superfície (IBGE, 1998). 
É preciso buscar um modelo mais simples para representar o nosso planeta. Para 
contornar o problema que acabamos de abordar lançou-se mão de uma Figura 
geométrica chamada ELIPSE que ao girar em torno do seu eixo menor forma um volume, 
o ELIPSÓIDE DE REVOLUÇÃO, achatado no pólos (Figura 1). Assim, o elipsóide é a 
superfície de referência utilizada nos cálculos que fornecem subsídios para a elaboração 
de uma representação cartográfica. 
O elipsóide pode ser definido como a superfície de referência, geometricamente 
regular para onde são transferidos os dados do geóide. O elipsóide de revolução, uma 
figura matemática que se aproxima bastante da forma do geóide, é a superfície mais 
utilizada pela ciência geodésica para a realização dos levantamentos CARVALHO e 
ARAÚJO (2008). 
 
 
5 
 
 
Figura 1 – Comparação da superfície real, geóide e elipsóide. 
Fonte: CARVALHO e ARAÚJO (2008) 
O elipsóide, que é superfície teórica definida com fins científicos e seria 
resultante do movimento de rotação da Terra em torno do seu eixo menor, sendo 
semelhante a uma elipse cuja linha corresponde ao nível médio dos mares e segue 
imaginariamente através do relevo terrestre. Dessa forma, tudo que estiver acima dessa 
linha deve ser considerado como não existente, ficando o planeta completamente liso, 
tendo apenas dois eixos: um maior (semi-eixo maior), chamado “equatorial”, e um 
menor (semi-eixo menor), chamado “polar” (CARVALHO e ARAÚJO, 2008). 
 
 
Figura 2 – Comparação do elipsóide e seus semieixos maior e menor. 
 
 
 
 
6 
 
1.2 COORDENADAS 
 
1.2.1 Sistema de coordenadas geográficas 
 
É o sistema de coordenadas mais antigo. Nele, cada ponto da superfície terrestre 
é localizado na interseção de um meridiano com um paralelo. Num modelo esférico os 
meridianos são círculos máximos cujos planos contêm o eixo de rotação ou eixo dos 
pólos. Já num modelo elipsoidal os meridianos são elipses definidas pelas interseções, 
com o elipsóide, dos planos que contêm o eixo de rotação (CAMARA et al., 1996). 
Meridiano de origem (também conhecido como inicial ou fundamental) é aquele 
que passa pelo antigo observatório britânico de Greenwich, escolhido 
convencionalmentecomo a origem (0º) das longitudes sobre a superfície terrestre e 
como base para a contagem dos fusos horários. A leste de Greenwich os meridianos são 
medidos por valores crescentes até + 180º. A oeste, suas medidas decrescem até o limite 
de -180º (CAMARA et al., 1996). 
Tanto no modelo esférico como no modelo elipsoidal os paralelos são círculos 
cujo plano é perpendicular ao eixo dos pólos. O Equador é o paralelo que divide a Terra 
em dois hemisférios (Norte e Sul) e é considerado como o paralelo de origem (0º). 
Partindo do equador em direção aos pólos tem-se vários planos paralelos ao equador, 
cujos tamanhos vão diminuindo até que se reduzam a pontos nos pólos Norte (+90º) e 
Sul (-90º) (CAMARA et al., 1996) (Vide Figura 3). 
Longitude de um lugar qualquer da superfície terrestre é a distância angular 
entre o lugar e o meridiano inicial ou de origem, contada sobre um plano paralelo ao 
equador. Latitude é a distância angular entre o lugar e o plano do Equador, contada 
sobre o plano do meridiano que passa no lugar. 
 
 
 
Figura 3 – Representação dos meridianos e paralelos. 
• Latitude: Ângulo com Equador 
90° norte (equador) - 90° sul 
• Longitude: Ângulo com o Meridiano Principal (Greenwich) 
180° leste (Greenwich) - 0° oeste 
 
 
7 
 
1.2.2 Sistema de coordenadas planas 
 
O sistema de coordenadas planas, também conhecido por sistema de 
coordenadas cartesianas, baseia-se na escolha de dois eixos perpendiculares cuja 
interseção é denominada origem, que é estabelecida como base para a localização de 
qualquer ponto do plano (CAMARA et al., 1996). 
Nesse sistema de coordenadas um ponto é representado por dois números reais: 
um correspondente à projeção sobre o eixo x (horizontal) e outro correspondente à 
projeção sobre o eixo y (vertical). Os valores de x e y são referenciados conforme a figura 
mostrada a seguir, que representa como exemplo, as coordenadas de um ponto na 
projeção UTM (CAMARA et al., 1996). 
O sistema de coordenadas planas é naturalmente usado para a representação da 
superfície terrestre num plano, ou seja, confunde-se com aquilo que se chama de 
sistema de coordenadas de projeção. 
Abaixo na Figura 4 está representado o apoio cartesiano para os cálculos das 
coordenadas. 
 
Figura 4 – Representação do sistema de coordenadas planas. 
Fonte: CAMARA et al. (1996). 
 
1.2.2.1 A projeção UTM 
 
A projeção UTM (Universal Transverse Mercator) é definida dividindo-se a Terra 
em 60 fusos de 6º de longitude. Para cada fuso, adota-se como superfície de projeção 
um cilindro transverso com eixo perpendicular ao seu meridiano central, que assume 
ainda o papel de longitude de origem. Apesar da característica “universal” desta 
projeção, enfatiza-se que o elipsóide de referência varia em função da região da 
superfície terrestre (CAMARA et al., 1996). 
O meridiano central de um fuso, o Equador e os meridianos situados a 90º do 
meridiano central são representados por retas, enquanto que os demais meridianos e 
os paralelos são representados por curvas complexas. O meridiano central é 
representado em verdadeira grandeza. A escala aumenta com a distância em relação ao 
meridiano central e torna-se infinita a 90º deste (CAMARA et al., 1996). 
Aplica-se ao meridiano central de cada fuso um fator de redução de escala igual 
a 0,9996, para minimizar as variações de escala dentro do fuso. Como consequências, 
 
8 
 
existem duas linhas aproximadamente retas, uma a leste e outra a oeste, distantes cerca 
de 1º37' do meridiano central, representadas em verdadeira grandeza. 
Há um mapeamento sistemático do Brasil, feito na projeção UTM, nas escalas 
1:250.000, 1:100.000 e 1:50.000, sendo que estas cartas estão disponíveis para no IBGE 
– Instituto Brasileiro de Geografia e Estatística. 
 
1.3 PROJEÇÕES CARTOGRÁFICAS 
 
Todos os mapas são representações aproximadas da superfície terrestre. Isto 
ocorre porque não se pode passar de uma superfície curva para uma superfície plana 
sem que haja deformações. Por isso os mapas preservam certas características ao 
mesmo tempo em que alteram outras. 
A elaboração de um mapa requer um método que estabeleça uma relação entre 
os pontos da superfície da Terra e seus correspondentes no plano de projeção do mapa. 
Para se obter essa correspondência, utilizam-se os sistemas de projeções cartográficas. 
Analisam-se os sistemas de projeções cartográficas pelo tipo de superfície de 
projeção adotada e grau de deformação. Quanto ao tipo de superfície de projeção 
adotada, classificam-se as projeções em: planas ou azimutais, cilíndricas, cônicas e 
poliédricas, segundo se represente a superfície curva da Terra sobre um plano, um 
cilindro, um cone ou um poliedro tangente ou secante à Terra. Seguem algumas 
descrições. 
 
Projeção plana ou azimutal: Constrói-se o mapa utilizando-se uma superfície de 
projeção plana tangente ou secante a um ponto na superfície da Terra (Figura 5). 
 
Projeção cônica: A superfície de projeção usada é um cone que envolve a Terra e que, 
em seguida, é desenvolvido num plano. As projeções cônicas podem ser tangentes ou 
secantes. Pode-se constatar que em todas as projeções cônicas normais (eixo do cone 
coincidente com o eixo de rotação da Terra) os meridianos: são retas que convergem 
para um ponto (que representa o vértice do cone) e todos os paralelos são 
circunferências concêntricas a esse ponto (Figura 6). 
 
Projeção cilíndrica: Usa-se um cilindro tangente ou secante à superfície da Terra como 
superfície de projeção. Em seguida, desenvolve-se o cilindro num plano. Em todas as 
projeções cilíndricas normais (eixo do cilindro coincidente com o eixo de rotação da 
Terra), os meridianos e os paralelos são representados por retas perpendiculares (Figura 
7). 
 
9 
 
 
Figura 5 – Representação da Projeção Plana. 
 
 
 
Figura 6 – Representação da Projeção Cônica. 
 
 
 
Figura 7 – Representação da Projeção Cilíndrica. 
 
1.4 ESCALA 
 
A escala é uma relação matemática entre as dimensões lineares representadas 
(em um mapa, em uma fotografia, em uma imagem, entre outros) e as dimensões 
lineares reais (terreno). Num mapa a escala é a relação entre a medida linear no papel 
ou num meio digital e a correspondente medida no terreno (ANTUNES, 2005). A escala 
numérica indica no denominador o valor que deve ser usado para multiplicar uma 
 
10 
 
medida feita sobre o mapa e transformá-la num valor correspondente sobre a superfície 
terrestre (CAMARA et al., 1996). Desta forma pode-se expressar a relação por: 
 
D:1 E ou 
D
1
 E  
Onde: 
E = Escala do mapa; 
1 = Unidade representada no papel; 
D = Unidade real no terreno. 
 
ANTUNES (2004) cita os seguintes exemplos: 
 
1 mm no papel = 500 mm no terreno = 50 cm no terreno; 
1 cm no papel = 500 cm no terreno = 5 m no terreno; 
1 m no papel = 500 m no terreno = 0,5 km no terreno. 
 
Ou ainda em escalas menores: 
 
1:25.000  1 cm no papel = 250 m no terreno; 
1:100.000  1 cm no papel = 1.000 m ou 1 km no terreno. 
 
 
 
 
 
 
11 
 
2. SENSORIAMENTO REMOTO 
 
Outra possibilidade de alimentação de dados espaciais para o sistema é 
utilizando-se do Sensoriamento Remoto. O sensoriamento remoto pode ser dividido em 
sensores passivos que utilizam como fonte de energia o Sol, a Terra ou alguma fonte 
artificial independente e sensores ativos que utilizam sua própria fonte para iluminar o 
alvo. 
 
2.1 PRINCIPIOS DO SENSORIAMENTO REMOTO 
 
Experiências de Newton constataram que um raio luminoso (luz branca), ao 
atravessar um prisma, desdobrava-se num feixe colorido - um espectro de cores (Figura 
8). Desde então os cientistas foram ampliando os seus estudos a respeito desta temática 
e verificaram que a luz branca era uma síntese de diferentes tipos de luz, uma espécie 
de onda composta, basicamente, de muitas ondas de diferentes intensidades. 
Descobriram ainda que cada cor decomposta no espectro correspondia a uma 
temperatura diferente, e que a luz vermelha incidindo sobre um corpo, aquecia-o mais 
doque a violeta. Além do vermelho visível, existem radiações invisíveis para os olhos, 
que passaram a ser ondas, raios ou ainda radiações infravermelhas. Logo depois, uma 
experiência de Titter revelou outro tipo de radiação: a ultra-violeta. Sempre avançando 
em seus experimentos os cientistas conseguiram provar que a onda de luz era uma onda 
eletromagnética, mostrando que a luz visível é apenas uma das muitas diferentes 
espécies de ondas eletromagnéticas. 
 
 
Figura 8 – Feixe luminoso de luz decompondo-se em outros feixes de cores. 
 
As ondas eletromagnéticas as quais trataremos por radiação eletromagnética 
(REM), podem ser consideradas como assinaturas do Sensoriamento Remoto. A 
radiação eletromagnética se comporta de acordo com os fundamentos de teoria de 
onda e consiste de um campo elétrico (E) que varia em magnitude em uma direção 
perpendicular à direção na qual a radiação está viajando, e um campo magnético (M) 
orientado em ângulo reto com o campo elétrico. Elas não apenas captam as Informações 
pertinentes às principais características das feições terrestres, como também as levam 
até os satélites. A radiação eletromagnética pode ser definida como sendo uma 
propagação de energia, por meio de variação temporal dos campos elétrico e 
Violeta: 0.4 - 0.446 μm 
Azul: 0.446 - 0.500 μm 
 Verde: 0.500 - 0.578 μm 
 Amarelo: 0.578 - 0.592 μm 
Laranja: 0.592 - 0.620 μm 
Vermelho: 0.620 - 0.7 μm 
 
12 
 
magnético. A completa faixa de comprimentos de onda e de frequência da REM é 
chamada de espectro eletromagnético (Figura 9). 
A principal fonte de radiação eletromagnética para os sensores passivos (que 
dependem de outra fonte de energia eletromagnética) é o sol e, portanto, ele faz com 
que o uso de grande parte das técnicas de sensoriamento remoto seja passiveis de 
aplicação. 
 
 
Figura 9 – Espectro eletromagnético com destaque para a região do visível. 
Fonte: RICHARDS (2006) 
 
Assim, para que seja possível de aplicação de alguma técnica de sensoriamento 
remoto é necessário que exista: sensor que tem a capacidade de registrar a informação 
da energia eletromagnética refletida pelo alvo, que exista energia eletromagnética para 
o alvo refletir e o próprio alvo. 
Quando a radiação solar penetra na atmosfera terrestre ela sofre atenuações 
causadas por: reflexão, espalhamento e absorção pelos constituintes atmosféricos, por 
partículas dispersas e nuvens (Figura 10). Os gases presentes na atmosfera apresentam 
capacidade de absorção muito variável em relação ao comprimento de onda da energia 
solar incidente no sistema terra-atmosfera e da energia emitida pela superfície 
terrestre. Esta interação da energia com a atmosfera pode ser comparada com uma 
cortina que age como um filtro e, dependendo de seu tecido, atenua ou até mesmo 
impede a passagem da luz. Neste caso os diferentes tipos de tecidos da cortina poderiam 
ser comparados com os diferentes gases existentes na atmosfera terrestre, os quais 
atenuam a energia eletromagnética diferentemente. Isso faz com que a radiação global 
que chega à superfície terrestre esteja fortemente atenuada. 
 
 
13 
 
 
Figura 10 – Representação esquemática da emissão de energia eletromagnética solar e 
a parte captada pelo sensor remoto. (a) reflexão; (b) absorção; (c) transmissão. 
 
2.2 SISTEMAS DE SENSORES 
 
Existem diferentes possibilidades de classificação dos sensores remotos. 
No primeiro nível de classificação podemos considerá-los como passivos e ativos. 
A diferença entre os dois é explicada em função da fonte de energia eletromagnética. 
Os sensores passivos não possuem fonte própria de radiação, detectando apenas a 
radiação solar refletida, emitida ou transmitida pelos objetos da superfície. Desta forma, 
dependem de uma fonte de energia externa (em geral o Sol) para que possam operar. 
São exemplos destes sensores os satélites de imageamento e as câmaras 
aerofotogramétricas (Vide Figura 11). 
Os sensores ativos são aqueles que produzem sua própria radiação 
eletromagnética, emitindo-a e depois registrando a resposta que retorna após interação 
com o alvo. Em geral eles trabalham em faixas restritas do espectro eletromagnético. 
São exemplos de sensores nessa situação: radar e laser. 
 Ainda, podemos classificá-los de acordo com seu princípio de funcionamento, ou 
seja, entre: não imageadores (não formadores de imagens) e imageadores (formadores 
de imagens). Os sensores não imageadores não geram imagem da superfície sensoriada, 
mas sim, gráficos ou dígitos, que são transferidos para um computador acoplado. São 
essenciais para aquisição de informações precisas sobre o comportamento espectral dos 
objetos (Figura 12). 
Os sensores imageadores formam imagem da superfície observada como 
resultado. Fornecem informações sobre a variação espacial da resposta espectral da 
(a) 
(b) 
(c) 
 
14 
 
superfície observada. São geralmente programados para funcionamento automático 
por longo período e geralmente estão a bordo de aeronaves ou satélites. É exemplo 
deste sistema: satélite de imageamento, aerofotogrametria, entre outros. 
Ainda, podemos classificar os sensores imageadores em: sistema de quadro 
(framing systems) e sistema de varredura (scanning systems). Os sistemas de quadro 
adquirem a imagem da cena em sua totalidade num mesmo instante e, o sistema de 
varredura a imagem da cena é formada pela aquisição sequencial dos elementos de 
resolução, também chamados pixels. 
 
 
 
(a) Sensores ativos (b) Sensores passivos 
Figura 11 – Exemplificação dos sistemas de sensores conforme a fonte de energia. 
 
Figura 12 – Exemplo de radiômetro sendo utilizado. 
 
Em geral os sensores mais utilizados para análises ambientais estão classificados 
como sistemas de varreduras. Assim, neste sistema, existem as faixas de varredura e 
cada faixa é dividida em algumas células ou pixels. Assim, para cada unidade espacial 
são atribuídos valores inteiros (intensidades) correspondentes a energia 
eletromagnética daquele terreno. Após ter sido concluída uma faixa de varredura 
(Figura 13). 
 
15 
 
Dois fatores importantes relacionados ao nível de aquisição dos dados são: 
geometrias de iluminação e de visada. A primeira refere-se ao posicionamento da fonte 
de radiação eletromagnética em relação ao objeto, enquanto que a segunda refere-se 
ao posicionamento do sensor. Os níveis e as geometrias condicionam as medidas, de 
modo que os resultados obtidos são específicos para aquelas situações. 
 
 
Figura 13 – Exemplo do funcionamento do sistema de imageamento por varredura. 
 
2.3 ESTRUTURA DE DADOS DE SENSORIAMENTO REMOTO 
 
O formato de armazenamento de dados oriundos do sensoriamento remoto diz 
respeito ao matricial o raster. Neste formato, tem-se uma matriz de células, às quais 
estão associados valores, que permitem reconhecer os objetos sob forma de imagem 
digital. Cada uma das células, denominada pixel, é endereçável por meio de suas 
coordenadas (linha, coluna). CAMARA et al. (1996) comenta que a participação do 
espaço na estrutura raster é obtida através de uma malha com linhas verticais e 
horizontais espaçadas regularmente, formando celdas. Estas celdas também são 
chamadas de pixels ou quadrículas e geralmente possuem dimensões verticais e 
horizontais iguais, que definem a resolução espacial da malha, ou seja, a área abrangida 
no terreno por cada pixel. 
É possível associar o par de coordenadas da matriz (coluna, linha) a um par de 
coordenadas espaciais, (X,Y) ou (Longitude, Latitude). Cada um dos pixels está associado 
a valores. Estes valores serão sempre números inteiros e limitados, geralmente entre 0 
e 255 (nas imagens de 8 bits). Os valores são utilizados para definir uma cor para 
apresentação na tela ou para impressão. 
Em uma imagem obtida por satélite, cada um dos sensores é capaz de captar a 
intensidade da reflexão de radiação eletromagnética sobre a superfície da Terra em uma 
faixa de varredura 
bandas 
 
16 
 
específica faixa de frequências.Quanto mais alta a reflectância, no caso, mais alto será 
o valor do pixel. 
 Os principais componentes mais importantes de uma estrutura de dados 
matricial são: 
 Resolução Espacial 
 Resolução Temporal 
 Resolução Espectral 
 Resolução Radiométrica 
 
Resolução espacial: é a mínima dimensão linear da menor unidade de um espaço 
geográfico nos quais os dados são registrados. A menor unidade usada é retangular 
sendo que esta unidade pequena é conhecida como grid, celda, quadrícula, célula ou 
pixel. A palavra pixel é derivada do termo em inglês “picture element” (elemento de 
foto). O arranjo espacial dessas celdas é conhecido como matriz, raster ou grade. Desta 
forma, haverá alta resolução quando essas celdas apresentarem dimensões muito 
pequenas. Assim, alta resolução significa quantidade de detalhes, quantidade de celdas, 
grandes matrizes e celdas bem pequenas. 
Um exemplo comum de pixels pequenos pode ser observado em um monitor de 
computador ou na tela de televisão. As imagens nestas telas não são “sólidas”, mas sim 
compostas por milhares de pontos muito pequenos chamados pixels, que vistos à 
distância nos dão a impressão de formarem uma imagem sólida. É importante distinguir 
entre tamanho do pixel e resolução espacial - eles não são intercambiáveis. Por exemplo, 
se um sensor tem uma resolução espacial de 30 metros e a imagem deste sensor for 
exibida com resolução total, cada pixel representa uma área de 30m x 30m no terreno 
(900 m²). Neste caso o tamanho do pixel e a resolução são o mesmo. Porém, é possível 
exibir uma imagem com um tamanho de pixel diferente da resolução espacial. Muitas 
impressões de imagens de satélite do terreno têm o tamanho dos pixels calculados para 
representar áreas maiores, embora a resolução espacial original do sensor que gerou a 
imagem permaneça a mesma. Imagens em que somente os objetos maiores são visíveis 
são ditas de resolução espacial grossa ou baixa. 
De maneira geral pode-se dizer que quanto melhor a resolução espacial, menor 
a área de terreno que pode ser vista pela imagem. A razão entre a distância em uma 
imagem ou mapa, para distância real no terreno é chamada Escala. Se você tivesse um 
mapa com uma Escala de 1:10.000, um objeto de 1cm de tamanho no mapa seria de 
fato um objeto de 10.000cm ou de 100m de tamanho no solo. 
Assim, se a resolução espacial de um sensor for de 1.000 m x 1.000 m então, a 
reflectância dos alvos no interior deste pixel será captada e uma dessas células assumirá 
um valor único de tudo que refletiu neste local. 
 
Resolução temporal: trata-se do período de revisita de um sensor de satélite por uma 
mesma área no terreno. Então, a resolução temporal absoluta de um sistema de 
sensoriamento remoto é igual ao período entre a primeira passagem e a segunda 
passagem do sensor sobre uma área com o mesmo ângulo. Porém, por causa da 
sobreposição entre órbitas adjacentes para a maioria dos satélites e devido ao aumento 
da sobreposição à medida que a latitude cresce, algumas áreas da Terra são imageadas 
 
17 
 
mais frequentemente. Conforme BATISTA e DIAS (2005) a habilidade de se obter 
imagens da mesma área da Terra em períodos diferentes de tempo é um dos mais 
importantes elementos em aplicações de dados de sensoriamento remoto. 
Características espectrais de feições podem mudar com o passar do tempo e estas 
mudanças podem ser detectadas obtendo-se e comparando-se imagens multi-
temporais. Por exemplo, durante a estação de crescimento, a maioria dos vegetais está 
em um estado contínuo de mudança e nossa habilidade para monitorar essas mudanças 
usando sensoriamento remoto é função de quando e da frequência em que nós 
obtemos imagens da área monitorada. 
A resolução temporal é de fundamental importância quando se pretende 
monitorar processos dinâmicos como, por exemplo: a ocorrência de incêndios ou 
queimadas em áreas florestais, desmatamentos, derramamento de óleo no oceano, 
mudanças no desenvolvimento das culturas e o crescimento de uma cidade. 
Da mesma forma em que a resolução espacial das imagens deve ser associada a 
uma escala espacial para uma determinada aplicação, a escolha da resolução temporal 
deve ser coerente com a escala temporal e dinamismo do processo que está sendo 
monitorado. 
 
Resolução espectral: é a habilidade de um sensor definir intervalos de comprimento de 
onda distintos. Quanto melhor a resolução espectral, mais estreita será o intervalo de 
comprimento de onda para um canal, banda ou faixa (Figura 14). 
Os diferentes alvos podem representados de várias cores com base na 
reflectância dos mesmos em cada comprimento de onda distinto da luz visível. Muitos 
sistemas de sensoriamento remoto registram energia ao longo de intervalos separados 
de comprimentos de onda com várias resoluções espectrais distintas. Desta forma, são 
chamados sensores multiespectrais. Atualmente existem sistemas bastante avançados 
em termos multiespectrais são os chamados sensores hiperespectrais, que cobrem 
centenas de bandas espectrais muito estreitas ao longo do visível, infravermelho 
próximo, e porções do infravermelho médio do espectro eletromagnético. A resolução 
espectral alta facilita a discriminação entre alvos diferentes com base nas suas respostas 
espectrais em cada banda (Figuras 14 e 15). 
A resolução espectral dos sensores indica a quantidade de regiões do espectro 
eletromagnético nas quais o sensor é capaz de gerar uma imagem de níveis 
(intensidades) de cinza. Estas imagens denominam-se bandas espectrais. 
Cada uma destas imagens representa a energia registrada pelos detectores do sensor 
numa determinada região do espectro eletromagnético. Assim, quanto maior a 
quantidade de bandas ou imagens geradas, maior será a resolução espectral sensor. 
Cada objeto interage de maneira diferente frente a energia eletromagnética e por este 
fato, é possível separá-los ou gerar padrões de identificação através deste 
comportamento. 
 
 
18 
 
 
 
Figura 14 – Representação dos diferentes 
comprimentos de onda. 
 
Figura 15 – Representação dos diferentes 
comprimentos de onda e as respectivas 
bandas de um sensor. 
 
Não podemos deixar de mencionar também as bandas espectrais (tons de cinza) 
e a combinação das mesmas para formação de uma imagem colorida. A combinação de 
pelo menos 3 bandas preto e branco forma uma imagem colorida, sendo que cada uma 
das bandas deverá estar associada a uma das cores fundamentais (azul, vermelho e 
verde) conforme está apresentado na Figura 16. 
 
 
 
19 
 
Figura 16 – Exemplo de bandas formando uma imagem colorida. 
Resolução radiométrica: O número de bits utilizado para armazenar os números digitais 
define a resolução radiométrica de uma imagem. Esta indica a quantidade máxima de 
níveis de cinza que podem ser utilizados para representar uma imagem. Por exemplo, 
uma imagem é formada por números digitais de 8 bits, o total de níveis de cinza para 
representar a imagem será 256 (28 = 256). Desta forma, a imagem será identificada 
como tendo uma resolução radiométrica de 8 bits, na qual o valor zero é associado à cor 
preta e o valor 255 à cor branca (Figura 17). Os níveis intermediários aparecem em uma 
escala de tons de cinza, do mais escuro (nível 1) ao mais claro (nível 254). 
Outro exemplo que pode ser citado são as imagens de 1 bit, ou seja, existe a 
possibilidade de representação somente como 0 ou 1. Com 2 bits poderemos ter 4 
representações (00, 01, 10, 11). Com 3 bits poderemos ter 8 representações e assim por 
diante. Assim, o número de representações possíveis é de 2n, sendo que n é o número 
de bits utilizado. Os sensores normalmente obtêm imagens em 8 ou 10 bits (equivalente 
a 256 ou 1024 níveis digitais). Em sensores modernos como no caso do satélite IKONOS 
a radiância é representada por 11 bits (2048 níveis de cinza). 
 
 
Figura 17 – Representação dos níveis de cinza em uma imagem de 8 bits. 
 
2.4 PRINCIPAIS SENSORES REMOTOS 
 
Existem hoje diversos sensores disponíveis no mercado para seremaplicados em 
analises ambientais. Abaixo na Tabela 1 estão apresentados vários sensores que já 
estiveram disponíveis e ainda outros que ainda estão disponíveis para serem aplicados 
em análises ambientais, com exceção do satélite sino-brasileiro CBERS e o satélite ALOS 
que serão descritos posteriormente. 
Considerando-se a relação custo/benefício os principais sensores atualmente no 
Brasil são: CBERS 2 e 2B (logo haverão imagens do sensor CBERS 4 que foi lançado em 
Dezembro/2014 e as imagens até 06/2015 não estavam disponíveis), LANDSAT 5 – TM 
(até 2013-2015), LANDSAT 8 (a partir de 2013), SPOT 6, IKONOS II, Quickbird e Alos. 
Abaixo serão descritos estes principais sensores com maior detalhamento. 
 
 
 
 
 
 
20 
 
Tabela 1 – Listagem dos principais sensores já utilizados e ainda utilizados nas análises 
ambientais. 
SATELITE ALTITUDE 
RESOLUCAO 
ESPACIAL 
RESOLUCAO 
TEMPORAL 
ORIGEM 
SITUACAO DE 
IMAGEAMENTO 
LANDSAT 8 705 km MULTI 30m 
PAN 15 m 
16 dias USA – NASA 2013-atual 
LANDSAT 5 705 km 30 m 16 dias USA – NASA 1984-2011 
LANDSAT 7 705 km MULTI 30m 
PAN 15 m 
16 dias USA-NASA 1999-2003 
CBERS 1 778 km 20 m 26 dias Brasil/China 1999-2001 
CBERS 2 778 km 20 m 26 dias Brasil/China 2003-2007 
CBERS 2B 778 km CCD 20 m 26 dias Brasil/China 2007-2010 
*Thaichote 822 km MULTI 15m 1-5 dias Tailandês 2008-atual 
*Deimos 1 663 km MULTI 22 m 2-3 dias Espanha 2009-atual 
ASTER 705 km VNIR 15 m 
SWIR 30 m 
16 dias USA 1999-atual 
**SPOT 6 694 km MULTI 6 m 
PAN 1,5 m 
1-3 dias França 2012-atual 
***Pléiade
s 1A 
694 km MULTI 2 m 
PAN 0,5 m 
1 dia França e Itália 2011-atual 
***Pléiade
s 1B 
694 km MULTI 2 m 
PAN 0,5 m 
1 dia França e Itália 2012-atual 
*WorldVie
w2 
770 km MULTI 2 m 
PAN 0,50 m 
3 dias USA 2009-atual 
*Geoeye 1 684 km MULTI 2 m 
PAN 0,50 m 
3 dias USA 2008-atual 
*RapidEye 630 km MULTI 5 m Diária Alemanha 2008-atual 
*Thaichote 822 km PAN 2 m 1-5 dias Tailandês 2008-atual 
CBERS 2B 778 km HRC 3 m 26 dias Brasil/China 2008-2009 
WorldView
-1 
496 km PAN 0,5-0,59 
m 
1,7 - 4,6 dias USA 2007-atual 
*ALOS 691,65 km MULTI 10 m 
PAN 2,5m 
46 dias Japão 2006-atual 
*Quikbird 
2 
450 km MULTI 2,44 m 
PAN 0,61 m 
1-3,5 dias USA 2001-atual 
*Ikonos II 681 km MULTI 4 m 
PAN 1 m 
1,5-2,9 dias USA 1999-atual 
Fonte: 
*http://www.globalgeo.com.br/ 
**http://www2.astrium-geo.com/files/pmedia/public/r12317_9_spot6-
7_technical_sheet.pdf 
***http://mundogeo.com/webinar/pleiades/Pleiades_O_Novo%20Sensor_de%20Altss
ima%20Resolucao_da_Astrium.pdf 
 
 
 
 
 
 
Média resolução espacial Alta resolução espacial 
 
21 
 
2.4.1 SATÉLITE CBERS, SENSOR CCD 
 
O satélite CBERS é uma cooperação entre Brasil (30%) e China (70%). Foram 
desenvolvidos nessa cooperação os satélites: CBERS 1, CBERS 2 e mais recentemente o 
CBERS 2B. O lançamento do CBERS-2B foi em 2007 e a base de lançamento foi Taiyuan, 
na China, com o mesmo foguete chinês - Longa Marcha 4, que fez o lançamento dos 
CBERS-1 e 2. 
Os satélites CBERS-1, 2 e 2B são equipados com câmeras para observações 
ópticas de todo o globo terrestre, além de um sistema de coleta de dados ambientais. 
São sistemas únicos devido ao uso de câmeras que combinam características especiais 
para resolver a grande variedade de escalas temporais e espaciais típicas de nosso 
ecossistema1. Um exemplo destas imagens está apresentado na Figura 18. Abaixo na 
Tabela 2 estão apresentados alguns parâmetros da câmera CCD do satélite CBERS 2B. 
 
 
Figura 18 – Exemplo de imagem CBERS 2. 
 
Os satélites CBERS-1, 2 e 2B caracterizam-se por estarem em uma órbita síncrona 
com o Sol a uma altitude de 778 km, completando 14 revoluções da Terra por dia. Este 
tipo de órbita é tal que o satélite sempre cruza o Equador às 10:30h da manhã, hora 
local, provendo assim as mesmas condições de iluminação solar para tornar possível a 
comparação de imagens adquiridas em dias diferentes2. 
 
2 e 31 www.cbers.inpe.br 
 
 
 
22 
 
A resolução espacial do sensor CBERS 2B é de 20 metros e sua resolução 
temporal é de 26 dias, ou seja, a cada 26 é o tempo de revisita do sensor em um mesmo 
local do planeta. Ainda, a faixa de imageamento de cada cena (largura) é de 113 km. 
Esse satélite parou de imagear (tendo imagens disponíveis no site do INPE). 
Foi lançado o satélite CBERS 3 que caiu e recentemente foi lançado o CBERS 4 
que em breve deverá ter imagens disponibilizadas. 
 
Tabela 2 - Características do satélite CBERS 2B, sensor CCD. 
Resolução espacial 20 x 20m 
Resolução espectral 
Câmera CCD 
 
 0,51 a 0,73µm (pan) 
1- 0,45 a 0,52 µm (azul) 
2- 0,52 a 0,59 µm (verde) 
3- 0,63 a 0,69 µm (vermelho) 
4- 0,77 a 0,89 µm (infravermelho 
próximo) 
 
Resolução temporal 26 dias com visada vertical 
Largura da faixa de imageamento 113 km 
 
Maiores informações poderão ser adquiridas no site: http://www.cbers.inpe.br/. 
 
2.4.2 SATÉLITES LANDSAT 5 e LANDSAT 8 
 
A série dos satélites Landsat teve início no final da década de 60, com base em 
um projeto desenvolvido pela Agência Espacial Americana dedicado exclusivamente à 
observação dos recursos naturais terrestres. O primeiro satélite da série começou a 
operar em 1972 e a última atualização ocorreu em 1999 com o lançamento do LANDSAT-
7. 
Atualmente o único satélite em operação é o LANDSAT-5, que leva a bordo o 
sensor TM e contribui para o mapeamento temático da superfície terrestre3. O 
LANDSAT-7 iniciou suas atividades em abril de 1999 e encerrou em 2003, utilizando o 
sensor ETM+ (Enhanced Thematic Mapper Plus). Este instrumento foi capaz de ampliar 
as possibilidades de uso dos produtos LANDSAT, porque manteve a alta resolução 
espectral (característica importante desse sistema) e conseguiu ampliar a resolução 
espacial da banda 6 (Infravermelho Termal) para 60 metros além de inserir a banda 
pancromática e permitir a geração de composições coloridas com 15 metros de 
resolução. 
A antena de recepção do Instituto Nacional de Pesquisas Espaciais (INPE) 
localizada em Cuiabá capta desde os anos 70 imagens de todo território nacional, o que 
representa um enorme e único acervo de dados sobre nosso país. Este sistema orbital é 
atualmente um dos mais utilizados na Embrapa Monitoramento por Satélite. 
 
3 http://www.sat.cnpm.embrapa.br/satelite/ 
http://www.cbers.inpe.br/
 
23 
 
 
Figura 19 – Exemplo de imagem Landsat 5 – TM. 
 
Conforme apresentado na Tabela 4, a resolução espacial do sensor TM do 
satélite Landsat 5 é de 30 x 30 m e a resolução temporal, ou seja, o tempo de revisita da 
área é de 16 dias. Ainda, a largura da faixa de imageamento é de 185 km. 
 
Tabela 3 - Características do satélite Landsat 5, sensor TM. 
Resolução espacial 30 x 30m 
Resolução espectral 
Câmera TM 
 
1- 0,45 a 0,52µm 
2- 0,50 a 0,60 µm 
3- 0,63 a 0,69 µm 
4- 0,76 a 0,90 µm 
5- 1,55 a 1,75 µm 
6- 10,4 a 12,5 µm 
7- 2,08 a 2,35 µm 
 
Resolução temporal 16 dias com visada vertical 
Largura da faixa de imageamento 185 km 
 
Em 11 de fevereiro de 2013 foi lançado a Missão de Continuidade dos Dados 
Landsat (LDCM) – chamada de LANDSAT 8, para suprir a falta de dados que existia após 
problemas com o satélite Landsat 5, já que o Landsat 6 perdeu-se após lançamento, e o 
Landsat 7 havia parado de captar imagens em 2003. 
 
24 
 
O LANDSAT 8 apresenta dois sensores: OLI (Operational Land Imager) e TIRS 
(Thermal Infrared Sensor). O sensor OLI que apresenta 9 bandas (8 multiespectrais com 
resolução de 30 metros, e a banda 8 pancromática com 15 metros de resolução) e o 
TIRS, que apresenta duas bandas (ambas com resolução de 100 metros). Dessa forma, o 
Landsat 8 apresenta um número de bandas maior que todos os satélites antecessores, 
as quais estão descritas na Tabela 5. 
 
Tabela 4 - Características do satélite Landsat 8. 
Bandas Comprimento de 
Onda (µm) 
Resolução espacial 
(m) Banda 1 Costeira Ultra-azul 0,43 - 0,45 30 
Banda 2 Azul 0,45 - 0,5130 
Banda 3 Verde 0,53 - 0,59 30 
Banda 4 Vermelho 0,64 - 0,67 30 
Banda 5 Infravermelho Próximo 0,85 - 0,88 30 
Banda 6 Infravermelho Médio 1 1,57 - 1,65 30 
Banda 7 Infravermelho Médio 2 2,11 - 2,29 30 
Banda 8 Pancromática 0,50 - 0,58 30 
Banda 9 Cirrus (nuvens) 1,36 - 1,38 30 
Banda 10 Infravermelho Termal 1 10,60 - 11,19 100* 
Banda 11 Infravermelho Termal 2 11,50 - 12,51 100* 
* Tratada e disponibilizada em pixel de 30 metros. 
FONTE: Adaptado de USGS (2014) 
 
O LANDSAT 8 contém um número total de 11 bandas, enquanto antes, eram 
apenas 8 (Landsat 5 e 7). Também, ele apresenta 4 bandas na região do infravermelho, 
onde antes eram 3. Além disto apresenta a banda 9 (cirrus) que foi projetada para 
monitoramento de nuvens. 
 As imagens do LANDSAT 8 estão disponíveis para download gratuitamente no 
endereço eletrônico do USGS (United States Geological Survey). A resolução 
radiométrica do LANDSAT 8 é de 16 bits, diferente dos outros satélites da série que 
apresentavam 8 bits. Da mesma forma as cenas são recebidas pelo usuário em formato 
GeoTIFF, projeção UTM, Datum WGS 1984, e o período de revisita do sensor na mesma 
área é a cada 16 dias. 
 
Maiores informações poderão ser adquiridas no site: 
http://landsat.gsfc.nasa.gov/ 
 
2.4.3 SATÉLITE SPOT 5 
 
A série SPOT (Satellite pour l'Observation de la Terre), foi iniciada com o satélite 
franco-europeu SPOT 1, em 1986 sob a responsabilidade do Centre National d'Etudes 
Spatiales - CNES da França. Hoje a plataforma do SPOT está em órbita com três satélites 
(2, 4 e 5) o que possibilita acesso a qualquer ponto da Terra em menos de 24 horas e 
atuando em conjunto, revisitas em intervalos de 3 a 5 dias. Os satélites da família SPOT 
operam com sensores ópticos, em bandas do visível, infravermelho próximo e 
infravermelho médio. Com o lançamento do SPOT 5, ocorrido em maio de 2002, a 
 
25 
 
missão inaugurou a possibilidade de aquisição de imagens orbitais tridimensionais 
graças a sua capacidade de visada lateral de até 27º (estereoscopia) e também 
conseguiu melhorar a resolução espacial do canal pancromático para 5 metros4. O SPOT 
5 tem dois instrumentos de alta-resolução geométrica (HRG), adaptados do HRVIR do 
SPOT 4. Oferecem uma resolução espacial de 5 metros em modo pancromático e 10 
metros em modo multiespectral. 
Em comparação com as versões anteriores, o SPOT 5 oferece várias vantagens 
principalmente a possibilidade atingir a resolução de 5 metros (pancromática) fusionada 
com a de 10 metros colorida, produzindo assim, imagens de 5 metros de resolução 
espacial coloridas. Abaixo na Figura 20 está apresentado um exemplo desta 
potencialidade. 
 
 
Figura 20 – Exemplo de imagem SPOT 5 fusionada com 5m. 
 
Ainda, cabe destacar que a resolução temporal, ou seja, a revisita para uma área 
é de 26 dias e a largura da faixa de imageamento é de 60 km conforme apresentado na 
Tabela 5. 
 
 
 
 
4 http://www.sat.cnpm.embrapa.br/satelite/ 
 
26 
 
Tabela 5 - Características do satélite SPOT 5, câmera HRG 
 
 
Maiores informações poderão ser adquiridas no site: http://www.spotimage.fr/ 
 
2.4.4 SATÉLITE IKONOS II 
 
O satélite Ikonos II foi lançado em setembro de 1999, e está operacional desde o 
início de janeiro de 2000. Ele é operado pela Space Imaging que detém os Direitos de 
Comercialização em todo o mundo fora da Índia. Foi o primeiro satélite de alta resolução 
espacial com capacidade de imageamento de 1 metro no modo pancromático e 4 
metros no modo multiespectral. Recentemente deixou de operar tendo apenas imagens 
em acervo. 
Existe ainda a possibilidade de fusão das imagens pancromáticas com as imagens 
multiespectrais para a geração de imagens coloridas com resolução espacial de 1 metro, 
facilitando assim a interpretação visual das áreas avaliadas. 
As imagens IKONOS II são coletadas com resolução radiométrica de 11 bits, ou 
seja, 2048 níveis de cinza o que por sua vez possibilita grande distinção entre objetos 
nas mesmas. Abaixo na Figura 21 está apresentado um exemplo das imagens Ikonos II. 
 
 
Figura 21 – Exemplo de imagem IKONOS II. 
 
27 
 
Na Tabela 6 abaixo estão apresentadas as principais características do sensor 
Ikonos II. Cabe destacar ainda que este sensor coleta imagens sempre que o mesmo for 
programado, ou seja, quando desejamos uma imagem, devemos encomendá-la em 
função das coordenadas dos extremos de área de abrangência que deverá ser imageada. 
Assim, o sensor será programado para a coleta de informações. Esta coleta ficará 
susceptível a disponibilidade de área sem nuvens para que a imagem possa ser 
fornecida. 
 
Tabela 6 – Características do Sensor Ikonos II. 
Resolução espacial 4 x 4m (multiespectral) e 1 x 1m (pan) 
 
Resolução espectral 
 
0,45 a 0,90 µm (PAN) 
1- 0,45 a 0,52µm (azul) 
2- 0,52 a 0,60 µm (verde) 
3- 0,63 a 0,69 µm (vermelho) 
4- 0,76 a 0,90 µm (infravermelho próximo) 
Resolução temporal programável 
Largura da faixa de imageamento 13 x 13 km 
 
Maiores informações poderão ser adquiridas no site: 
http://www.satimagingcorp.com/gallery-ikonos.html 
 
2.4.5 SATÉLITE QUICKBIRD 
 
O primeiro satélite comercial de sensoriamento remoto a produzir imagens com 
resolução espacial abaixo de 1 m é o chamado QuickBird. Este satélite foi lançado em 
outubro de 2001 e gerou suas primeiras imagens no final daquele ano. Recentemente 
deixou de operar tendo apenas imagens em acervo. 
Da mesma forma que o Ikonos, o QuickBird permite inúmeras aplicações, 
principalmente com relação a trabalhos em áreas urbanas, que exigem maior nível de 
detalhe. Por exemplo, mapeamento de ruas, mapeamento do uso e cobertura do solo 
em escalas grandes e aplicações integradas com SIG. As aplicações desses satélites de 
alta resolução são usadas em substituição às fotografias aéreas de média escala. Para 
cadastro de imóveis urbanos eles ainda são limitados em termos de resolução espacial. 
Vide detalhes na Tabela 7. 
 
 
28 
 
 
Figura 22 – Exemplo de imagem QUICKBIRD. 
 
Tabela 7 – Características do Sensor Quickbird. 
Resolução espacial 
2,4 x 2,8m (multiespectral) e 0,61 x 0,72m 
(pan) 
Resolução espectral 
 
 0,45 a 0,90 µm (PAN) 
1- 0,45 a 0,52µm (azul) 
2- 0,52 a 0,60 µm (verde) 
3- 0,63 a 0,69 µm (vermelho) 
Resolução temporal programável 
Largura da faixa de imageamento 16,5 x 16,5 km 
 
Maiores informações poderão ser adquiridas no site: 
http://www.digitalglobe.com/ 
 
2.4.6 SATÉLITE ALOS 
 
O satélite japonês ALOS (Advanced Land Observing Satellite) foi lançado pela 
Agência Espacial Japonesa (JAXA) no dia 24 de janeiro de 2006, com a missão de 
observar e obter imagens de todo o planeta, para fins de monitoramento de desastres 
ambientais, levantamento de recursos naturais e, em especial, de suporte à cartografia5. 
 
 
5 www.ibge.gov.br/alos/ 
 
29 
 
 
Figura 23 – Exemplo de imagem ALOS. 
Fonte: Engesat 
 
O Satélite ALOS carrega a bordo 3 sensores: 
 
 AVNIR-2 - Advanced Visible and Near-Infrared Radiometer – Type 2 
 PRISM - Panchromatic Remote-sensing Instrument for Stereo Mapping 
 PALSAR – Phased Array L-band Synthetic Aperture Radar 
 
O AVNIR-2 é um sensor óptico com 4 bandas espectrais (visível e infravermelho 
próximo) com resolução espacial de 10m, projetado para observação de regiões 
terrestres e costeiras. Suas imagens são úteis para o mapeamento do uso e cobertura 
do solo para fins de monitoramento ambiental regional. Este sensor é capaz de variar a 
inclinação da visada lateralmente, tornando possível imagear rapidamente situações de 
desastres naturais6. 
O sensor PRISM opera na faixa da luz visível, com uma (1) banda pancromática e 
resolução espacial de 2,5 m. Trata-se de um conjunto de 3 sistemas de imageamento 
que permite obter simultaneamente cenas com visadas: nadir, inclinada para frente e 
inclinada para trás, o que torna possível a aquisição de imagens estereoscópicas ao 
longo da trajetória.Esta configuração de imageamento é chamada Triplet6. 
O PALSAR é um radar imageador de abertura sintética que opera na banda L, 
com resolução espacial que varia de 10 a 100 metros. Possui um modo polarimétrico 
que é capaz de gerar imagens com polarizações HH, HV, VV e VH. Sendo um sensor de 
radar, o PALSAR é capaz de gerar imagens mesmo sobre regiões cobertas por nuvens e 
à noite. O radar do ALOS também possui um modo de observação ScanSAR, que adquire 
imagens com uma larga faixa de observação (250-350 km), que é especialmente útil para 
imageamento de grandes áreas de florestas6. 
 
30 
 
Tabela 8 – Características do Sensor Alos. 
Resolução espacial 10 x 10m (multiespectral) e 2,5 x 2,5m (pan) 
Resolução espectral 
PRISM (PAN) 
AVNIR-2 (multiespectral) 
 
 0,52 a 0,77 µm (PAN) 
1- 0,42 a 0,50µm 
2- 0,52 a 0,60 µm 
3- 0,61 a 0,69 µm 
4- 0,76 a 0,89 µm 
Resolução temporal 45 dias 
Largura da faixa de imageamento 
35 x 35 km (pan) e 70 x 70 km 
(multiespectral) 
 
2.4.7 SATÉLITE WORLDVIEW - 3 
 
O WorldView-3 é o mais recente satélite da constelação DigitalGlobe, líder 
mundial em imagens de alta resolução. É o primeiro satélite capaz de adquirir imagens 
de alta resolução com capacidade super-espectral, levando a bordo um sensor SWIR 
(SWIR - Short-wave Infra Red ou Infravermelho em ondas curtas) e um sensor CAVIS 
(Clouds, Aerosols, Vapors, Ice, and Snow ou Nuvens, Aerossóis, Vapor de água, Gelo e 
Neve). Começou a disponibilizar imagens em fevereiro de 2015, com 30 centímetros de 
resolução espacial. Possui 8 bandas multiespectrais. Possui a capacidade de coleta de 
imagens estereoscópicas, o que possibilita a obtenção de Modelos de Elevação com 
altíssima acurácia. 
Possui o sensor SWIR, também com 8 bandas, capazes de penetrar em névoa, 
fumaça, poluição e poeira. Isto possibilita a identificação de alvos altamente 
desfavorecidos por interferência atmosférica. Possui também 12 bandas CAVIS que 
corrigem inconsistências causadas por interferência de nuvens, vapor de água, dentre 
outras. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
31 
 
Tabela 9 – Características do Sensor Alos. 
Resolução espacial 
Pancromático: 0,31m 
Multiespectral: 1,24m 
SWIR: 3,70m 
CAVIS: 30m 
Resolução espectral 
PRISM (PAN) 
AVNIR-2 (multiespectral) 
 
Pancromático: 450-800 nm 
 
Multiespectral (8 bandas): 
Costal: 400-450 nm 
Azul: 450-510 nm 
Verde: 510-580 nm 
Amarelo: 585-625 nm 
Vermelho: 630-690 nm 
Borda Vermelho: 705-745 nm 
Near-IR1: 770-895 nm 
Near-IR2: 860-1040 nm 
 
SWIR (8 Bandas): 
SWIR-1: 1195-1225 nm 
SWIR-2: 1550-1590 nm 
SWIR-3: 1640-1680 nm 
SWIR-4: 1710-1750 nm 
SWIR-5: 2145-2185 nm 
SWIR-6: 2185-2225 nm 
SWIR-7: 2235-2285 nm 
SWIR-8: 2295-2365 nm 
 
CAVIS (12 Bandas): 
Desert Clouds: 405-420 nm 
Aerosol-1: 459-509 nm 
Verde: 525-585 nm 
Aerosol-2: 635-685 nm 
Water-1: 845-885 nm 
Water-2: 897-927 nm 
Water-3: 930-965 nm 
NDVI-SWIR: 1220-1252 nm 
Cirrus: 1365-1405 nm 
Snow: 1620-1680 nm 
Aerosol-1: 2105-2245 nm 
Aerosol-2: 2105-2245 nm 
Largura da faixa 13,1km no nadir 
 
 
Figura 24 – Exemplo de imagem WorldView - 3. 
Fonte: DigitalGlobe 
 
32 
 
2.5 PRINCIPAIS PROCEDIMENTOS PARA USO DAS IMAGENS DE SATÉLITE 
 
2.5.1 VISUALIZAÇÃO DAS IMAGENS EM COMPOSIÇÃO COLORIDA 
 
Utilizando software adequado, converte-se o número digital (ND) encontrado 
em cada pixel em cor ou em nível de cinza a partir de tabelas de conversão. Está técnica 
de realce, que é provavelmente a mais comum pela sua utilidade e facilidade de 
implementação, consiste em combinar três imagens diferentes cujos NDs foram 
coloridos por cores primárias para produzir uma composição colorida. Por produzir uma 
integração dos dados em diferentes bandas espectrais, uma combinação colorida 
aumenta a quantidade de informações que pode ser visualizada e interpretada, já que 
o sistema visual humano pode ver uma gama muito maior de matrizes de cor do que 
apenas níveis de cinza. Para representar uma única faixa espectral usa-se um canal com 
uma das três cores primárias (vermelho (R), verde (G) e azul (B)) ou com a variação de 
preto até branco. Se a imagem a ser convertida tiver resolução radiométrica de 8 bits, 
teremos ND variando de 0 a 255 conforme já apresentado acima. 
Para entender a representação dos tons de cada cor ou da soma de cor, devemos 
recordar as leis da colorimetria, associando a cada cor primária, o valor máximo do 
número digital: 
 
(R) (G) (B) 
255 0 0 = vermelho puro 
0 255 0 = verde puro 
0 0 255 = azul puro 
 
(R) (G) (B) 
0 255 255 = cian (verde + azul) 
255 0 255 = magenta (vermelho + azul) 
255 255 0 = amarelo (vermelho + verde) 
 
(R) (G) (B) 
0 0 0 = preto 
255 255 255 = branco 
 
 
2.5.2 FUSÃO DE BANDAS 
 
As técnicas de fusão de bandas de imagens de satélite de diferentes resoluções 
espaciais visam obter uma imagem melhorada, com melhor definição dos detalhes 
espaciais, o que possibilita melhor interpretação visual e análise automática ou 
semiautomática. Ainda poderíamos dizer que a fusão de bandas visa combinar a 
resolução espacial mais refinada da banda pancromática (melhor resolução espacial) 
com a informação espectral das bandas multiespectrais conforme Figura 25. 
Conforme SCHNEIDER et al. (2003) existem diferentes métodos de fusão 
propostos para efetuar a fusão de imagens de sensores de média resolução espacial 
 
33 
 
como o Landsat TM e SPOT. O lançamento do satélite IKONOS tornou possível a 
obtenção de imagens de alta resolução espacial (1 metro no modo pancromático) que 
contém informação espacial para várias aplicações de mapeamento e análise de áreas 
urbanas. Entretanto, a imagem multiespectral, que proporciona informação espectral 
importante para aplicações temáticas, é obtida com resolução espacial de 4 metros. 
Os principais métodos propostos para tal finalidade são: Substituição, 
Transformação HSV, Transformação IHS, Substituição da Componente Principal e 
Filtragem Passa-Alta. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Bandas Multiespectrais Bandas Pancromáticas 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Bandas Multiespectrais Híbridas 
Figura 25 – Representação do processo geral de fusão de bandas. 
 
Imagens de satélite de alta resolução são adquiridas de dois diferentes modos: 
no modo pancromático (PAN) com resolução espacial de 1 metro (IKONOS) ou de 0,7 
metro (Quickbird), ou no modo multiespectral (MS) com resolução espacial de 4 metros 
+ 
Processo de Fusão 
 
34 
 
(IKONOS) ou de 2,5 metros (Quickbird). As imagens PAN contêm informação espacial 
adequada para aplicações de mapeamento de média a grande escala e para análise de 
áreas urbanas. Entretanto, a imagem multiespectral dos sensores de alta resolução 
espacial contém bandas que englobam a região visível e a região do infravermelho 
próximo do espectro eletromagnético, contendo informação espectral para aplicações 
temáticas. A tabela 1 apresenta as bandas espectrais de sensores de alta resolução, bem 
como as bandas espectrais do sensor ETM do Landsat 7 e do satélite SPOT 5 (SCHNEIDER 
et al., 2003). 
 
2.5.3 CORREÇÃO GEOMÉTRICA 
 
Um tipo de distorção que as imagens originais dos sensores apresentam são as 
chamadas distorções geométricas, que diminuem a precisão da informação. Uma série 
de aplicações destes sensores faz com que seja necessária a correção dos mesmos. 
Algumas das distorções geométricas são causadas pelos deslocamentos sofridos 
pelo sistema de eixos do sensor que proporcionam um não alinhamento das varreduras 
consecutivas. Outras distorções são provocadas pela variação da altitude do satélite, 
com distorção na escala, e pela variação da velocidade da plataforma, com consequente 
superposição negativa ou positiva das varreduras consecutivas. Ainda, quando a 
superfície do terreno varrida pelo espelho não é normal à órbita do satélite, pode 
ocorrer um arrasto no sentido transversal à varredura. 
As imagens produzidas por sensores remotos apresentam uma série de 
distorções espaciais, resultantes dos seguintes fatores:• Rotação da Terra 
• Curvatura da Terra 
• Movimento do espelho de imageamento 
• Variações de altitude, posição e velocidade da plataforma. 
• Distorção de panorama 
• Distorção topográfica 
 
As imagens têm, portanto, erros geométricos sistemáticos e não-sistemáticos. 
Dois tipos de correções são frequentemente usados, a retificação e o registro de 
imagens. O processo de retificação de imagem faz a transformação da imagem 
planimetricamente. A geometria de uma imagem tem um sistema de coordenadas 
digital x, y (linhas e colunas) que não é planimétrico. Para tornar a imagem planimétrica, 
se transforma coordenadas do sistema digital para o sistema referencial que é sempre 
no centro da imagem fixando assim a origem do sistema referencial, a partir daí se usa 
uma das transformações geométricas para se transformar as coordenadas no sistema 
desejado, por exemplo, UTM. As transformações geométricas são: translação, 
transformação ortogonal, transformação isogonal, transformação afim, transformação 
projetiva e transformação polinomial. A escolha das transformações se dá pelas 
 
35 
 
características apresentadas pela imagem. A figura a seguir mostra as características de 
cada transformação. 
 Converte-se o sistema de coordenadas x, y da imagem para um sistema de 
coordenadas padrão nos mapas, por exemplo, o sistema de coordenadas UTM. Isto 
pode ser feito associando-se pontos de um mapa padrão, aos mesmos pontos da 
imagem a ser retificada. No entanto, isto não remove distorções causadas pela 
topografia e deslocamentos do relevo nas imagens. 
O registro de imagens (mosaico) é o processo que envolve a superposição de 
uma mesma cena que aparece em duas ou mais imagens distintas, de tal modo que os 
pontos correspondentes nestas imagens coincidam espacialmente. O objetivo do 
registro é manipular os dados não diretamente correlacionados, como sobrepor 
imagens obtidas por diferentes sensores, sobrepor imagens de diferentes épocas, ou de 
diferentes tomadas. Os mesmos princípios de processamento de imagens são usados 
para a retificação e o registro de imagens. A diferença é que na imagem retificada a 
referência é um mapa, com uma projeção cartográfica específica, enquanto que no 
registro de imagem a referência é outra imagem. Essas distorções geométricas podem 
ser corrigidas através do uso de determinados modelos matemáticos que descrevam as 
distorções existentes nos dados. Após a aquisição dos coeficientes deste modelo, uma 
função de mapeamento é criada para a construção da nova imagem corrigida. 
O principal instrumento utilizado para correção geométrica é o modelo 
polinomial, onde o ponto de controle é o elemento principal. O ponto de controle pode 
ser definido como sendo uma característica detectável na imagem (objeto identificável, 
alvo específicos), com localização geodésica precisamente conhecida e preferivelmente 
invariável com o tempo. 
O desempenho desses pontos depende do seu número, distribuição e precisão 
de localização. Abaixo na Figura 26 estão representados alguns pontos coletados no 
trabalho de PAULINO et al. (2002) e na Tabela 10 os dados dos pontos coletados. 
 
 
Figura 26 – Representação dos pontos de controle coletados. 
 
36 
 
Tabela 10 - Exemplo de pontos de controle e erros residuais. 
Linha Coluna X Y Erro Residual (Pixel) 
3.369,27 2.521,06 634.115,30 6.777.363,00 0,38396 
1.920,05 3.278,67 590.731,30 6.800.065,00 0,32888 
2.382,41 4.277,87 604.646,70 6.830.059,00 0,92176 
3.195,25 4.127,28 628.936,90 6.825.519,00 1,27358 
3.612,31 4.131,28 641.457,50 6.825.658,00 0,33927 
3.581,81 3.455,69 640.557,30 6.805.392,00 1,09761 
3.786,23 3.214,44 646.650,00 6.798.160,00 0,44913 
3.742,42 2.917,06 645.297,00 6.789.284,00 1,2396 
4.293,42 3.496,19 661.849,00 6.806.622,00 0,09999 
4.362,43 4.453,32 663.958,00 6.835.316,00 0,20935 
Erro Médio Quadrático (RMS) = 0,764154 pixel 
Fonte: PAULINO (2002) 
 
O número é importante na determinação do grau do polinômio do modelo 
matemático. Quanto à distribuição, se os pontos de controle não estiverem bem 
distribuídos na imagem, podem ocorrer faixas sem informações das distorções, 
dificultando a correção. O ideal é que a imagem tenha um grande número de pontos de 
controle bem distribuídos e com coordenadas geodésicas e de imagem precisamente 
conhecidas. 
 
2.5.4 CORRECAO RADIOMÉTRICA 
 
As imagens apresentam em geral degradações radiométricas, em função de 
desajustes na calibração dos detectores, erros esporádicos na transmissão dos dados e 
influências atmosféricas. Esta correção radiométrica de imagens visa corrigir estas 
degradações e é uma das mais importantes fases do processamento digital, pois caso 
estas imperfeições não sejam removidas, poderão ser enfatizadas. A atmosfera é outro 
provocante de degradações nas imagens brutas, muitas vezes comprometendo a análise 
e interpretação das mesmas. A intensidade da influência atmosférica depende do 
comprimento de onda, ou seja, varia de banda para banda, e a sua correção na imagem 
pode ser feita a partir de um modelo matemático. Esses modelos matemáticos são de 
difícil aplicação porque normalmente os parâmetros atmosféricos requeridos no 
modelo geralmente são desconhecidos. Em geral estes parâmetros são referentes à 
hora e data da passagem do sensor para coleta de informações como, por exemplo, o 
angulo da elevação solar. O efeito do ângulo de elevação solar é também muito 
significativo uma vez que em geral varia entre 30 a 60 graus. O seno deste ângulo será 
multiplicado pela radiância 
registrada pelos sistemas sensores a bordo de satélites alterando em muito o número 
digital. 
As principais correções radiométricas são: o "stripping" (padrão sucessivo de 
linhas horizontais que aparecem na imagem, devido, por exemplo, à diferença ou 
desajuste de calibração dos detectores) e o "dropedlines" ou linhas com ausência de 
 
37 
 
informação (padrão horizontal anômalo na imagem que ocorre pela perda de 
informações quando da gravação ou transmissão defeituosa ou ainda no processamento 
posterior dos dados), eliminação de ruídos e restauração e correção atmosférica. Há 
várias formas de degradação ou ruídos radiométricos em uma imagem. Os ruídos podem 
ser classificados como do tipo coerente e aleatório. Ruídos coerentes são aqueles que 
mostram um padrão sistemático, e aleatório são aqueles que não tem nenhum padrão. 
As “faixas ruins" são devido à má qualidade dos valores de níveis de cinza dos 
pixels ou mesmo da perda total de informação ao longo de uma linha (ou coluna) de 
uma determinada banda. Estes problemas são provocados pela saturação de algum 
detector ou problemas na aquisição, registro, transmissão ou processamento de dados 
em terra. Este autor apresenta que uma forma simples de solucionar este problema é 
estimar os valores dos pixels da linha com defeito usando os valores dos pixels das linhas 
anterior e posterior (cima e abaixo). Este método se baseia na hipótese da existência de 
correlação espacial entre os dados. Ou seja, pixels próximos entre si tendem a ter 
valores parecidos ou similares. Ainda, conforme o mesmo, o método mais usado para 
substituir ou recompor os pixels degradados, é através da simples interpolação dos 
valores médios dos pixels correspondentes das linhas anterior e posterior. Pode-se 
também tomar a média local destas linhas, e caso a diferença dessas médiasseja maior 
que um limiar, o ponto ou os pontos ruidosos têm seus valores adicionados dessa 
diferença. 
 
2.5.5 ORTORETIFICAÇÃO 
 
PEDRO et al. (2007) diz que o termo retificação advém dos conhecimentos da 
Fotogrametria, da metodologia de retificação de imagens que segundo ANDRADE 
(1998), é o processo de eliminação dos efeitos de inclinação da plataforma, 
representados pelos ângulos. Segundo HATORI et al. (2000, p.2), a ortoimagem é obtida 
a partir da ortorretificação, que consiste na correção da imagem devido a diversas 
distorções, especialmente as causadas pela posição do satélite, pela superfície física da 
Terra (relevo e curvatura) e pela projeção cartográfica. A ortorretificação pode ser feita 
desde que sejam conhecidas a inclinação, posição e distorção do satélite no instante da 
tomada da imagem, é possível restabelecer o centro de projeção e calcular as 
coordenadas de terreno de pontos desta imagem. 
Nesta mesma imagem, aplica-se uma correção nesta imagem que usa como 
molde um MDT (Modelo Digital do Terreno - malha de coordenadas). A partir deste 
instante, pode ser usada como um mapa e passa a ser chamada ortoimagem. 
Uma ortoimagem é uma imagem que foi retificada diferencialmente para remover 
qualquer distorção de geometria (posição e inclinação) e deslocamentos devido ao 
relevo e curvatura terrestre. A produção de ortoimagens atingiu um alto nível de 
desenvolvimento e as ortoimagens digitais são usadas em muitos países como suporte 
para as tarefas clássicas de um mapa. 
As principais vantagens são: 
 A ortoimagem não está pré-interpretada como um mapa. Isto dá 
oportunidade ao usuário de extrair as informações desejadas a qualquer 
momento. 
 
38 
 
 A qualidade da ortoimagem é a mesma de um mapa com a vantagem da 
riqueza de dados apresentados. 
 Fornece ao usuário uma visão do terreno muito mais compreensível que um 
mapa. 
 
Neste processo, deve necessariamente haver um modelo digital do terreno 
(MDT) sem o qual não seria possível a correção devido ao relevo. O MDT nada mais é 
que uma representação matemática da distribuição espacial da característica de um 
fenômeno vinculada a uma superfície real. A superfície é em geral contínua e o 
fenômeno que representa pode ser variado. Dentre alguns usos do MDT pode-se citar 
(BURROUGH, 1986): 
o Armazenamento de dados de altimetria para mapas topográficos; 
o Análises de corte-aterro para projeto de estradas e barragens; 
o Elaboração de mapas de declividade e exposição para apoio a análise de 
geomorfologia e erodibilidade; 
o Análise de variáveis geofísicas e geoquímicas; 
o Apresentação tridimensional (em combinação com outras variáveis). 
 
O princípio da geração de ortoimagens pode ser obtido através do método de 
retificação diferencial de imagens, que consiste basicamente em atribuir valores de 
cinza da imagem de Sensoriamento Remoto a cada pixel do Modelo Digital do Terreno. 
Sendo assim, as coordenadas tridimensionais (X, Y, Z) de cada pixel do MDT são 
transformadas para o espaço da imagem, utilizando para isso um modelo matemático 
de mapeamento, obtendo-se as coordenadas de (x, y), o valor de cinza é obtido através 
de uma interpolação, por um método de reamostragem de pixels e em seguida 
armazenado nas mesmas coordenadas (X, Y) do MDT gerando a ortoimagem. 
Conforme OSTMAN (1984) citado por PEDRO et al. (2007) define o MDT como a 
representação da superfície topográfica por meio de um conjunto de coordenadas ou 
pontos amostrados da superfície real e algoritmos, capazes de reconstruir a partir destes 
a superfície real. A elaboração do modelo matemático consiste no agrupamento dos 
dados que descrevem a superfície real, em unidades lógicas denominadas de estruturas 
de dados e na determinação de funções de interpolação, de forma que todo o conjunto 
simule de modo idealizado o comportamento da superfície original. São muitas as 
formas de elaboração dos modelos digitais. De forma geral, os pontos são interligados 
formando polígonos e posteriormente poliedros. Os vértices destes poliedros são os 
pontos amostrados. Podem-se obter vários tipos de poliedros onde os mais utilizados 
são a triangulação (TIN – Triangular Irregular Network) e a malha regular. 
 
2.5.6 CLASSIFICAÇÕES DIGITAIS DE IMAGENS 
 
Classificação, em sensoriamento remoto, significa a associação de pontos de 
uma imagem a uma classe ou grupo, por exemplo, água, cultura, área urbana, 
reflorestamento, cerrado entre outros. Ou, ainda, o processo de reconhecimento de 
classes ou grupos cujos membros exibem características comuns. 
 
 
39 
 
Ao se classificar uma imagem, assume-se que objetos/alvos diferentes 
apresentam propriedades espectrais diferentes e que cada ponto pertence a uma única 
classe. Além disso, os pontos representativos de certa classe devem possuir padrões 
próximos de tonalidade e textura. A classificação pode ser dividida em supervisionada e 
não-supervisionada. 
 
Classificação supervisionada - é utilizada quando se tem algum conhecimento sobre as 
classes na imagem, quanto ao seu número e pontos na imagem representativos dessas 
classes. Antes da fase de classificação propriamente dita, o analista obtém as 
características das classes; por exemplo, média e variância de cada classe, que serão 
utilizadas como termos de comparação na classificação, fase essa denominada de 
treinamento. Os principais algoritmos de classificação supervisionada disponíveis são o 
single-cell e o maxver. Ainda, mais recentemente surgiu a classificação orientada ao 
objeto que se baseia em outros fundamentos de classificação. A classificação neste caso 
é geralmente aplicada para imagens de alta resolução espacial e diferem das 
classificações comuns, pois permite associar graus de pertinência entre a os objetos 
classificados e as classes sugeridas pela classificação. No método comum somente existe 
a possibilidade de pertencer ou não pertencer. Abaixo nas Figuras 27 e 28 estão 
apresentados alguns exemplos de classificações supervisionadas. 
 
Classificação não-supervisionada - é utilizada quando não se tem informações sobre a 
área imageada, por exemplo, não se dispõe de dados prévios sobre o número de classes 
presentes. As classes são definidas no algoritmo de classificação. O algoritmo mais 
utilizado neste tipo de classificação é o k-médias. 
Embora tenha-se tentado utilizar essas técnicas de classificação para geração do mapa 
de uso da terra não conseguimos bons resultados, uma vez que somente as áreas com 
presença de reflorestamento eram classificadas com precisão razoável, existindo grande 
confusão entre as demais categorias (pastagem/agricultura, cerrado/cerrado 
degradado, entre outros.). 
 
 
 
 
 
40 
 
 
 
 
 
 
Figura 27 – Exemplo de classificação orientada para detecção de áreas de bracatingais. 
 
 
 
 
 
Figura 28 – Representação (a) do mosaico das imagens de satélite da região; (b) 
classificação final para os plantios florestais. 
 
O principal objetivo da operação de classificação é gerar mapas temáticos além 
de agilizar a análise que, sem estes algoritmos, se faria visualmente. Deste modo, por 
meios refinados ou grosseiros, reúnem-se pixels com aspectos semelhantes em classes 
(Figura 28). Os métodos grosseiros são basicamente a segmentação e o método do 
paralelepípedo que classificam uma faixa espectral de cada vez. Os métodos mais 
refinados usam modelos estatísticos para reunir pixels com aspectos semelhantes. 
Bracatingais Mistos 
Bracatingais Puros 
5 - 10 anos 
10 - 15 anos 
>15 anos 
Legenda: 
 
41 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Figura 29 – Representação esquemática das possibilidades de classificação das imagens. 
 
2.5.7 ACURÁCIA 
 
Dentre os primeiros métodos de obter ou calcular a acurácia destacam-se os 
coeficientes de Concordância Kappa e o de Concordância de Tau que serão 
apresentados abaixo. 
O coeficiente Kappa como um coeficiente de concordância para escala nominais 
que pede a proporção de concordânciadepois que a concordância atribuída a 
casualidade é retirada de consideração. O coeficiente Kappa considera todos os 
elementos da matriz de erros ao invés de apenas aqueles que se situam na diagonal 
principal da mesma, ou seja, estima a soma da coluna e linha marginais. Este coeficiente 
Kappa pode apresentar valores entre -1 e +1. A interpretação do coeficiente é a 
seguinte: K = 1 a classificação é absolutamente correta, ou seja foi observado uma 
concordância de 100%; K = 0 a classificação não apresenta melhoramentos em relação 
à concordância esperada; K < 0 significa, que não ocorre uma discriminação entre as 
classes; K > 0 a concordância observada foi maior do que a concordância esperada. 
Georreferenciamento da Imagem 
Correção Radiométrica 
CLASSIFICAÇÃO 
 
Interpretação Visual 
 
Classificação Automática 
 
Supervisionado 
 
Não Supervisionado 
 
Tradicional 
 
Orientado ao Objeto 
 
Ajustes Necessários nas Classificações 
 
Avaliação do desempenho das Classificações 
 
Avaliação do desempenho das Classificações 
 
 
42 
 
Já o coeficiente de Concordância Tau, utiliza-se da probabilidade a priori, sendo 
que a probabilidade esperada é obtida antes da elaboração da matriz de confusão. Este 
coeficiente considera o método de classificação digital adotado na imagem, 
ponderando, portanto, se a classificação digital foi efetuada com base na mesma 
probabilidade para todas as classes temáticas ou não. 
Para definição das áreas a serem visitadas pode-se elaborar um grid sistemático 
de pontos a serem visitados dentro da área alvo visando checar a veracidade da 
informação gerada (Figura 30). 
 
 
Figura 30 – Exemplo de amostragem para verificação de acurácia. 
Fonte: SIQUEIRA et al. (2008) 
 
2.5.8 ÍNDICES DE VEGETAÇÃO 
 
O sensoriamento remoto vem sendo usado por cientistas desde a década de 
1960 para extrair e modelar os aspectos e parâmetros biofísicos da vegetação. 
Muitos dados são adquiridos através do uso de índices de vegetação que são medidas 
radio métricas adimensionais, as quais indicam a abundância relativa e a atividade de 
vegetação verde, incluindo índice de área foliar (IAF), porcentagem de cobertura verde, 
teor de clorofila, biomassa verde, e radiação fotossinteticamente ativa absorvida 
(RFAA). Idealmente um índice de vegetação deve: 
 
43 
 
 Maximizar a sensibilidade e parâmetros biofísicos das plantas, 
preferencialmente de uma forma linear, para que essa sensibilidade seja 
fidedigna para uma grande amplitude de condições da vegetação e para 
facilitar a validação e a calibração de índices; 
 Normalizar ou modelar efeitos externos tais como ângulo solar, o ângulo de 
visada e as interferências atmosféricas, de modo a permitir comparações 
espaciais e temporais; 
 Normalizar efeitos internos, tais como variações no substrato abaixo do 
dossel, incluindo topografia (declividade e aspecto), solos, e diferenças 
quando a vegetação senescente ou presença de ramos lenhosos 
(componentes não-fotossintéticos); 
 Ser acoplável a algum parâmetro biofísico mensurável, tais como a 
biomassa, o IAF, ou RFAA, para fins de validação e de controle de qualidade. 
 
Existem muitos índices de vegetação, vários funcionalmente equivalentes 
(redundantes) em termos de conteúdos de informação e alguns provêm informações 
biofísicas singulares. Muitos índices fazem uso da relação inversa entre a reflectância no 
vermelho e no infravermelho próximo associada com a vegetação verde sadia. 
 
Os principais Índices de Vegetação comumente aplicados são: 
 
 Razão Simples - RS 
 Índice de Vegetação por Diferença Normalizada - NDVI 
 Índice de Vegetação Realçado - EVI 
 Novo Índice de Vegetação - NVI 
 Índice de Vegetação Ajustado ao Solo - SAVI 
 Tasseled Cap 
 
RAZÃO SIMPLES - RS 
 
COHEN (1991) sugere que o primeiro índice de vegetação verdadeiro foi a Razão 
Simples (SR), que é a razão entre o fluxo radiante refletido no infravermelho próximo (ρ 
nir) e o fluxo radiante refletido no vermelho (ρ red) como é descrito por BIRTH e MCVEY 
(1968): 
red
nir
SR


 
 
O SR fornece valiosas informações sobre a biomassa da vegetação sobre o IAF. 
Ele é especialmente sensível a variações em biomassa ou em IAF para vegetação de 
grande biomassa, tais como florestas. 
 
ÍNDICE DE VEGETAÇÃO POR DIFERENÇA NORMALIZADA – NDVI 
 
O Índice de Vegetação por Diferença Normalizada (NDVI) é um indicador 
numérico simples que podem ser usados para analisar medidas de sensoriamento 
 
44 
 
remoto, geralmente, mas não necessariamente a partir de uma plataforma espacial, e 
avaliar se o alvo a ser observado contém vegetação verde vivo ou não. 
O NDVI é funcionalmente equivalente ao SR, isto é, praticamente não há 
dispersão num gráfico de SR x NDVI. 
O NDVI foi amplamente adotado e aplicado para dados MSS do Landsat usando 
o artifício de adicionar 0,5 ao NDVI para evitar valores negativos e empregando a raiz 
quadrada do resultado para estabilizar a variância. 
 
rednir
rednir
NDVI




 
 
ÍNDICE DE VEGETAÇÃO REALÇADO - EVI 
 
Em inglês este índice é denominado “Enhanced Vegetation Index” por isso da 
sigla “EVI”. O “MODIS Land Discipline Group” desenvolveu o EVI para uso com dados do 
sensor MODIS: 
 
)1(
*2*1*
**
L
LblueCredCnir
rednir
GEVI 





 
 
O EVI é um NDVI modificado, contendo um fator de ajuste para solos (L), e dói 
coeficiente (C1 e C2), que descrevem o uso da banda azul para correção da banda 
vermelha quanto ao espalhamento atmosférico por aerossóis. Esses coeficientes (C1, C2 
e L) são empiricamente determinados, assumindo valores de 6,0; 7,5; e 1,0, 
respectivamente. G é um fator de ganho ajustado em 2,5. Este algoritmo tem melhorado 
a sensibilidade para regiões de alta biomassa, permitindo um melhor desempenho do 
monitoramento da vegetação através da diminuição da influência do sinal proveniente 
do substrato abaixo dossel, e através da redução da influência atmosférica. Os dois 
índices de vegetação MODIS, o NDVI e o EVI, são produzidos nas resoluções de 1 x 1 km 
e 500 x 500 m (ocasionalmente em 250 x 250m) usando composições de imagens 
obtidas em períodos de dezesseis dias. 
 
NOVO ÍNDICE DE VEGETAÇÃO – NVI 
 
Em inglês este índice é denominado “New vegetation Index” (NVI). As bandas no 
infravermelho encontradas nos sensores TM/Landsat, AVHRR/NOAA e LISS posicionam-
se na região de 770 a 860 nm, 760 a 900 nm e 725 a 1100 nm, respectivamente. 
Infelizmente essas regiões infravermelhas incluem bandas de absorção pelo vapor 
d’água. Visando melhorar o monitoramento da biomassa do NDVI, resolveram retirar as 
bandas de absorção do vapor d’água criando assim o Novo Índice de Vegetação (NVI) 
 
673
747777

 
NVI 
 
 
45 
 
Onde: ρ 777, ρ 747 e ρ 673 são as refletâncias centradas em 777, 747 e 643 nm, 
respectivamente, usando dados hiperespectrais com larguras de bandas entre 3 e 10 
nm. 
 
ÍNDICE DE VEGETAÇÃO AJUSTADO AO SOLO – SAVI 
 
Em inglês este índice é denominado “Soil Adjusted Vegetation Index” (SAVI). A 
utilidade do Índice de Vegetação Diferença Normalizada (NDVI) e outros índices para 
avaliação de vegetação terrestre via dados aéreos e de satélites foi demonstrada nas 
últimas três décadas. A análise de series temporais de dados NDVI sazonais tem 
fornecido métodos para estimação da produção primaria liquida para vários tipos de 
biomas, bem como para monitoramento de padrões fonológicos de superfícies 
terrestres vegetadas e para a avaliação de duração dos ciclos biológicos e da velocidade 
de secagem (ou perda de água pelos grãos) após a maturação fisiológica. Infelizmente, 
estudos realizados demonstraram que os produtos NDVI derivados empiricamente 
podem ser instáveis, variando com a cor do solo e com as condições de umidade, e com 
efeitos da função distribuição de reflectância bidirecional (FDRB), com as condições 
atmosféricas e com a presença de material no próprio dossel. 
Desta forma tem sido dada ênfase ao desenvolvimento de índices de vegetação

Continue navegando