Baixe o app para aproveitar ainda mais
Prévia do material em texto
• Aulas práticas Sensoriamento remoto Parte 1 https://www.youtube.com/watch?v=o47YnNRjRQk Parte 2 https://www.youtube.com/watch?v=gpiHw1FlbZs Analise espacial matricial https://www.youtube.com/watch?v=t3mc9cfegmI Classificação de imagens e fotointerpretação https://www.youtube.com/watch?v=grlwP7x1meI • PRINCIPIOS FÍSICOS DO SENSORIAMENTO REMOTO Sensoriamento remoto: é a ciência ou arte de adquirir informações sobre um objeto, área ou fenômeno por meio de análises de dados obtidos por equipamentos que estão fora de contato com esses objetos, áreas ou fenômenos. Trabalha com a informação espacial, com informação onde a localização importa só que os dados são obtidos remotamente sem contato direto. A maior parte dos dados atualmente são obtidos por satélites que captam as informações e as mantem armazenadas para conseguirmos fazer as análises. São geradas imagens, arquivos, rasters onde cada pixel formado por linhas e colunas têm as informações. O sensoriamento remoto visa a obtenção de imagens da superfície terrestre por meio da delecção???? E medição quantitativa das respostas das interações da radiação eletromagnética com os materiais terrestres. O que é armazenado nesses pixels? Informações da radiação eletromagnética. Cada pixel representa algum espaço, área de terreno que armazena um valor de radiação eletromagnética. Isso acontece por conta da energia: como a energia responde em cada alvo presentes no meio terrestre. O sol é uma fonte de energia, e essa energia quando entra em contato com a superfície terrestre pode ser absorvida, espalhada (por causa das partículas que formam a atmosfera) ou refletida. A forma de energia que é a mais analisada pelo sensoriamento remoto é a energia refletida. Com esse valor de energia armazenado, é possível fazer analises que nos permitem chegar ao que é esse alvo energético. Exemplo: a cor é algo que interfere na energia por ser algo que absorve ou reflete. A cor preta absorve mais energia enquanto a branca reflete mais. O sensor do satélite é capaz de avaliar a quantidade que está sendo refletida de energia (quantidade de refletância) e a partir daí é possível avaliar, aplicas índices para descobrir o alvo. Esses dados obtidos por diversas plataformas (sensores, aeronaves –tripulada/avião com uma camêra ou não tripulada/drones e vants → fazem a análise por meio da fotogrametria) podem ser utilizados em diversos contextos: tomada de decisão, elaboração de política pública, etc. Depois, os dados são processados de alguma forma, seja uma forma numérica como a geração de imagens que é o formato mais comum dentro do sensoriamento, são analisados e interpretados (SIG) para a geração de produtos que podem ser mapas, tabelas, outras imagens (modelo de elevação MDE). Outro exemplo: como está a situação de avanço do desmatamento na Amazônia – por meio de satélites que constantemente estão fazendo a coleta de imagens/informações da Amazônia, é possível https://www.youtube.com/watch?v=o47YnNRjRQk https://www.youtube.com/watch?v=gpiHw1FlbZs https://www.youtube.com/watch?v=t3mc9cfegmI https://www.youtube.com/watch?v=grlwP7x1meI pegar duas datas e fazer a comparação de como estava o uso e a cobertura do solo da Amazônia para 2018 e agora para 2021, analisando o que desmatou ou não. Radiação e espectro eletromagnético Energia eletromagnética: é caracterizada pelo comprimento de onda (que é refletido naquele pedaço especifico) e pela frequência, onde essas informações são colocadas nos pixels. A energia que é estudada para fins de solo, vegetação e corpos d’água é a reflexão. No espectro eletromagnético é possível separar as bandas que o formam. A primeira banda é a do visível, onde é possível separar as cores. Um comprimento de 0,4 é na região do roxo, por exemplo. O visível é somente entre 0,4 e 0,7. Aumentando a faixa tem o infravermelho próximo, infravermelho médio, raios gama, etc. Resposta espectral: é o quanto cada alvo absorve e reflete de energia eletromagnética. Ex: a areia absorve mais energia que a água em uma praia. Cada alvo se comporta de uma forma perante a energia que incide sobre ele e também em cada uma das faixas do espectro, tendo uma assinatura espectral padrão. No sensoriamento se utiliza mais de uma faixa. Á água é um alvo com assinatura padrão muito especifica, principalmente se estiver limpa (sem muita erosão, algas). Á agua só reflete no espectro do visível, de 0 até 0.8 no comprimento de onda (RGB). Por exemplo, se pegar uma imagem que armazena informações refletidas no infravermelho próximo, se esse alvo não refletiu nada tem grandes chances de ser água. A vegetação reflete em todas as bandas de forma crescente, reflete bem no verde (banda do visível), no vermelho e ainda mais no infravermelho próximo e no médio. O solo tem uma refletância crescente, refletindo no visível e ainda mais no infravermelho, orém reflete menos que vegetação. A vegetação reflete mais do que a água, porém menos que o solo exposto *se a água for turva ela reflete mais que a água normal porem reflete menos que a vegetação e o solo. Exemplos BANDA AZUL Areia reflete muito: solo exposto. A água é o elemento que menos reflete, ficando escura (cinza). BANDA VERDE A vegetação reflete bem, BANDA INFRAVERMELHO Bom para a identificação de água já que não reflete nada *É possível fazer a composição de bandas: composição RGB –composição colorida ou natural: pega as cores reais de cada elemento. Composição colorida falsa cor: banda do infravermelho não tem cor natural Exemplos: NIR, verde, azul – RGB → a água fica da cor azul por refletir mais essa cor no espectro do visível Azul, NIR, vermelho – RGB → a água fica da cor vermelho, vegetação NIR Vermelho, NIR, verde – RGB → a água fica azul, vegetação verde Características das imagens O tamanho do pixel é dado pelo tamanho da imagem. Um pixel 10x10m representa a cada quadrado uma área de 100 m². São imagens georreferenciadas com o valor de coordenadas (pode ser longitudexlatitude, coordenadas de posição → sistemas de referência). • Resoluções das imagens Nível de detalhamento e informação de cada imagem para definir se as imagens são compatíveis com determinado estudo que está sendo realizado. Cabe ao usuário decidir o melhor tipo de imagem para o estudo. Uma imagem com o tamanho de cada pixel sendo 10x10m é suficiente para realizar uma analise dentro de uma propriedade rural, para separar uma cultura da outra? Não, tem pouca resolução já que entre 100m² é possível que se perca muita informação de cultura, que não seja possível diferenciar as espécies. Resolução espacial: o tamanho de cada lado do pixel que determina o tamanho do menor objeto que pode ser identificado em uma imagem. Para um objeto ser bem representado é necessário que a resolução espacial nominal seja o tamanho de até metade do objeto pois é possível separar os objetos. Satélites e resoluções Landsat – 30m → sem muito detalhamento, é possível separar o que é agua, área urbana e o espaço que não parece ser tão urbanizado. Spot – 10m → tem mais detalhes que o landsat mas ainda apresenta áreas de borrão. Ikonos – 1m → maior aproximação da imagem por ter o menor valor de pixel, acarretando em mais detalhes. É melhor conforme menor o valor do tamanho do pixel. Resolução radiométrica: determina o número de níveis de radiância que o sensor pode descriminar. Quanto maior a resolução maior é a capacidade do detector para discretizar as diferenças de intensidade de radiância. Relacionada a quantos níveis de cinza/cores diferente uma imagem consegue armazenar. Armazena uma quantidade de bits que cada sensor pode armazenar, se uma imagem tem 2 bits ela consegue armazenar 2² níveis de cinza = 4 niveis de cinza separado. A classificação é feita em EXTREMO, MUITO, MÉDIO ou POUCO. De 2 a 8 bits (=armazenam256 niveis de cinza, é o mais utilizado) Resolução espectral: quais bandas do espectro consegue separar. Um satélite que consegue trabalhar com as bandas do visível e do infravermelho é mais efetivo para fazer estudos. Resolução temporal: ligado a quanto tempo o sensor revisita o local identificando uma nova imagem. Pode ter satélites anuais, mensais. Um estudo de queimada pode exigir um satélite que passe diariamente, duas vezes ao dia (de manhã ou de tarde) para entender qual o maior período está ocorrendo um maior número de queimadas. O satleite possui uma orbita heliossincrona que permite que é fixa e ortogonal ao sentido de rotação da terra. → pega o ponto fixo na Terra na mesma hora Sensores É qualquer equipamento que pode transformar alguma forma de energia em um sinal passível de ser convertido em informação sobre o ambiente. Sensores orbitais (satélite), aéreos (drones), terrestre (espectro radiômetro). Landsat composição 432 –RGB: composição natural Índices de vegetação Dá a razão do quanto está sendo refletido no infravermelho próximo dividido por o que está sendo dividido no vermelho. A vegetação é mais refletida no NIR, entendendo o que é vegetação e o que não é. NDVI índice de vegetação normalizado Mais próximo de 1: vegetação ativa Mais próximo de 0: solo exposto ANÁLISE ESPACIAL MATRICIAL Analise espacial: é uma análise feita com dados espaciais relacionando as informações de coordenadas (localização) com outras informações/atributos textuais e/ou numéricos. Utiliza variáveis continuas no espaço → geocampos. Cada ponto que pegar se tem uma informação para a variável. =elevação, declividade, evapotranspiração, temperatura, etc. → varia ponto a ponto A analise dessas variáveis auxilia na tomada decisão de diversos setores como: o tipo do solo, pluviosidade, temperatura, evapotranspiração para ver o desenvolvimento da cultura. Se essas variáveis são continuas como elas podem ser representadas? É impossível fazer o levantamento de cada um dos pontos para saber a informação, o que se faz são interpolações. Interpolação: é quando tem valores conhecidos em alguns locais mas é necessário definir algum outro valor. Exemplo: tem uma área onde precisa representar um relevo x. fez o levantamento de altimetria utilizando as cotas mas não conseguiu levantar de ponto a ponto. Ao fazer uma interpolação com os valores já conhecidos é possível definir esse novo valor, utilizando uma formulação matemática. É possível fazer interpolações por conta da primeira lei utilizada na geografia onde o valor de pontos próximos tende a ser parecido. Montando uma equação ponderando o valor das variáveis conhecidas é possível definir o valor do ponto de difícil acesso, por exemplo. Monta-se assim uma superfície continua. É um valor aproximado mas se utilizar uma amostra bem condizente com a realidade, aplicando um método de interpolação que conduza com aqueles dados utilizados, o resultado são valores de qualidade, uma superfície continua próxima da realidade. → Com boa acurácia, confiável. A qualidade é um pouco pior do que pegar todos os valores de ponto certinhos. A formula é relativa. • É muito feito com altimetria: curvas de nível. Amostragem para interpolação Definir uma boa amostragem com valores bem acurados gera um resultado de superfície de qualidade. Ao pegar pontos eles podem ter uma distribuição regular, agrupada (regiões com mais pontos que outros), aleatória. A melhor distribuição de pontos é a aleatória por ter mais proximidade com a realidade. As melhores opções são então a distribuição aleatória (com um numero considerável de pontos tbm é importante) e a regular (se for o caso, porém é muito dificil). O que não pode acontecer é a distribuição agrupada (clusters), pois existirão regiões sem informações nenhuma o que gera piores resultados por ter menor interferência (peso) nas variáveis da interpolação. Para obter uma boa amostragem é importante fazer uma análise exploratória: tende a fornecer algum indicativo sobre os dados utilizados como amostragem. → Faz a verificação da acurácia de dados, se estão muito errados. Caso estejam isso vai ter interferência na interpolação gerando vários outros valores com o mesmo erro. As ferramentas e etapas são: Exemplos: • Gerar um gráfico plotado os dados para verificar se não há um dado muito fora • Se está levantando informações de temperatura: se a média da temperatura da região x naquele dia é 30° e na hora do levantamento de dados se coloca um dado com o valor de 1°, é visto que houve algum erro grosseiro (possivelmente) • Se está formando muitos clusters, muitas áreas bem unidas, é sinal de que a representação dos dados não está boa • Ver se os dados estão com sentido a partir da estatística, mesmo sentido do exemplo da temperatura • Outlayer: dado muito fora do esperando → gerado a partir de dados muito destoantes das demais, um erro grosseiro. Para fazer a verificação se utiliza o numero 3x do desvio padrão (o triplo). Se estiver acima de 30 ou estiver abaixo de -10: outlayer. Tem que ver se é realmente um erro grosseiro ou se algo aconteceu naquele local para apresentar esse valor. Se for por alguma explicação se utiliza o dado. Quanto a tendência: é um erro sistemático. Por exemplo: levantamento do nível médio do mar utilizando uma trena. Só que a trena ao invés de começar no 0 ela começa no 10 e nunca estou olhando o início, somente o máximo que está sendo obtido como resultado. Se estiver dando 15, 20, na verdade deveria ser 5 ou 10. Então isso pode acarretar uma tendência, se comparar os resultados obtidos com os outros que já tinha, é possível ver que todos estarão errados. Então para fazer uma boa interpolação é importante ver se não há um erro grosseiro, ver se não há nada muito fora (a media, distancia, mínimo e máximo), e se não tem nenhum erro sistemático. Interpolação Pode ser dividida em interpoladores: Determinísticos: são aqueles que se baseiam somente na configuração espacial da amostra, então observar aonde é a posição e o valor, relacionando com outra posição e outro valor, definindo quem é o novo valor. → regra de 3 simples Probabilísticos: consideram a configuração espacial, mas também se baseiam nas medidas de correlação espacial entre as amostras que é caracterizado pela sua distribuição espacial. É aquele interpolador que tem algum peso, baseado por exemplo no inverso da distância: quanto mais próximo o ponto um do outro, quanto menor a distância entre esses pontos, mais peso esse ponto tem que ter naquele outro que está sendo determinado. Correlação espacial: é o quanto uma informação vai interferir na outra. Os interpoladores probabilísticos são mais eficientes e geram mais resultados robustos desde que usado de forma correta. O SIG utiliza os probabilísticos. Avaliação da interpolação Se usa alguns pontos não como amostra, mas como validação. Pode ser pega uma pequena parcela da quantidade de pontos para usar como validação. Depois que roda o interpolador e gera a superfície, se faz a análise em cima desses pontos: qual foi o valor de variável após a interpolação e qual é o valor já conhecido/que foi levantado = noção do quão diferente está. Se for uma discrepância pequena quer dizer que foi uma boa interpolação. Modelos numéricos dos terrenos (MNT) Os fenômenos que são modelados na visão de geocampo podem ser representados como vetor e matriz. A representação do vetor são pontos, linhas e polígonos. → isolinhas representando curvas de nível –local onde o nível de precipitação ou altimetria é o mesmo. Representação por matriz: tem uma grade regular dividida em pixel, que é dividido em vários quadradinhos e em cada quadrado desse armazena o valor da variável (quantos mm que chove ali na areazinha, por exemplo). Juntando todos os pixels tem a representaçãoda variável continua na forma de matriz. Essas matrizes/rasters/imagens são chamados de MNT, onde é adotado também uma legenda mostrando como é essa faixa de valores para cada parte. Representa pluviosidade, temperatura, umidade, evapotranspiração *A terceira variável representada no modelo de precipitação, é a precipitação, representada uma escala de cores. Modelos digitais de elevação (MDE) Utilizados para representar o relevo (cota e altimetria). É mais vantajosa como modelo na parte visual → exagero vertical. Normalmente se utilizam cores marrons para as partes mais planas e baixas do terreno, indo para um verde em áreas mais altas e chegando em quase branco no final. • Modelos específicos para a representação da altimetria MDT (Modelo digital do terreno) → é o mais utilizado: um foca mais na altura, considerando só a cota do chão, desconsiderando tudo o que estiver acima da superfície. Ex: choveu no terreno – como a água vai escoar, direção dos cursos d’água; definição da inclinação do terreno para a plantação de culturas de forma mecanizada. MDS (Modelo digital de superfície) → casos específicos em conjunto: a cota utilizada é a altura máxima de tudo o que tem acima da superfície. Considera telhados, a copa das árvores, etc. se não tem nada vai bater na cota do terreno. Pode-se utilizar o MDT e o MDS em conjunto. Se subtrair o MDT do MDS é possível obter a informação de altura dos prédios (altura do telhado em comparação ao chão), das árvores, gera então a altura dos elementos da superfície. Gerado com o drone e um método de filtragem para chegar em um MDT. Na dúvida se é um MDT ou MDS = chamar de MDE. Aplicações do MDE Projeto de estrada, área plana para construir um galpão por exemplo. Reclassificaria o MDE para ter determinadas classes: ex – classes de terreno (cartas) Volume e quantidade de água que ficaria dentro da lagoa Modelagem e simulação de inundação –explosão de barragem Analises a paritr de um MDE CLASSIFICAÇÃO DE IMAGENS *Resolução espacial: caracteriza o tamanho de cada pixel onde cada valor vai apresentar um detalhamento diferente. Ex: Landsat 30x30m por pixel = 900m² → não dá para vetorizar uma edificação Resolução radiometrica: quantos bits uma imagem armazena → níveis de cinza. Uma imagem de 2 bits não apresenta tantos detalhes Resolução temporal: diz de quanto em quanto tempo um satélite gera uma nova imagem daquele lugar Resolução espectral: quantas bandas e qual o comprimento dessas bandas cada satélite consegue armazenar Classificação de imagens: é o processo de extração de informações em imagens para reconhecer um padrões e objetos homogêneos, sendo utilizados para mapear áreas da superfície terrestre que correspondem aos temas de interesse → mapas de uso e ocupação. Ao pegar uma imagem de satélite se faz uma análise a nível de pixel para definir o que está sendo representado pela assinatura espectral. Ex: corpo hídrico. 1) Define quais classes representar: quero definir o que é vegetação, solo exposto, corpo hídrico e área urbana 2) Gera-se um novo arquivo no formato raster ou vetorial onde se define cada um dos pixels, onde cada uma das classes. É feita com alguma coloração e a legenda ao lado, geração do mapa temático. Classificação digital O computador vai conseguir fazer as análises com algumas limitações como: a base utilizada é a refletância mas não consegue avaliar a textura da imagem para identificar os elementos. → Análise visual humana é mais eficiente adquirindo maior acurácia. Então o classificador leva em conta o padrão espectral e como são as respostas padrões para cada alvo. Utiliza um algoritmo estatístico pois trabalha com as probabilidades → valor x de refletância → calculo de probabilidade para entender a porcentagem que aquele pixel possui de ser vegetação, por exemplo. Exemplo: Se tiver uma imagem de drone de um talhão é possível avaliar se a cultura está no estágio que é esperado, se tem alguma praga (contaminação por fungo, etc → o vegetal contaminado possui a resposta espectral diferente de uma planta sadia). A planta que estiver produzindo mais terá uma resposta espectral diferente daquela em que estiver no estágio anterior à produção. → Geração de mapa de interpretação da cultura; agricultura de precisão Tipos de classificadores Classificadores pixel a pixel: usam somente a informação espectral de cada pixel para definir um padrão e as classes. Classificadores por regiões: utilizam a informação espectral de cada pixel mas também analisam em relação aos vizinhos. Simulam o comportamento de um fotointerprete reconhecendo áreas homogêneas de imagens baseados nas propriedades espectrais e espaciais de imagens (vizinhos) → ao invés de procurar qual é o pixel de vegetação se procura qual a região de vegetação. É o mais robusto obtendo maior detalhamento, a desvantagem é que é mais pesado e demorado → pode valer a pena fazer uma classificação pixel a pixel para identificar as classes da imagem, definindo as classes de interesse e depois rodar com o classificador por região para uma resposta mais precisa *locais de transição oferecem confusão (ex: região onde está terminando o curso d’água e iniciando a mata ciliar) As classificações podem ser feitas de forma: Unidimensional: usando apenas uma banda → é mais rápida, requer um computador menos potente Multiespectral: com várias bandas → mais vantajoso por meio de composição. Não-supervisionada: é automática. O usuário (classificador) não interfere em nada, o programa utiliza algoritmos para fazer o reconhecimento de imagens. É mais prático pois não demanda de alguém para fornecer informações Ex: ISOSEG. Supervisionada: semi-automática. Tem intervenção humana onde o classificador fornece algumas informações (amostras para as classes de interesse) → gera um treinamento informando para o classificador quantas classes são necessárias → exemplo: fornecer amostras de treinamento de pixels de água para o computador reconhecer corpos hídricos. Tem resultados melhores se fornecer boas amostras de treinamento → pode acabar gerando mais classes do que o necessário (em um solo exposto pode ser criada a classe de vegetação rasteira ou pastagem por conta da falta de especificação da amostra) Ex: MAXVER. É vantagem rodar a não-supervisionada por conta da rapidez, gerando então as classes ali presentes, com base nisso define com quais classes será o trabalho e a partir daí gera uma amostra de treinamento e faz uma classificação supervisionada. • Treinamento supervisionado: 1) Definir quais e quantas são as classes de interesse 2) Identificar na imagem uma área representativa de cada classe → geração de amostras. As amostras devem ser homogêneas (pixel que gera dúvida do que representa não deve ser considerado!!). Deve-se adquirir mais de uma área de treinamento: pegar pelo menos 4 regiões bem distribuídas de 10 a 100 pixels. • Classificadores supervisionados: Distância Euclidiana: a partir das amostras de treinamento é gerado um valor médio que cada pixel teria que refletir para ser considerado uma classe. Ex: avalia a distância do pixel para o solo exposto é menor que distancia para ser água. Avalia as distancias do quanto o pixel está refletindo com as distancias definida para cada classe com base na amostragem. Método do paralelepípedo: define paralelepípedos vendo a amostra fornecida –vendo qual é a refletância mínima e máxima para cada uma das bandas. Pega cada pixel e vê dentro de qual paralelepípedo esse pixel se encaixaria. Se estiver fora, não se encaixar em nenhum, o pixel é colocado no mais próximo. → possíveis áreas de confusão: áreas muito próximas – é avaliado qual área tem mais pixel e qual tem menos para decidir onde encaixar o pixel. → caso na confusão continue é possível queo pixel não seja classificado em nenhum paralelepípedo. MAXVER (máxima verossimilhança): as elipses são criadas a partir da probabilidade. Com base na amostra é definida uma curva normal (curva de distribuição) e faz a análise de em qual distribuição o pixel se encaixa. Se for um pixel que gera dúvida ele tenta analisar, se não der certo, o pixel também sai como não classificado. A curva é baseada em nível de refletância. *O MAXVER considera a ponderação das distâncias entre médias dos níveis de cinzas das classes, utilizando parâmetros estatísticos. Cada classe é modelada por uma distribuição de probabilidade normal. A probabilidade de um pixel pertencer a uma classe depende da posição do pixel em relação a distribuição. Uma região onde duas curvas se sobrepõe → um pixel tem probabilidade de pertencer às duas classes. É definido um limiar de aceitação. Ele indica a % de pixels da distribuição de probabilidade de uma classe que será classificada como pertencente a esta classe. Um limite de 99 % → 1% serão ignorados →São ignorados os pixels de menor probabilidade Matriz de classificação ou de confusão O software pega alguns pontos e faz uma comparação com um arquivo de validação (não utiliza as mesmas amostras do treinamento porem pega pixels de mesma classificação). É gerada uma matriz que fornece a quantidade ou a porcentagem de pixel que ficaram certas ou erradas. A linha ou a coluna é utilizada como referência ou como ficou o resultado final da imagem gerada. Avaliação da classificação Erro de omissão: é quando o alvo era para estar na sua classe mas não se encontra nela. Ex: na validação foi colocado que aquele pixel era um pixel de cerrado, mas ele foi jogado como desmatamento. → Omissão de 16.6% da classe de cerrado. Sempre que tem omissão para alguém tem comissão para outro; Erro de comissão: comissão é o que foi colocado a mais. A área de desmatamento está com 16.6% a mais do que deveria ter → informação superestimada → refazer amostra e utilizar um novo classificador. Quando não tem erro de omissão e está tudo certo → exatidão do produtor (100% - % omissão) Quando não está passando, quando não tem excesso → exatidão do usuário (100% - % comissão) *Nessa matriz ao invés de representar por % está o valor real do pixel. Para definir o que é erro de omissão e comissão: IDENTIFICAR A IMAGEM DE REFERENCIA NA MATRIZ E A IMAGEM TEMATICA (ONDE CLASSIFICOU, O QUE FOI GERADO) Índice de exatidão global Valor em porcentagem que diz como ficou no total a classificação. É calculado pelo somatório da diagonal principal (caracteriza os que foram colocados corretamente nas classes) dividido pelo total de pixels que tinha. CALCULADO QUANDO O VALOR É DADO EM PIXEL E NÃO EM PORCENTAGEM 24 = eram pixels que deveriam ser colocados na classe 1 mas estão na 3 = o 1 é erro de omissão. Analisando para o 3 é erro de comissão. 5 = em relação a classe 3 é comissão, deveria estar na 2 Classe com mais erro de omissão: 1 (24 + 6 = 30 pixels) Comissão: 3 (24 + 5 + 1 = 30 pixels) A maior confusão ocorreu entre as classes 1 e 3 Índice Kappa Além de ter um cálculo aplicado possui uma tabela de classificação. A validação deve ser coletada por uma pessoa diferente da que coletou as amostras de treinamento para pegar regiões e valores diferentes. Nunca deve ser feita a validação com a mesma amostra de treinamento.
Compartilhar