Buscar

Digital Image Processing Roger L. Easton, Jr traduzido

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 247 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 247 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 247 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

8.4 transformadas de Fourier DE IMAGENS	201
234	CAPÍTULO 8 operações globais
8.4 transformadas de Fourier DE IMAGENS	235
Fundamentos de Processamento de Imagem Digital
Roger L. Easton, Jr.
22 nov 2010
Conteúdo
Prefácio	ix
Princípios Básicos de Processamento Digital de Imagens	1
Processamento Digital. . . . . . . . . . . . . . . . . . . . . . . . . . . . .	4
Digitalização. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .	4
Revisão de Amostragem	7
	2.0.1	Ideal Amostragem de função 1-D	. . . . . . . . . . . . . . . . .	8
Aliasing - Whittaker-Shannon Teorema de Amostragem. . . . . . . . . . .	11
Amostragem realista - Média pelo detector. . . . . . . . . . . .	12
Revisão de quantização	21
Quantização: conversão A / D	. . . . . . . . . . . . . . . . . . . . .	21
Transferência do tom de Função. . . . . . . . . . . . . . . . . . . . . .	21
Erro de quantização ( “Noise”)	. . . . . . . . . . . . . . . . . . . . . .	25
A relação sinal-ruído . . . . . . . . . . . . . . . . . . . . . . .	28
Example: Variance of a Sinusoid . . . . . . . . . . . . . . . . .	29
Example: Variance of a Square Wave: . . . . . . . . . . . . . .	30
Variance of “Noise” from a Gaussian Distribution . . . . . . .	30
Approximations to SNR . . . . . . . . . . . . . . . . . . . . .	31
SNR of Quantization . . . . . . . . . . . . . . . . . . . . . . .	32
Quantization to Few Bits . . . . . . . . . . . . . . . . . . . . . . . . .	35
Improved Gray Scale (IGS) Quantization . . . . . . . . . . . .	35
Quantizers with Memory — Error Diffusion . . . . . . . . . . .	36
Halftoning . . . . . . . . . . . . . . . . . . . . . . . . . . . . .	38
Image Processing Operations	41
Geometrical Operations	. . . . . . . . . . . . . . . . . . . . . . . . .	42
Common Geometrical Operations . . . . . . . . . . . . . . . .	43
Power Series for Coordinates . . . . . . . . . . . . . . . . . . .	44
Affine Transformation	. . .. . . . . . . . . . . . . . . . . . .	45
Transformação Bilinear - Cálculo pseudoinverse	. . . . .	46
Mínimos Quadrados Solução para Affine Transformation	. . . . . . . . . . .	47
Pixel Transferências	. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .	53
Pixel interpolação. . . . . . . . . . . . . . . . . . . . . . . . . . . .	54
v
vi	CONTEÚDO
operações de ponto	59
Imagem histogramas. . . . . . . . . . . . . . . . . . . . . . . . . . . . .	59
Histogramas de imagens típicas. . . . . . . . . . . . . . . . . .	61
Outros exemplos de histogramas	. . . . . . . . . . . . . . . . .	65
Modificação histograma para Aperfeiçoamento de Imagem. . . . . . . .	66
Lotes Jones	. . . . . . . . . . . . . . . . . . . . . . .. . . . .	67
Histograma acumulado. . . . . . . . . . . . . . . . . . . . . . . . . .	73
Nonlinear Natureza do histograma de equalização. . . . . . . . . .	82
Especificação histograma ou “Matching”. . . . . . . . . . . . .	85
Exemplos de operações de ponto. . . . . . . . . . . . . . . . . . . . . .	86
Aplicação de histogramas de Tone-Transferência de correcção. . . . . . . .	87
Aplicação de histogramas para Segmentação de imagem. . . . . . . . . . .	87
Operações pontuais sobre várias imagens	91
Cor e imagens “espectral”. . . . . . . . . . . . . . . . . . . . . . .	92
Multispectral histogramas para a segmentação. . . . . . . . . . . . . . .	94
Histogramas multidimensionais de imagens coloridas. . . . . . . . .	95
Imagens espectrais. . . . . . . . . . . . . . . . . . . . . . . . . .	96
Análise de Componentes Principais - PCA	. . . . . . . . . . . . .	99
Espaços de cores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .	104
Vermelho, Verde, Azul. . . . . . . . . . . . . . . . . . . . . . . . .	104
Hue, Saturation, Lightness (ou brilho, ou Value):. . . . .	105
Conversão de RGB para HSL. . . . . . . . . . . . . . . . . .	110
Exemplo: Wax “brasão” em um francês poema épico. . . .	113
Imagens Time-seqüência: Vídeo. . . . . . . . . . . . . . . . . . . . . .	115
Transformações de cor-espaço para compressão de vídeo. . . . . . . . . .	116
Segmentação por operações lógicas em várias imagens	. . . . . . .	120
Operações aritméticas em várias imagens. . . . . . . . . . . . . . .	121
Média de múltiplos Frame. . . . . . . . . . . . . . . . . . . .	121
Necessário Número de bits para somas imagem, médias e diferen-
	ças	. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .	125
subtração de imagens	. . . . . . . . . . . . . . . . . . . . . . . .	126
Diferença imagens como Recursos. . . . . . . . . . . . . . . . . .	126
“Máscara” ou “modelo” Multiplicação: Imagem Mattes. . . . .	129
Divisão de imagem	. . . . . . . . . . . . . . . . . . . . . . . . . .	129
Operações locais	133
Operadores janela - Correlação	. .. . . . . . . . . . . . . . . . . .	133
Convolution. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .	135
Circunvoluções - bordas da imagem. . . . . . . . . . . . . . .	139
Circunvoluções - Intensidade Computacional	. . . . . . . . . . . .	140
Suavização Kernels - Filtragem Lowpass. . . . . . . . . . . . .	141
Diferenciação Kernels - Highpass filtros. . . . . . . . . . . . .	143
Effiects de compensação e Differencing em Imagens barulhento. . . . . . . .	150
Aplicação do Laplacian a textura Segmentação. . . . .	151
CONTEÚDO	vii
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .	152
Aplicações de Differencing - nitidez da imagem. . . . . . . . . . . .	152
Acentuação. . . . . . . . . . . . . . . . . . . . . . . . .	152
Outros apontadores de imagem. . . . . . . . . . . . . . . . . . . . .	153
Generalized Laplacian	. . . . . . . . . . . . . . . . . . . . . .	156
Derivados direccionais: Gradiente. . . . . . . . . . . . . . . . . . . .	158
Gradiente Roberts. . . . . . . . . . . . . . . . . . . . . . . . .	160
“Laplacian de Gaussian”. . . . . . . . . . . . . . . . . . . . .	161
Filtros não-lineares	. . . . . . . . . . . . . . . . . . . . . . . . . . . . .	165
Filtro mediano. . . . . . . . . . . . . . . . . . . . . . . . . . .	165
Exemplo de filtro de mediana de distribuição uniforme. . . . . . .	167
Filtro mediana e ruído Gaussian. . . . . . . . . . . . . . . . . . . .	170
Comparação de histogramas depois de Média e filtro mediano. . . . . . .	172
Efeito da Janela “Shape” no filtro mediano. . . . . . . . . .	172
Outros filtros estatísticos (modo, variância, máximo, mínimo) 174
Exemplos de filtros não-linear. . . . . . . . . . . . . . . . . .	175
Filtros não-lineares em imagens com ruído aditivo Gaussian. .	177
Filtros não-lineares no Noise-Free Gray-nível de imagem. . . . . . .	177
Operadores adaptativa. . . . . . . . . . . . . . . . . . . . . . . . . . . .	178
Convolution Revisited - Bandpass filtros. . . . . . . . . . . . . . . .	179
Bandpass Filtros para Imagens. . . . . . . . . . . . . . . . . . .	183
Pattern Matching. . . . . . . . . . . . . . . . . . . . . . . . . . . . .	183
Outros Kernels correspondente. . . . . . . . . . . . . . . . . . . . .	186
Normalização das Contraste de Recursos detectado. . . . . . . .	188
Implementação de Filtragem	. . . . . . . . . . . . . . . . . . . . . . .	189
Não-linear e Shift-Variant Filtering. . . . . . . . . . . . . .	189
Operações de bairro em várias imagens. . . . . . . . . . . . .	190
Processamento de Sequência de Imagens. . . . . . . . . . . . . . . . . . . .	190
Espectrais + Espaciais Operações bairro. . . . . . . . . .	191
“Pseudounsharp Masking”. . . . . . . . . . . . . . . . . . . .	191
Operações globais	195
Relação às Operações Bairro	. . . . . . . . . . . . . . .	195
Transformada Discreta de Fourier (DFT). . . . . . . . . . . . . . . . . . . .	196
Fast Fourier Transform (FFT). . . . . . . . . . . . . . . . . . . . . .	197
Transformadas de Fourier de Imagens	. . . . . . . . . . . . . . . . . . . . . .	200
Restauração imagem via Transformadas de Fourier	. . . . . . . . . . . . . . .	210
Exemplos de filtros inversos em 1-D. . . . . . . . . . . . . . . .	211
Spectrum e resposta ao impulso do filtro inverso. . . . . . .	212
Filtroinversa para borrão SINC-Function. . . . . . . . . . . . .	213
Outras operações globais. . . . . . . . . . . . . . . . . . . . . . . . .	213
Discrete Cosine Transform (DCT). . . . . . . . . . . . . . . . . . . .	214
Passos em Frente DCT. . . . . . . . . . . . . . . . . . . . . .	217
Passos na DCT inversa. . . . . . . . . . . . . . . . . . . . . . .	217
viii	CONTEÚDO
	8,8	Walsh-Hadamard Transform. . . . . . . . . . . . . . . . . . . . . . .	218
Prefácio
Referências
Centro de Processamento de Imagem em Educação: lotes de links para software e imagens http://www.evisual.org/homepage.html
software ImageJ para processamento de imagem e análise em Java, evolução de NIHImage http://rsb.info.nih.gov/ij/
Imagem de 2000 (da NASA) http://www.ccpo.odu.edu/SEES/ozone/oz_i2k_soft.htm
Software Scion Image Processing (para PC e MAC-OS) http://www.scioncorp.com/frames/fr_scion_products.htm
Hypercube Imagem Software Análise (para PC e MAC-OS) http://www.tec.army.mil/Hypercube/
GIMP Image Processing Software (Gnu-IMP) (gratuito para PC, MacOS, Linux) http://www.gimp.org/
Irfanview (visualizador de processamento de imagem livre com alguma capacidade de processamento) http://www.irfanview.com/
Gregory A. Baxes, processamento digital de imagens, Princípios e Aplicações, John Wiley & Sons, New York, 1994.
Ronald N. Bracewell, imagem Two-Dimensional, Prentice Hall, Englewood
Cliffs, 1995.
Ronald N. Bracewell, a transformada de Fourier e suas aplicações (Segunda Edição, revista), McGraw-Hill, 1986.
Ronald N. Bracewell, O Hartley Transform, Oxford University Press, New York, 1986.
RN Bracewell, “A Fourier Transform”, Scientific American, junho de 1989, pp.86-95.
Kenneth R. Castleman, Processamento Digital de Imagens, Prentice Hall, Englewood
Cliffs, 1996.
EOBrigham, The Fast Fourier Transform e suas aplicações, Prentice Hall, Englewood Cliffs, 1988.
Michael P. Ekstrom, (Ed.), Técnicas de processamento digital de imagens, Academic Press, New York, 1984.
BR Frieden, Probabilidade, Estatística Optics, e teste de dados, terceira edição, Springer-Verlag, Berlin, 2002.
Jack D. Gaskill, Sistemas Lineares, Transformadas de Fourier, e óptica, John Wiley & Sons, New York, 1978.
Rafael C. Gonzalez e Richard E. Woods, Processamento de Imagem Digital, Segunda Edição, Prentice Hall, Upper Saddle River de 2002.
Jae S. Lim, Signal Two-Dimensional e Processamento de Imagens, Prentice Hall, Englewood Cliffs, 1990.
Paul J. Nahin, um conto imaginário, Princeton University Press, Princeton NJ de 1998.
ix
X	Prefácio
A. Nussbaum e R. Phillips, Optics contemporâneos para cientistas e engenheiros, Prentice-Hall, 1976.
Wayne Niblack, An Introduction to Digital Image Processing, Prentice Hall, Englewood Cliffs de 1986.
J. Anthony Parker, reconstrução de imagens em Radiologia, CRC Press, Boca Raton FL, 1990.
William K. Pratt, Processamento de Imagem Digital, Segunda Edição, John Wiley & Sons, New York, 1991.
Azriel Rosenfeld e Avinash C. Kak, Digital Picture Processing, Segunda Edição, Academic Press, San Diego de 1982.
Craig Scott, Introdução à Óptica e Optical Imaging, IEEE Press, New York, 1998.
JSWalker, Fast Fourier Transforms 2nd Edition, CRC Press, New York, 1996.
Capítulo 1
Princípios Básicos de Processamento Digital de Imagens
Durante as últimas duas décadas ou mais, computadores digitais baratas e poderosas tornaram-se amplamente disponíveis e têm sido aplicados a uma multiplicidade de tarefas. Ao engatar computadores para novos detectores de imagem e displays, sistemas muito capazes para criar, analisar e manipular imagens foram construídos e estão sendo aplicadas em muitas arenas. Por exemplo, eles agora são utilizados para reconstruir imagens de raios-X e ressonância magnética (MRI) na medicina, para analisar multiespectrais imagens aéreas e de satélite para usos ambientais e militares, para ler Universal Product Codes que especificam produtos e preços em lojas de varejo, a nomear apenas alguns.
Desde I primeiro ensinou um predecessor deste curso em 1987, as capacidades de ferramentas de imagem de baixo custo (câmeras, impressoras, computadores) têm explodiu (nenhuma surpresa para você, tenho certeza). Isso produziu uma ampla e sempre crescente gama de aplicações que não podíamos sequer vislumbrar naqueles dias. Para dar uma idéia da mudança ao longo das últimas duas décadas, considere o conjunto de dados mostrado abaixo, que é copiado diretamente a partir da primeira edição de Processamento Digital de Imagem por Gonzalez e Woods:
Estes dados representam uma imagem de 64 x 64 5 bits (25 = 32 valores de cinzento). Este conjunto de dados foi inserido manualmente (com apenas 4 erros) em 1988 por Ranjit Bhaskar, um estudante de pós-graduação de ciência de imagiologia para uso pelos alunos. A imagem foi processado usando o assim chamado “sobrepor” rotina numa impressora de linha, em que pixels “escuras” foram impressas utilizando vários caracteres de impressão sobreposta e pixels mais leves por caracteres esparsos (por exemplo, e “” “-”). O assunto da imagem é mostrada na próxima página:
Este curso irá investigar os princípios básicos de sistemas de imagem digital e introduzir aplicações úteis; muitos exemplos simples será fornecido para ilustrar os conceitos. Em primeiro lugar, uma definição:
IMAGEM: A reprodução ou imitação de forma de uma pessoa ou coisa.
O homólogo óptica de um objecto produzido por uma lente, de espelho, etc.
.................................. Noah Webster
Nós pensamos normalmente de uma imagem no sentido de uma imagem, isto é, uma representação plana do brilho, ou seja, a quantidade de luz reflectida ou transmitida por um objecto.
1
2CHAPTER1 PRINCÍPIOS BÁSICOS OFDIGITAL PROCESSAMENTO DE IMAGEM
Figura 1.1: Codificado 64 × imagem 64 5 bits (32 valores de cinzento)
Figura 1.2: Dados na foto anterior processado usando impressão “overstrike” com impressora de linha - é assim que costumava fazer isso, pessoal!
3
Uma imagem é geralmente uma função de duas variáveis ​​espaciais, por exemplo, f [x, y], que representa a luminosidade no local f cartesiano [x, y]. Obviamente, que também podem ser representados graficamente em três dimensões, com brilho apresentado no eixo dos z.
Função de duas espacial Coordenadas representação da imagem da f [x, y]	f [N, m]
É cada vez mais comum para lidar com imagens que têm mais de duas dimensões coordenadas, por exemplo,
	f [X, y, TN]
	monocromático “filme”, conjunto discreto de imagens ao longo do tempo
	f [X, y, λ]
	imagem espectral com o domínio de comprimentos de onda contínua
	f [X, y, Xn]
	imagem multi-espectral, conjunto discreto de comprimentos de onda
	f [X, y, t]
	imagem monocromática variável no tempo ao longo do domínio de tempo contínuo
	f [X, y, TN]
	-Tempo variando imagem monocromática com amostras de tempo discretos (cinema)
	f [X, y, z]
	3-D imagem monocromática (por exemplo, holograma óptico)
	f [X, y, TN, λm]
	As amostras discretas no tempo e no comprimento de onda, por exemplo, filme de cor
	f [X, y, z, t, λ]
	realidade
É geralmente fesible para “cortar” 2-D fatias de estas funções multidimensionais para criar imagens, mas as imagens não precisam ser “pictórica”. Por exemplo, considere o 2-D fatias “corte” da função de espaço-3-D temporais função f [x, y, t]; a 2-D fatia f [x, y; t = t0] é ilustrada mas f [x, y = y0, t] não é. Dito isto, as unidades dos eixos não têm efeito sobre os cálculos; é perfeitamente viável para computadores para processar e exibir f [x, y = y0, t] como para fazer o mesmo para f [x, y; t0].
Após a conversão de informação de imagem em uma matriz de números inteiros, a imagem pode ser manipulado, processado, e exibida por computador. processamento do computador é utilizado para a melhoria de imagem, restauração, segmentação, descrição, reconhecimento, codificação, reconstrução, transformação
4CHAPTER1 PRINCÍPIOS BÁSICOS OFDIGITAL PROCESSAMENTO DE IMAGEM
1.1	Processamento digital
O sistema de processamento digital de imagens em geral pode serdividido em três componentes: o dispositivo de entrada (ou digitalizador), o processador digital, e o dispositivo de saída (exibição de imagem).
O digitalizador converte um tom contínuo e espacialmente contínua brightnessdistribution f [x, y] para uma matriz discreta (a imagem digital) fq [n, m], onde n, m, e FQ são números inteiros.
O processador digital opera sobre o fq de imagem digital [n, m] para gerar um novo GQ de imagem digital [k,], em que k, e gq são números inteiros. A imagem de saída pode ser representado num sistema de coordenadas diferentes, portanto, a utilização de diferentes índices k e.
O visor de imagens converte o gq imagem de saída digital [k], de volta para uma continuoustone e espacialmente contínua imagem g [x, y] para visualização. Deve notar-se que alguns sistemas pode não necessitar de visualização (por exemplo, em aplicações de visão de máquina e de inteligência artificial); a saída pode ser um pedaço de informações. Por exemplo, um sistema de imagem digital que foi projetado para responder à pergunta: Existe evidência de um tumor canceroso nesta imagem de raios-x ?, idealmente teria duas saídas possíveis (sim ou não), ou seja, um único bit de informação .
Note-se que o sistema inclui a maioria dos links no que chamamos a cadeia de imagem.
Vamos primeiro considerar a descrição matemática de dispositivos de digitalização de imagem e de exibição, e siga que por uma longa discussão de operações de processamento úteis.
1,2	digitalização
A digitalização é a conversão de um tom contínuo e distribuição de brilho espacialmente contínua f [x, y] para uma matriz discreta de FQ inteiros [N, M] por duas operações que serão discutidas, por sua vez:
1,2 DIGITALIZAÇÃO	5
AMOSTRAGEM - uma função de coordenadas contínuos f [x, y] é avaliada sobre uma matriz discreta de amostras indexados por [n, m]. Você provavelmente já viu alguma discussão sobre amostragem no curso de matemática linear e Fourier.
QUANTIZAÇÃO - variando continuamente o brilho f em cada amostra é convertido para um de um conjunto de números inteiros FQ por algum processo thresholding não linear.
A imagem digital é uma matriz de elementos de imagem, ou pixels, se seus antepassados ​​são computadores. descendentes de vídeo (e estudantes de ciência de imagem), muitas vezes falar de pels (Pelz, muitas vezes com erros ortográficos). Cada elemento de matriz é um número inteiro que codifica o brilho naquele pixel. O valor inteiro é chamado o valor de cinza ou contagem digital do pixel.
Computadores armazenam inteiros como dígitos binários, ou bits (0,1)
2 bits pode representar: 004 = 0., 014 = 1, 104 = 2., 114 = 3.; um total de 22 = 4 números.
(Em que o símbolo “4” indica o análogo de binário para o ponto decimal “” e, portanto, pode ser chamado de “ponto binário”, que separa os bits ordenados com poderes positivos e negativos de 2).
m bits pode representar 2m números
= ⇒ 8 bits = 1 byte = ⇒ 256 números decimais, [0255]
= ⇒ 12 bits = 4096 números decimais, [0,4095]
= ⇒ 16 bits = 216 = 65536 números decimais, [0,65535]
imagens digitalizadas conter números finitos de dados “bits” e provavelmente é evidente que o processo de quantização descarta algum do conteúdo da imagem, ou seja, a imagem quantized difere da imagem não quantificado, então erros foram criados. Além disso, podemos considerar o “valor” de “informação” na imagem quantized, que é definida como o número de bits necessários para armazenar a imagem. O número de bits de “informação” é geralmente menor do que o número de bits de “dados” (que é meramente o produto do número de pixels da imagem e o número de bits por pixel). O assunto do conteúdo da informação é muito importante na imagem e será considerado na seção de compressão de imagem. Vamos discutir erros de digitalização e reconstrução depois de descrever o processo de exibição de imagem.
Capítulo 2
Revisão de Amostragem
O processo de “amostragem” deriva um conjunto discreto de pontos de dados em (geralmente) um espaçamento uniforme. Na sua forma mais simples, a amostragem é expressa matematicamente como a multiplicação da imagem original por uma função que “medidas” o brilho da imagem em localizações discretas de largura / área / volume infinitesimal nos casos 1-D / 2-D / 3-D:
fs[N · Ax] = [X] f [· s x; N · Ax] onde:
f [X] = distribuição do brilho da imagem de entrada de
s[X; N · Ax] = função de amostragem
fs[N · Ax] = imagem de entrada amostrado definido nas coordenadas n · Ax
A função de amostragem ideal para funções de variáveis ​​contínuas é gerado a partir da assim chamada “função delta de Dirac” δ [X], a qual é definida por muitos autores, incluindo Gaskill. A função de amostragem ideal é a soma das uniformemente espaçados funções delta de Dirac “discretos”, que chama o Gaskill PENTE enquanto Bracewell chama de Shah:
7
A função PENTE definido por Gaskill (chamado a função Shah por Bracewell).
Para o (um pouco menos rigoroso) propósito que temos aqui, podemos considerar a função de amostragem para apenas “agarrar” o valor da função de entrada contínua f [x, y] nos locais específicos, separados por intervalos uniformes Ax e Ay , em que Ax = Ay:
fs[N, m] = f [n · Ax, Ay m ·]
Em outras palavras, estamos varrendo alguns detalhes matemáticos sem importância e, possivelmente, confusas debaixo do tapete.
2.0.1	Ideal Amostragem de função 1-D
Multiplicação da entrada f [x] por uma função meramente PENTE Avalia f [x] na grelha uniforme de pontos localizados em n ·? X, em que n é um número inteiro. Porque mede o valor da entrada em um ponto infinitesmal, esta é uma idealização matemática que não podem ser implementadas na prática. Mesmo assim, a discussão de amostragem ideal introduz utilmente alguns conceitos essenciais.
Considere amostragem ideal de uma função de entrada sinusoidal com X0 período espacial que é idealmente amostrado em intervalos separados por Ax:
A amplitude da função na amostra indexados por n é:
O parâmetro adimensionalna segunda expressão é a relação entre o intervalo de amostragem para o período espacial (comprimento de onda) da sinusóide e é uma medida da fidelidade da imagem amostrados. A título de ilustração, exemplos de funções incluídas na amostra obtida por vários valores de estamos:
Caso I: Caso II: Caso III: Caso IV:
Caso V:
Ilustração de amostras dos sinusóides enviesados ​​com os diferentes valores de listados na tabela. Os últimos três casos ilustram “aliasing”.
A saída avaliada por depende da fase da sinusóide; Se a amostragem por extremos, em seguida, o sinal amostrado tem a mesma gama dinâmica como f [x] (ou seja, ele é totalmente modulado), não mostram nenhuma modulação, ou qualquer valor intermédio. O intervalodefine o limite de amostragem de Nyquist. E seamostra por período, em seguida, o mesmo conjunto de amostras poderiam ter sido obt5ained de uma sinusóide com um período mais longo e um intervalo de amostragem diferente Ax. Por exemplo, se, Em seguida, a função reconstruída aparece como se obtido a partir de um sinudoid com período se amostrado com . Em outras palavras, o conjunto de dados de amostras é ambígua; as mesmas amostras
2.1 ALIASING - WHITTAKER-SHANNON Teorema de Amostragem
Pode ser obtido a partir de mais do que uma entrada, e, portanto, não consegue distinguir entre as entradas possíveis com base apenas no conhecimento das amostras.
2.1	Aliasing - Whittaker-Shannon Teorema de Amostragem
Como demonstrado apenas, os valores das amostras obtidos a partir de uma sinusóide que foi amostrado menos do que duas vezes por período serão idênticos aos obtidos a partir de uma sinusóide com um período mais longo. Esta ambiguidade sobre a qual função original produzida o conjunto de amostras é chamado o aliasing em amostragem, mas efeitos similares mostram-se sempre que as funções periódicas são multiplicados ou adicionado. Em outras disciplinas, estes vão por nomes diferentes, tais como batidas, franjas moiré e heterodyning. Para ilustrar, considere o produto de duas funções sinusoidais com os diferentesperíodos X1and X2 (e, assim, as frequências espaciais), O qual pode ser escrito como a soma de duas sinusóides com diferentes frequências espaciais:
(Note que o inverso também é verdadeiro, a soma de duas sinusóides com a mesma amplitude e a diferentes frequências pode ser escrita como o produto de duas sinusóides). O segundo termo da expressão para o produto oscila lentamente e é o análogo do sinal de serrilhado.
Embora a prova está além do nosso alcance matemática, neste momento, podemos afirmar que um sinal sinusoidal que foi amostrado sem aliasing pode ser reconstruído sem erro do (conjunto infinito de) suas amostras ideais. Isso será demonstrado na secção sobre a imagem é exibida. Também sem prova, fazemos a seguinte afirmação:
Qualquer função 1-D ou 2-D pode ser expresso como uma soma única de componentes sinusoidais 1-D ou 2-D
com (em geral) amplitudes diferentes, as frequências e as fases.
Este é o princípio da análise de Fourier, que determina o conjunto de componentes sinusoidais da função. O conjunto de amplitudes e fases dos componentes sinusoidais expressas como uma função da frequência são as componentes de Fourier a função.
Se a representação sinusoidal de f [x] tem um componente com um ξmax máxima frequência espacial, e se provar f [X] de modo que este componente é amostrado sem serrilhado, em seguida, todos os componentes sinusoidais de f [x] irá ser adequadamente recolhidos e f [X] pode ser perfeitamente reconstruído a partir da suas amostras. Tal função é limitado em banda e ξmax é a frequência de corte de f [x]. O período mínimo espacial correspondente é. Assim, o intervalo de amostragem Ax podem ser encontrados a partir de:
Este é o teorema da amostragem Whittaker-Shannon. O valor limite do intervalo de amostragemdefine o limite de amostragem de Nyquist. Amostragem mais ou menos frequentemente do que o limite de Nyquist é sobreamostragem ou subamostragem, respectivamente.
 undersampling oversampling
O Whittaker-Shannon Teorema de Amostragem é válida para todos os tipos de sinais amostrados. Um exemplo cada vez mais familiar é a gravação digital de sinais de áudio (por exemplo, para discos compactos ou fita de áudio digital). O intervalo de amostragem é determinado pela frequência máxima audível do ouvido humano, que é geralmente aceite como sendo de aproximadamente 20 kHz. A frequência de amostragem de gravadores digitais de áudio é de 44.000
amostras
segundo o que se traduz para um intervalo de amostragem ofs. A esta taxa de amostragem, os sons com períodos maiores do que 2 · 22.7μs = 45.4μs (ou frequências inferiores a (45.4μs) -1 = 22 kHz) podem, teoricamente, ser reconstruído perfeitamente, assumindo que f [T] é amostrado perfeitamente (ou seja, em um ponto). Note-se que, se a frequência do sinal de entrada for maior do que a frequência de Nyquist de 22 kHz, o sinal vai ser serrilhado e aparece como um sinal de baixa frequência na faixa audível. Assim, o sinal reconstruído será errado. Isto é evitado garantindo que não há sinais com frequências acima do limite de Nyquist é deixada atingir o dispositivo de amostragem; frequências mais altas são filtradas antes da amostragem.
2.2	Amostragem realista - Média pelo Detector
Na verdade, não é possível “agarrar” o amplited de um sinal em locais específicos com “width” infinitesimal ( “suporte” infinitesimal). A medição de um sinal finito sobre o infinitamente pequeno espaço no mundo real iria produzir um resultado infinitesimal. Em vez de um verdadeiro sistema executa “amostragem realista”, onde a entrada contínua é medida ao longo de zonas finitas localizados em amostras uniformemente espaçados utilizando um detector
12	CAPÍTULO 2 REVISÃO DA AMOSTRAGEM
11
com tamanho finito espacial (ou temporal). O sinal medido é um integrante espacial do sinal de entrada ao longo da área de detector, a qual dilui a imagem. Por exemplo, no caso comum onde assumirmos que cada elemento sensor tem a mesma resposta sobre a sua área completa, pode-se calcular o valor da amostra através da integração do sinal sobre o tamanho do detector. Na figura, os elementos sensores estão separados por Ax e cada d0 tem largura:
Para um sinal sinusoidal enviesada da forma:
definimos sua modulação como:
Note-se que a modulação é apenas definida por sinusóides não negativos (isto é, inclinados). A quantidade de análogo de uma onda quadrada não negativo é chamado de contraste.
O sinal sinusoidal tendenciosa é calculada a média sobre a área do detector, por exemplo, o valor amostrado com n = 0 é a seguinte:
Onde: 
Para f [X] como definido acima, o conjunto de amostras é derivado através da integração f [x] sobre a área de largura d centrada nas coordenadas que são múltiplos inteiros de Ax:
Ao definir
e aplicando as identidades trigonométricas:
sin [α ± β] = sinαcosβ ± cosαsinβ
= ⇒ sin [α + β] - sin [α - β] = 2cosαsinβ,
encontramos uma expressão para o integral sobre a área do detector:
O último termo multiplicativo pode ser simplificada através da aplicação da definição da função especial
que varia com X0 período e largura detector d0.
; note que o valor na origem é a unidade, o que pode ser demonstrado através de regra de l'Hôpital.
Note-se que para as funções de constantes, o período X0 = ∞ e o valor resultante da função SINC é:
o que significa que a média ponderada uniforme tem nenhum efeito sobre qualquer função de entrada constante. As amostras de co-seno de X0 período obtido com intervalo de amostragem Ax nos dois casos são os seguintes:
Realista:
Ideal:
onde d0 é a largura do detector. A amplitude do caso realista é multiplicado por um fator de, Que é menos do que a unidade em todos os lugares, exceto na origem, isto é, onde d0 = 0 ou X0 = ∞. À medida que o tamanho aumenta detector em relação ao período espacial do cosseno (isto é, quanto aumenta), então e a modulação da sinusóide diminui.
	A modulação da imagem de uma onda senoidal de período	, Ou frequência espacial
, É reduzida por um factor.
Exemplo de Modulação reduzido devido ao Pré-filtragem
A função de entrada [x] f tem um período de 128 unidades com dois períodos representados graficamente. É a soma de seis componentes senoidais além de uma constante:
 .
Os períodos de sinusóides de componentes são os seguintes:
	128	1 ciclos	ciclos
	X1 =	= unidades ⇒ ξ1 = '0,0078
	1	128 unidade	unidade
	128	3 ciclos	ciclos
	X2 = 'unidades 42.7 unidades = ⇒ ξ2 =	'0,023
	3	128 unidade	unidade
	128	5 ciclos	ciclos
	X3 = unidades = 25,6 unidades = ⇒ ξ3 =	'0.039
	5	128 unidade	unidade
	128	7 ciclos	ciclos
	X4 = 'unidades 18.3 unidades = ⇒ ξ4 =	'0.055
	7	128 unidade	unidade
	128	9 ciclos	ciclos
	X5 = 'unidades 14.2 unidades = ⇒ ξ4 =	'0.070
	9	128 unidade	unidade
	128	11 ciclos	ciclos
	X6 = 'unidades 11.7 unidades = ⇒ ξ4 =	'0.086
	11	128 unidade	unidade
A polarização constante de 0,5 garante que a função é positivo. O primeiro componente sinusoidal (X01 = 128 unidades) é o fundamental e transporta a maior parte da modulação de imagem; os outros componentes (os harmónicos mais elevados) tem menor amplitude. A frequência espacial de cada componente é muito menos do que o limite de Nyquist de 0,5.
Ilustração da redução na modulação devido a “pré-filtragem”: (a) função de entrada f [n]; (B) Resultado de pré-filtragem com averagers uniformes de largurae
; (C) vista ampliada de (b), que mostra a alteração no sinal; (D) resultado
offiltering com averagers uniformes de largurae	, mostrando
a “inversão de contraste” no último caso.
Note-se que a modulação de componentes sinusoidais com períodos mais curtos (frequências mais elevadas) são diminuídos mais severamente pela média. Um conjunto de imagens prefiltered para várias larguras de média diferentes é mostrado na página seguinte. Se o detector de largura é de 32 unidades, as modulações resultantes são os seguintes:
Note-se que os componentes com períodos X04 e X05 tem negativo modulação,, ou seja, fmax <fmin. O contraste dos componentes é invertido. Como mostrado, a imagem amostradosparece com um dente de serra com um período de 128 unidades.
Se o tamanho do detector é de 128, cada componente é feita a média durante um número inteiro de períodos e o resultado é simplesmente o viés constante; a modulação da saída é igual a zero:
Para uma largura de detector de 170 unidades, as modulações são:
Uma vez que o primeiro (maior amplitude) componente sinusoidal tem modulação negativa, de modo que a imagem resultante. O contraste da imagem global é invertida; áreas mais escuras da entrada se tornar mais brilhante na imagem.
2.2 AMOSTRAGEM REALISTA - MÉDIA pelo detector 13
14	CAPÍTULO 2 REVISÃO DA AMOSTRAGEM
2.2 AMOSTRAGEM REALISTA - MÉDIA pelo detector 13
Capítulo 3
Revisão de quantização
3.1	Quantização: conversão A / D
O processo de quantização converte a irradiância continuamente valorizado ( “luminosidade” ou “brilho”) medido a uma amostra (ou um sinal dele derivado, tal como a voltagem medida a partir desse sinal) para um de um conjunto discreto de níveis de cinza (por vezes chamado digitais contagem embora sua sigla de “DC” pode ser confundida com a de “corrente contínua”). Por exemplo, o sinal medido para a amostra localizado no [x0, y0] pode ser f [x0, y0] = 1,234567890 ··· mmW2. Este número é convertido para um valor inteiro, talvez fq = 42. A gama de números inteiros permitido é determinado por vários factores no quantificador. Por exemplo, pode ter no máximo 0 ≤ fq ≤ (FQ), onde o valor máximo (FQ) max é determinado pelo número de bits no quantificador:
3.1.1	Função de Transferência de tom
1. Quantificação é significativamente afectada por parâmetros do detector, incluindo a sua gama dinâmica e linearidade. A gama dinâmica de um detector de imagem pode ser definida como a amplitude de brilho (irradiância) sobre a qual uma mudança no sinal de entrada produz uma alteração detectável na saída medidos do sensor. Note-se que as grandezas de entrada e de saída não precisam ser idênticos; por exemplo, em fotografia emulsão à moda antiga, a entrada pode ser medida como força por unidade de área (por exemplo, mmW2) e a saída resultante na densidade óptica D adimensional onde 0 ≤ D ≤∞. O efeito do detector sobre a medição pode ser descrito por uma característica de transferência ou a função de transferência de tom (TTF, também chamado de transferência de tom curva TTC), que é meramente um gráfico do valor de saída como uma função das várias entradas de o sensor. A forma da característica de transferência pode ser utilizado como uma figura de mérito para o processo de medição. Um detector é linear, se a TTC é uma linha recta, isto é, se uma mudança incremental na entrada a partir de qualquer nível produz uma alteração incremental fixa na saída. Claro, todos os detectores reais têm uma gama dinâmica limitada, ou seja, eles não vão responder a todos a intensidade da luz abaixo algum valor mínimo e sua
21
resposta não vai mudar para intensidades acima alguns máxima. Todos os detectores realistas são, portanto, não-linear, mas pode haver algumas regiões sobre as quais eles são mais ou menos linear, com regiões não-lineares em cada extremidade. Um tal exemplo é comum película fotográfica; o TTC é a Hurter-Driffield (H & D) curva, que é um gráfico da densidade óptica gravada da emulsão em função do logaritmo da irradiância de entrada (que pode ser medido em mmW2). Outro exemplo muito importante em imagem digital, é a câmara de vídeo, cujo TTC mapas de entrada de luz de intensidade de tensão de saída. A característica de transferência de uma câmera de vídeo é de aproximadamente uma lei de potência:
Vout= C1Binγ + V0
em que V0 é a tensão de limiar para uma entrada e escuro γ (gama) é o expoente da lei de potência. O valor de γ depende do detector específico, mas os valores típicos são γ '1,7 para uma câmara vidicon e γ' um para um orthicon imagem. O valor de gama para um sensor digital (CCD) é inerentemente muito próximo da unidade, mas são muitas vezes modificados em software para aproximar emulsões fotográficas.
função de transferência de tom possível de quantificador aplicado a emulsão fotográfica, que mostra o “dedo” no lado esquerdo, “região linear” no centro, e “ombro” no
certo.
O tamanho b0 resolução, ou passo, do quantificador é a diferença no sinal medido no centro de níveis de cinza adjacentes. Faz pouco sentido para quantizar o sinal amostrado com um b0 resolução que é menor do que a incerteza sinal devido ao ruído no sistema detector. Assim, o número efectivo de níveis é muitas vezes menor do que o máximo disponível, como determinado pelo número de bits.
A conversão de uma faixa contínua de níveis discretos requer uma operação de limiar (por exemplo, truncagem ou arredondamento). Alguns gama de luminosidade de entrada vai mapear a um único nível de saída, por exemplo, todos os níveis de irradiância medidos entre 0,76 e 0.77mmW2 pode
3.1 QUANTIZAÇÃO: conversão A / D
mapa de cinza nível 59. conversão Limiar é uma operação não-linear, ou seja, o limiar de uma soma de duas entradas não é necessariamente a soma das produções de limiar definido. O conceito de operadores lineares será amplamente discutido mais tarde, mas devemos dizer neste momento que a não-linearidade devido à quantização torna inadequada para analisar o sistema completo Digital Imaging (digitalizador, processador e display) por métodos lineares comuns. Este problema é normalmente ignorado, como é apropriado para um grande número de níveis quantificados que estão espaçados de modo a que a imagem digitalizada aparece contínua. Uma vez que a resolução de brilho do olho-cérebro é limitado, quantificando a apenas 50 níveis é satisfatória para muitas imagens; em outras palavras, 6bits de dados é muitas vezes suficiente para as imagens sejam visualizadas por seres humanos.
Quantificação é realizada por algum tipo de comparador digital, que é um dispositivo electrónico inerentemente não-linear que aceita uma entrada analógica e produz uma saída de dois valores possíveis que dependem do facto da entrada analógica é menor ou maior do que algum do sinal de referência; se menor, a saída é um valor que pode ser normalizada para “0” e se) ou se for maior, a saída é um “1”. Por exemplo, se a referência do comparador é definido em 0.5V e se a entrada é finput = 0,3 V, então a saída é Q {0.3V} = 0. Se a tensão de entrada é duplicada finput = 0,6V, em seguida, a saída é Q {0.6V} = 1. Note que este comportamento claramente não satisfaz a exigência de um operador linear L, onde a saída é dobrada se a entrada é dobrada:
se L {f} = g, então L {2f} = 2 g para um operador linear L
A expressão mais geral para um operador linear é ::
Se L {} fn = gn, então para um operador linear L
onde {αn} é um conjunto de pesos numéricos (geralmente de valor complexo).
O quantizador mais simples converte uma tensão de entrada analógica para uma saída digital 1-bit e pode ser construído a partir de um amplificador diferencial ideal, onde a tensão de saída Vout é proporcional à diferença do sinal Vin de entrada e alguns Vref referência que é fornecido por um calibrado fonte:
Va = α (Vin - Vref)
Se o factor de ponderação α é suficientemente grande para aproximar ∞, então a tensão de saída será + ∞ se Vin> Vref e -∞ se Vin <Vref. Neste exemplo simples, que seria atribuir o valor digital “0” para a saída negativa, onde Vin <Vref e “1” para uma saída positiva tal que Vin> Vref. Um quantificador com melhor resolução podem ser construídos através da cascata vários desses comparadores digitais com diferentes (mas geralmente com espaçamento uniforme) tensões de referência. Um tradutor digitais converte o conjunto de sinais de comparação com o código binário. O comparador de 1-bit e um conversor analógico-todigital 2 bits (ADC) são mostrados na figura:
O comparador e 2-Bit analógico-em-digital (ADC). O comparador pode ser interpretada como um amplificador com ganho de “infinito”, de modo que sua saída é uma tensão “alto” se Vin> Vref	e um “baixo” de outro modo a tensão. O esquema do ADC é composto por 4 comparadores,cujas voltagens de referência são determinados pelo divisor de tensão com o resistor de escada.
No esquema mais comum de quantização uniforme, o tamanho do passo b é fixado no valor:
onde Fmax e fmin são os extremos dos irradiâncias medidos das amostras de imagem e o símbolo m representa o número de bits do quantificador.
Se as amostras mais escuras e brilhantes de uma imagem de tonalidade contínua mediram irradiâncias fmin e fmax respectivamente, e a imagem é para ser quantizado utilizando m bits (graylevels 2m), então pode-se definir um conjunto de níveis uniformemente espaçados fqthat abrangem a gama dinâmica através da:
onde Q {} representa o truncamento não linear ou operação de arredondamento, por exemplo, Q {3,657} = 3, se Q é truncagem ou 4, se Q é arredondamento. A forma de Q determina a localização dos níveis de decisão, onde o quantizer salta de um nível para o outro. Os níveis de irradiância de imagem são reconstituídas através da atribuição de todos os pixels com um determinado nível de FQ cinzento para o mesmo valor da irradiância E [x, y], que pode ser definido por “inversão” a relação de quantização. O nível de reconstrução é muitas vezes colocado entre os níveis de decisão, acrescentando um fator
Geralmente (claro), E [x, y] = 6 E [x, y] devido à quantificação, isto é, haverá um erro de quantificação. O objetivo de melhor quantização é ajustar a quantização
24	CAPÍTULO 3 REVISÃO DE QUANTIZAÇÃO
25
esquema para reconstruir o conjunto de irradiância de imagem que mais se aproxima o conjunto de valores originais. O critério que define a qualidade do ajuste e as estatísticas das irradiâncias originais irá determinar os parâmetros do quantificador, por exemplo, o conjunto de limiares entre os níveis.
O quantif icador apenas descrito é sem memória, ou seja, o nel de quantificao para um pixel é calculado de forma independente que para qualquer outro pixel. O esquemática de um quantizador sem memória é mostrado abaixo. Como será discutido, um quantizador com a memória pode ter vantagens significativas.
Efeito de diferentes profundidades de bits (números de valores de cinzento) sobre a aparência da imagem a partir de 8 bits (256) para baixo para níveis de 1 bit (2 níveis). Não é a “contorno” aparente para 2 e 3 bits (4 e 8 níveis).
3.2	Erro de quantização ( “Noise”)
A diferença entre o verdadeiro irradiância de entrada (ou brilho) e a irradiância correspondente correspondente ao nível digital calculado é o erro de quantificação naquele pixel:
[N · Ax, Ay m ·] ≡ f [n · Ax, Ay m ·] - fq [N · Ax, Ay · m].
Note-se que o erro de quantificação é bipolar, em geral, ou seja, pode assumir valores positivos ou negativos. Em geral, é útil descrever as propriedades estatísticas do erro de quantificação, o que será uma função de ambos o tipo de quantizador e a imagem de entrada. No entanto, se a diferença entre os passos de quantização (isto é, a largura de um nel de quantificao) é b, é constante, o erro de quantificação para a maioria das imagens pode ser aproximada como uma distribuição uniforme com valor médio de h [n] i = 0 e variância
. A distribuição de erro será demonstrado por dois 1-D 256-amostra
imagens. O primeiro é uma secção de um co-seno amostrado a 256 pontos e quantificado a 64 níveis separados por b = 1:
Estatísticas de ruído de quantização: (a) onde 0 ≤ n ≤ 255 (um quarto de um ciclo); (B) depois de quantização por arredondamento para o inteiro mais próximo; (C)
erro de quantificação ε [n] = f [n] - fq [n], que mostra que ; (D) histograma de 256 amostras de erro de quantificação, o que mostra que o erro é aproximadamente uniformemente distribuídas.
A média computada do erro de uma [n] = f1 [n] - {Q f1 [n]} é um h [n] i = -5,1 · 10-4 e a variância é. Que a distribuição dos erros é aproximadamente uniforme é mostrado pelo histograma.
A segunda imagem é composto por 256 amostras de distribuição Gaussiana ruído aleatório no intervalo [0,63]. A imagem é quantizado para 64 levels.Again, o erro 2 [n] está distribuído uniformemente no intervalo [-0,5, 0,5 +] com média 4,09 · 10-2 '0 e variância.
Estatísticas do erro de quantificação para Gaussiano distribuído ruído aleatório: (a) f [n] com μ ~ = 27,7, σ ~ = 11; (B) depois de quantização por arredondamento para o inteiro mais próximo; (C)
erro de quantificação ε [n] = f [n] - fq [n], que mostra que ; (D) histograma de 256 amostras de erro de quantificação, o que mostra que o erro é aproximadamente uniformemente distribuídas.
O erro total de quantização é a soma do erro de quantização sobre todos os pixels da imagem:
.
Uma imagem com grandes valores de erro bipolares podem, assim, ter um pequeno erro total. O erro médio quadrado (a média do erro quadrado) é um melhor descritor da fidelidade da quantização:
,
onde n é o número de pixels na imagem. Se a irradiância é medido em mmW2, 2 terá unidades de, Por isso é comum para avaliar a raiz quadrada para calcular o erro de raiz média quadrada (RMS), que tem as mesmas dimensões que o erro (ou como o sinal):
Erro RMS .
Deveria ser óbvio que o erro RMS obtidos para uma imagem usando diferentes quantizadores vai depender da escolha utilizado, e que o erro RMS de um quantizador será diferente para diferentes imagens. Ele também deveria ser óbvio que é desejável para minimizar o erro RMS em uma imagem. O método de força bruta para minimizar erro de quantização é adicionar mais bits para o ADC, o que aumenta o custo do quantizador e a memória necessária para armazenar a imagem. Existe também um limite para a eficácia de uma tal abordagem, uma vez que a saída de um quantif icador com um tamanho muito pequeno passo será barulhento.
3.2.1	A relação sinal-ruído
A relação de potência do sinal-para-ruído de um sinal analógico é mais rigorosamente definida como a relação adimensional dos desvios do sinal e ruído:
onde o σ2 variância de um sinal é uma medida da difusão de sua amplitude sobre o valor médio:
Assim, uma grande SNR significa que existe uma maior variação da amplitude do sinal de amplitude do ruído. A definição de SNR como a razão de variâncias pode ter uma ampla gama de valores - facilmente várias ordens de magnitude - e os valores numéricos pode se tornar inviável. A gama de SNR pode ser comprimido por expressá-la em uma escala logarítmica como uma quantidade adimensional chamado bel:
Esta definição de SNR é ainda mais vulgarmente expressa em unidades de décimos de um bel, ou decibéis, de modo que o valor de número inteiro é mais preciso:
Sob esta definição, a SNR é 10 dB, se o sinal de variância é dez vezes maior do que a varicia de ruo e 20 dB, se o desvio padrão é dez vezes maior do que a do ruído.
As variações, obviamente, dependem das estatísticas independentes (especificamente sobre os histogramas) do sinal e ruído. Os desvios não dependem da “disposição” dos níveis de cinzento (ou seja, a “ordem” ou numérica aparência “pictórica” dos valores de cinzento dos pixels) na imagem. Desde o ruído muitas vezes é determinado pelo equipamento de medição, uma única medição da variação do ruído, muitas vezes é usado para muitas amplitudes de sinal. No entanto, a variação de sinal deve ser medido de cada vez. Considere alguns exemplos de sinais comuns 1-D.
3.2.2	Exemplo: Variação de uma Sinusoid
A variância de uma senóide com A0 amplitude é facilmente calculado pela integração direta:
onde a identidade trigonométrica
foi usado. O resultado final é:
σ
2
f
=
UMA
2
0
2
para sinusoid com amplitude
UMA
0
Note-se que a variância da sinusoid não depende do período (ou seja, da frequência espacial) ou na fase inicial - é uma função do histograma dos valores em um período e não do “ordenou” valores. Também não depende de qualquer “bias” (constante de aditivo) no sinal. O desvio padrão da senóide é apenas a raiz quadrada da variância:
 para sinusoid com A0 amplitude
3.2.3	Exemplo: Variação de uma onda quadrada:
A variância de uma onda quadrada também é facilmente avaliada por integração da sinusoid thresholded:
f [X] = A0 cos SGNX02π¸¸ = ⇒ hf [x] i = 0 X0	3x0 x∙
∙
X0
1
	2Z + X202	- h	Eu 2	1 ÃZ + X404 - 2	Z + X04	2	!
	σf= [F [x]	f [X]] dx = (A0) + DX	(+UMA0) dx
	X0 -	X0	-	+ 4
= 1 μA20 X0 + A20X0 ¶ = A20
	X0	2	2
	 para a onda quadrada com A0 amplitude
= ⇒
	σf= A0 de onda quadrada com A0 amplitude
= ⇒
Observe que:
(Σf) de onda quadrada, A0> (σf) sinusoid amplitude, amplitude A0
o que faz sentido intuitivo, porque a amplitude da onda quadrada é muitas vezes mais “distante” da sua média que o sinusoid é.
3.2.4	Variância de “Noise” a partir de uma distribuição de Gauss
Um conjunto de amplitudes selecionados na distribuição de probabilidade randomfroma com uma “forma” Gaussian é chamada de ruído Gaussian. A definição mais comum da distribuição de Gauss é:
onde μ é o valor médio da distribuição e σ2 é a variância. Isto mostra que a distribuição de Gauss é completamente especificado por esses dois parâmetros. A σ desvio padrão é uma medida da “largura” da distribuição e portanto influencia o intervalo de amplitudes de saída.
Um exemplo e o histograma de 8192 amostras a partir da distribuição de Gauss com valor médio:
p[N] =
3.2.5	aproximações SNR
Desde a variação depende das estatísticas do sinal, é comum (embora menos rigoroso) para aproximar a variância pelo quadrado da faixa dinâmica (pico-Topeak fmax amplitude do sinal - fmin ≡Δf). Na maioria dos casos, (Af) 2 é maior (e muitas vezes muito maior) do que σf2. Nos exemplos da sinusóide e a onda quadrada já considerada, as aproximações são:
2
Sinusoid com amplitude
onda quadrada com amplitude
Para o ruído de Gaussian com variância σ2 = 1 e μ dizer, a gama dinâmica do ruído tecnicamente é infinita, mas uma vez que existem poucas amplitudes que se encontram fora do intervalo de quatro desvios padrão medido a partir da média. Isto significa que os extremos da distribuição de Gauss pode ser aproximada por fmax ~ = μ + 4σ, fmin ~ = μ - 4σ, levando a Af ~ = 8σ. A estimativa da variância do sinal é, em seguida, (Af) 2 ~ = 64σf2, o qual é (obviamente) 64 vezes maior do que a variância efectiva. Porque esta estimativa da variância sinal é muito grande, as estimativas do SNR assim obtida será demasiado optimista.
Muitas vezes, o sinal e o ruído das imagens são medidos pelos detectores fotoeléctricos como diferenças de potencial eléctrico em volts; a gama dinâmica do sinal é Vf = Vmax-Vmin, a tensão média de ruído é Vn, e a relação sinal-para-ruído é:
Como um aparte, podemos citar que a amplitude do sinal (ou nível) de sinais eléctricos analógicos, muitas vezes é descrita em termos de dB relativa medida a algum sinal de referência fixo. Se o nível de referência é V = 1V (independentemente da impedância), em seguida, o nível de sinal é medido em unidades de “dBV:”
nível = 10 log10 ¡Vf2 ¢ dBV = 20 log10 (Vf) dBV
O nível é medido em relação a um mV (através de uma impedância de 75Ω) está em unidades de “dBmV:”
3.2.6 SNR de quantização
Agora, finalmente, chegar ao objetivo desta secção: para determinar a relação sinal-ruído de quantização de um sinal. É evidente que o sinal quantizado exibe um erro do sinal analógico original, o que leva a quantidade de “ruído” e, portanto, uma medida de SNR. . Embora em sentido estrito o sinal de entrada e o tipo de quantificador determinar a função densidade de probabilidade de erro de quantificação, que normalmente é adequado para assumir que o erro devido a quantificação é uniformemente distribuída, ou seja, a função densidade de probabilidade é um rectângulo. No caso de um quantizador de m bits uniforme (níveis de cinzento 2m), onde os níveis são espaçados por intervalos de b0 largura ao longo da gama dinâmica analógico completo do sinal, o erro devido a quantização será (aproximadamente) uniformemente distribuída ao longo deste intervalo b0; este será demonstrado nos exemplos seguintes. Se a não-linearidade do quantizador é arredondamento, o valor médio do erro é 0; se truncamento para o próximo número inteiro inferior, o valor médio é. Qualquer livro sobre probabilidade e estatística provavelmente vai demonstrar que a variância e desvio padrão do ruído uniformemente distribuída ao longo de um b0 gama são:
Isso também pode ser derivada com bastante facilidade, avaliando os termos na expressão para a variação: σn2 = n2®- hni2
onde a função de ruído é
Isso significa que o valor médio e o valor médio de n2 é:
Assim, a variância é:
 QED
	2
para ruído distribuído uniformemente sobre b0 intervalo
Para um quantizador m-bit e um sinal com com as amplitudes máxima e mínima fmax e fmin (e variam Af = fmax -fmin), a b0 largura de um nel de quantificao (o tamanho do passo) tem o valor:
Se podemos supor que o ruído de quantização é uniformemente distribuída, então a variância do ruído de quantização é bem definida:
O SNR é a relação entre a variação do sinal para que o ruído devido a quantização:
Isto pode ser expresso numa escala logarítmica para se obter o (tipo de) simples expressão:
O terceiro termo, obviamente, depende dos parâmetros de tanto o sinal eo de quantificador. Esta equação demonstra um resultado imediatamente - que o SNR de quantização aumenta por '6 dB para cada bit adicionado ao quantificador (novamente, assumindo que a distribuição uniforme do ruído). Se utilizar a estimativa (fraco) que σf2 = (Af) 2, em seguida, o terceiro termo avalia a zero e o SNR aproximada é:
SNR para a quantização de m bits ~ = 6,02 · m + 10,8 + 10 · log10 [1]) = 6,02 · m + 10,8 [dB]
As estatísticas (e, assim, a variância) podem ser aproximadas para muitos tipos de sinais (por exemplo, música, voz, imagens realistas) como resultante de um processo aleatório. Os histogramas de estes sinais são geralmente pico em ou perto do valor médio μ e a probabilidade de um nível de cinzento diminui para valores de distância da média; o sinal de, aproximadamente, é a saída de um processo aleatório gaussiano com σf2 variância. Ao seleccionar o intervalo dinâmico do quantif Af para ser suficientemente maior do que σf, poucas (se qualquer) os níveis devem ser cortadas pelo quantificador. Por um processo aleatório de Gauss, praticamente nenhum dos valores vai ser cortada, se os níveis máximos e mínimos do quantizador são quatro desvios padrão a partir do nível médio:
Em outras palavras, podemos escolher o tamanho do passo entre os níveis da quantizer para satisfazer o critério:
Neste caso, o SNR do processo de quantização torna-se:
qual é menos do que a estimativa de (optimista) obtidos assumindo que σf2 = (Af).
Esta expressão para a SNR de quantização um sinal aleatória gaussiana-distribuídos com variância medido σf2 pode ser demonstrada por meio de quantificação que o sinal de m bits através da fmin gama = μ - 4σf a fmax = μ + 4σf, e o cálculo da variância do erro de quantificação σn2. O SNR resultante deve satisfazer a relação:
Esta equação pode ser aplicada a demonstrar que o SNR de um sinal analógico livre de ruído de quantização depois de 8 bits é ~ = 41 dB. A SNR do mesmo sinal quantizado para 16 bits (comuns em leitores de CD) é aproximadamente 89 dB. O melhor SNR que pode ser obtido a partir de gravação analógica (tal como numa fita magnética) é de cerca de 65 dB, o que é equivalente ao que a partir de um sinal digitalizado para 12 bits por amostra ou 4096.
O outro lado deste problema consiste em determinar o número de bits de quantização eficaz após digitalização um sinal analógico barulhento. Este problema foi investigada por Shannon
3,2 QUANTIZAÇÃO ERRO ( “ruído”)	25
32	CAPÍTULO 3 REVISÃO DE QUANTIZAÇÃO
3,2 QUANTIZAÇÃO ERRO ( “ruído”)	33
em 1948. O sinal analógico é caracterizada, em parte, pela sua largura de banda Δν [Hz], que é o análogo do conceito de taxa de dados digitais [bits por segundo]. A largura de banda é a largura da região de suporte do espectro do sinal (a sua transformada de Fourier).
3,3	Quantização para alguns bits
Se quantificando a um pequeno número de bits, por exemplo quatro ou menos de modo a que o número de valores de cinzento é de 16 ou menos, em seguida,a aparência da imagem sofre muitas vezes marcadamente. Este era visível no exemplo de profundidade de bits mostrado anteriormente; os exemplos para 2 e 3 bits são repetidos abaixo. O “falso contorno” mostrado era uma ocorrência comum nos “velhos tempos” quando recursos de exibição eram muito mais limitadas do que actualmente. Um caso especial é de quantificao para um único bit para dois valores de cinzento (preto e branco); isso é chamado de meio-tom de seu uso original para converter imagens em escala de cinza (fotografias) para imagens bitonal para impressão em jornais ou livros.
Falso contorno torna-se visível em uma imagem com variação lenta valores de cinza se quantizado para alguns pedaços.
3.3.1	Escala Cinza melhorado (IGS) Quantificação
A quantização IGS é uma técnica padrão (considerado em Gonzalez e Woods) que tem um nome em vez glorificado para um conceito bastante simples. O processo é bem definido e reduz os efeitos da falsa contorno por adição de um número aleatório de tamanho aproximadamente igual ao tamanho de etapa de quantificao para o valor de cinzento de cada pixel ANTES quantização. A receita para o processo é:
Definir SUM inicial para valor binário (0000 0000) 2
Se a maioria dos signficant quatro bits de pixel atual avaliar a 1111, em seguida, definir a nova soma a esses quatro bits + 0000, caso contrário, definir nova soma com os quatro bits mais significativos, mais os 4 bits menos signficant da soma de idade.
Exemplo
	Índice
	Cinzento
	Código binário
	Soma de 8-bit binário e 4-bit de erro
	4 bits cinzento
	n - 1
	N / D
	00002
	0000 0000
	N / D
	n
	108
	0110 11002
	0110 1100 + 0000 0000 = (0,110) (1,100)
	01102 = 6.
	n + 1
	139
	1000 10112
	1000 1011 + 0000 (1100) = (1,001) (0,111)
	10012 = 9.
	n + 2
	135
	1000 01112
	1000 0111 + 0000 (0111) = (1,000) (1,110)
	10002 = 8.
	n + 3
	244
	1111 01002
	1111 0100 + 0000 (1110) = (1,111) (1,111) + 0000 0011
	11112 = 15.
	n + 4
	200
	1100 10002
	1100 1000 + 0000 (0011) = (1100) 1011
	11002 = 12.
3.3.2	Quantizadores com memória - Erro Diffusion
Outra maneira de reduzir o erro de quantização é usar um quantizador com a memória, de modo que o valor quantificado em um pixel é determinada em parte pelo erro de quantização em pixels próximos. Um diagrama esquemático do quantizador com memória é mostrado abaixo:
Fluxograma para “quantizer com a memória” quantização = erro de difusão
Um método simples para se quantifica com uma memória que geralmente resulta em erro total reduzida sem um conhecimento a priori das estatísticas da imagem de entrada, e sem a adição de muita complexidade adicional de computação foi introduzido por Floyd e Steinberg (SID 36, 1976) como um meio para simular imagens de níveis de cinza na imagem exibe binários e é conhecido como difusão de erro. É facilmente adaptado a quantização imagem multinível. Como indicado pelo seu nome, na difusão de erro do erro de quantificação é de um pixel é utilizada no cálculo dos níveis de pixels subsequentes. Na sua forma mais simples, todo o erro de quantização em um pixel é subtraído do nível de cinza do próximo pixel. A quantização posterior do próximo pixel, portanto, reduz o erro de quantização local.
1-D erro de difusão de Funções 1-D
No caso 1-D, o nel de quantificao na localização da amostra x é o nível cinzento da amostra menos o erro [x - 1] em que o pixel precedente:
fq[X] = Q {f [X] - [x - 1]}
[X] = f [x] - fq [x]
= F [x] - Q {f [X] - [x - 1]}
Normalmente, o erro é reposto para zero no início de cada linha. Você pode ver que isso é simples de implementar e os resultados são frequentemente muito útil. Vários anos atrás, John Knapp (CIS graduação e estudante de graduação) usado difusão de erro 1-D para melhorar as reconstruções de hologramas gerados por computador para diversas aplicações diferentes e os resultados foram frequentemente excelente (§23.4 no meu livro Métodos de Fourier em Imaging).
2-D erro de difusão
No caso 2-D, é possível (e muitas vezes desejável) para dividir e aplicar o peso do erro de quantificação resultante entre diferentes quanto-pixels ainda não quantificado. O algoritmo “padrão” Floyd-Steinberg quantifica a imagem N X N em um raster a partir do canto superior esquerdo (sequência de pixels: primeira fileira da esquerda para a direita, em seguida, segunda fila, da esquerda para a direita, etc, para a linha inferior de pixels ). Em cada pixel, o erro de quantização é avaliado e dividido entre quatro pixels ainda não quantificados: deste resultado é adicionado ao próximo pixel na linha, ao pixel abaixo, ao pixel abaixo e “forward”, e ao pixel abaixo e “depois”. Uma figura é útil:
	
	
	
	
	¤
	
	3
16
	5
16
	1
16
Esses erros são subtraídos dos pixels subseqüentes, e o conjunto de resultados pode afetar significativamente o estado quantizada de um pixel. O resultado final é uma matriz de pixels bitonal (preto e branco), onde a densidade de pixels brancos é proporcional ao valor de cinzento. Os exemplos demonstram os efeitos da quantização binário em imagens de nível de cinzento. As imagens da rampa demonstram por isso que o binarizer com memória é muitas vezes chamado de modulação de impulsos em densidade. Note-se que mais detalhes finos é preservado em imagens binarizadas do quantizer com a memória (por exemplo, o céu em Liberty eo ombro em Lincoln). Isto é conseguido através possivelmente aumentando o erro binarização local.
2-D de quantificao difundido-erro para três imagens de escala de cinzentos: (a) rampa linear, depois quantificando a nível midgray, após Floyd-Steinberg difusão de erro ao nível midgray; (B) mesma sequência para "Lincoln"; (C) mesma sequencia de "Liberdade". As imagens difundidas de erros transmitir mais informações sobre a estrutura mais raplidly variando nas cenas.
A difusão de erro tem aplicações além da quantização - por exemplo, Eschbach e Knox têm utilizado para criar algoritmos para realce de borda.
Uma discussão sobre o uso de difusão de erro na ADC foi dada por Anastassiou (IEEE Trans. Circuits and Systems, 36, 1175, 1989).
3.3.3	Halftoning
Este é o processo de conversão de uma imagem na escala de cinzentos de uma imagem de bitonal (1 bits). Todos os processos de fazer algum tipo de operação de limiar e dependem da resolução limitada do olho para “localmente média” os bits resultantes para dar a ilusão de escala de cinza. Os processos “padrão pontilhado” são padrão na reprodução jornal, enquanto a indecisão difundida de erros funciona bem em displays eletrônicos.
Figura 3.1: Resultados de diferentes algoritmos de meios-tons: imagem original (a); (B) depois de limiar em 50% de cinza; (C) padrão “pontilhamento”; (D) “exaltação”. Difundido de erros
3,3 QUANTIZAÇÃO PARA BITS POUCOS	35
40	CAPÍTULO 3 REVISÃO DE QUANTIZAÇÃO
3,3 QUANTIZAÇÃO PARA BITS POUCOS	39
Capítulo 4
Operações de processamento de imagem
Uma vez que os dados de imagem foi amostrado, quantizado, e armazenado no computador, a próxima tarefa é mudar a imagem para qualquer fim, por exemplo, para extrair informação adicional dos dados, para tornar a imagem aparecer melhor. As operações de processamento de imagem ó vários {} são aplicados para o fs imagem de entrada digitais [N · Ax, Ay m ·] para se obter um (geralmente) diferentes gs de saída [n0 · Ax, Ay m0 ·]. A partir deste ponto em diante, todas as imagens pode ser considerada como dados amostrados e, assim, o subscrito s serão ignorados e as coordenadas será rotulada por [x, y]. O operador tem a forma geral
O {f [n, m]} = g [k],
embora o mais frequentemente os índices de entrada e de saída será idêntico: [k,] = [n, m].
A vários operadores O podem ser classificados com base no número e localização dos elementos de imagem da imagem de entrada f que afectam o cálculo de um pixel de saída específico [x, y]. Uma possível conjunto de categorias é a seguinte:
Operações geométricas: O valor f cinza no pixel [n, m] é mapeado de novo para o novo local [k,]. Isto pode ser interpretado como ummapeamento de f [n, m] para se obter g [n, m] = f [k,]: esta classe de operador pode ser usada para magnifiy, apoucar, rodar, ou imagens de urdidura e é essencial em muitas disciplinas, incluindo cartografia, imagens médicas, ...
Ponto de Operações em imagens individuais: O valor de cinza da imagem de saída g em um pixel específico [n0, m0] depende apenas do valor de cinza do mesmo pixel em f; exemplos destas operações incluem contraste alongamento, segmentação baseada no valor de cinzento, e equalização de histograma;
Ponto de Operações em múltiplas imagens: O valor de cinza do pixel de saída g [n0, m0] depende dos valores de cinza do mesmo pixel em um conjunto de imagens de entrada f [x0, y0, tn] ou f [x0, y0, Xn ]; exemplos são a segmentação com base nas variações de tempo ou de cor; média de medida múltiplos quadro para o ruído de alisamento, a detecção de alterações, e normalização detector espacial;
Operações de bairro em uma imagem: o valor de cinza de g em um pixel específico [n0, m0] depende dos valores de cinzento dos pixels na vizinhança
41
da do mesmo pixel em f [N0, M0]; exemplos incluem convolução (como para suavização de imagem ou de afiação), e detecção característica espacial (por exemplo, linha, borda, e detecção de cantos);
Operações de bairro em várias imagens: Esta é apenas uma generalização (3); o pixel g [N0, M0] depende de pixels na vizinhança espacial e temporal (ou espectral) de [x0, y0, tn ou Xn]. convolução espacial / temporal ou espacial convolução / espectral
Operações com base em objectos “Forma” (por exemplo, “estrutural” ou “morfológica”) operações: O nível de cinzento do pixel de saída é determinada pela classe de objecto para o qual um pixel pertence; exemplos incluem classificação, segmentação, compressão de dados, reconhecimento de caracteres;
Operações de “global”: O valor de cinza da imagem de saída em um pixel específico depende dos valores de cinza de todos os pixels de f [n, m]; estes incluem transformações de imagem, por exemplo, de Fourier, Hartley, Hough, Haar, transforma rádon
4.1	GeometOperações Rical
Esquemático de operação geométrico; os valores de cinzento dos pixels da f [n, m] são “inalterado” (excepto para efeitos de interpolação) pela operação, mas os valores de cinza são movidas para diferentes localizações.
operações geométricas alterar as relações espaciais entre os pixels da imagem que pode ser utilizado para corrigir as distorções devido a geometria de gravação, mudanças de escala, rotações, em perspectiva (a distorção), ou devido às superfícies de objectos curvos ou irregulares. Nesta seção, vamos definir os procedimentos para especificar e implementar uma série de operações geométricas.
4.1 OPERAÇÕES GEOMÉTRICAS
4.1.1	Operações geométricas comuns
[X0, y0] são as coordenadas da imagem de entrada que são mapeados para [x, y] na imagem de saída.
X0 = X, y0 = y = ⇒ g [x, y] = f [x0, y0] = f [x, y] = ⇒ transformação identidade x0 = x + x0, y0 = y + y0 = ⇒ g [x, y ] = f [x + x0, y + y0] = ⇒ tradução por [x0, y0] x0 = ax, y0 = de = ⇒ g [x, y] = f [Mxx, Myy] = ⇒ escala x0 espacial = - X, = y0 + y = ⇒ g [x, y] = f [-x, + y] = ⇒ esquerda-direita reversão, espelho imagem x0 = -x, y0 = -y = ⇒ g [x, y] = f [-x, -y] = ⇒ rotação por 180◦ x0 = x + αy, y0 = y = ⇒ g [x, y] = f [x + αy, y] = ⇒ inclinação x0 = x + αxy, y0 = y = ⇒ g [x, y] = f [x + αxy, y] = ⇒ distorção de perspectiva
 = ⇒ rotação através θ
cosπ = -1, sinπ = 0 = ⇒ x0 = -x, y0 = -y = ⇒ g [x, y] = f [-x, -y] = ⇒ rotação por 180◦
Exemplos de operações úteis geométricas.
Podemos pensar em dois casos óbvios, onde a operação é especificado no início (por exemplo, você precisa rodar a imagem θ = 30◦) ou onde você precisa para determinar a operação matemática necessária para uma imagem “input” “warp” para coincidir com uma segunda imagem (a “referência”).
Em teoria, é possível (embora exaustivo!) Para descrever as transformações geométricas através de uma tabela de pesquisa de entrada / saída de coordenadas, ou seja, a tabela poderia especificar novas coordenadas de saída [x0, y0] para cada local de entrada [x, y]. De forma equivalente, a tabela de consulta de coordenadas poderia especificar as coordenadas de entrada [x, y] que mapa para um pixel específico de saída [x0, y0]. Por exemplo, a tabela de referência move pixels para cima e para a direita, uma em cada sentido é:
	n
	m
	k
	
	0
	0
	+1
	+1
	-1
	-1
	0
	0
	1
	2
	2
	3
	...
	...
	...
	...
Para uma imagem N × M, uma tal tabela de consulta que contém N · H pares ordenados (= ⇒ 262.144 pares para uma imagem de 512 × 512). Tal tabela de pesquisa pode especificar qualquer arbitrária transformação geométrica, ou seja, pixels de entrada no mesmo bairro poderia se deslocar para locais que são muito distantes na imagem de saída. Além de usar grandes blocos de memória do computador, coordenar tabelas de pesquisa são mais gerais do que normalmente necessário.
Em aplicações reais, os pixels vizinhos na imagem de entrada irá permanecer em grande proximidade na imagem de saída, ou seja, as coordenadas dos pixels na vizinhança mesmo vai ser transformado de um modo semelhante (pixels de entrada adjacentes permanecem adjacentes na imagem de saída). Tais coordenadas mapeamentos também são chamados de transformações de borracha de folha ou a deformação de imagem e pode ser definida por um conjunto de equações paramétricos que especificam as coordenadas de saída para uma dada posição de entrada. Por exemplo, a transformada coordenadas x0 e y0 pode ser especificado como uma função de ambos o coordenadas x e y por funções a e β:
X0 = Α [x, y] y0 = β [x, y].
O nível de cinzento f no local [x, y] é transferido para as novas coordenadas [x0, y0] para criar a imagem de saída f [x0, y0]. Esta sequência de operações equivalente a definir um “novo” imagem g [x, y] nas mesmas coordenadas [x, y], mas com diferentes níveis de cinza; conseqüentemente:
O {f [x, y]} = g [x, y] = f [x0, y0] = f [α [x, y], β [x, y]].
4.1.2	Série de energia para Coordenadas
Em quase todos os appliations de imagem, da imagem de saída preserva o arranjo de valores de cinzento dos pixels em bairros, o que significa que a transformação das coordenadas contínua deve ser contínua, ou seja, as derivadas das funções a- [X, Y] e
4.1 OPERAÇÕES GEOMÉTRICAS
β [X, y] deve ser finito em todos os lugares. Tal exigência é automaticamente satisfeita se as funções têm as formas de séries de potência da entrada coordena com poderes não negativos:
Em teoria, qualquer operação geométrica pode ser specifed desta forma. Na prática, a série infinita deve ser truncado, e os limites superiores determinar a raiva de possíveis transformações.
Por exemplo, se selecionar:
uma10 = B01 = 1 a00 = x0
b00 = y0 ANM = BNM = 0, caso contrário
A operação reduz a:
X0 = X + x0 y0 = y + y0
que é uma tradução de origem a partir de [0,0] a [x0, y0]. Se seleccionar
uma00 = B00 = 0 A10 = Mx
b01 = My
anm= BNM = 0, caso contrário
= ⇒ x0 = Mx · x y0 = My · y
em seguida, a operação é uma ampliação ao longo dos dois eixos por fatores de escala de Mx e My tal que a origem não é alterada.
4.1.3	UMATransformação ffine
Sob muitas condições, apenas três termos são necessários em cada série:
X0 = A00 + A10X + a01y y0 = b00 + b10x + b01y Isto define uma transformação afim e pode ser considerada como uma transformação linear (especificado por os factores de escala), seguido por uma tradução (especificado pelas constantes A00 e B00). Note-se que a transformação afim não descreve os exemplos de inclinação e perspectiva.
4.1.4	Transformação Bilinear - Pseudoinverse Cálculo
Se acrescentarmos a quarta termo em ambas as séries, ou seja, ANM e BNM = 0 para n, m ≥ 2, em seguida, temos uma transformação bilinear:
X0 ~ = A00 + A10X + a01y + a11xy
y0 ~ = b00 + b10x + b01y + b11xy
Há oito coeficientes desconhecidos na transformação, e, assim, (pelo menos) oito equações independentes de [X, Y] e [x0, y0] são necessários para encontrar uma solução para o anm coeficientes e bnm. Conhecimentoda transformação de coordenadas dos vértices de um quadrilátero é suficiente para encontrar uma solução para esta transformação. Em outras palavras, o conhecimento do mapeamento em (pelo menos) quatro locais
[X1, y1] → [x01, Y10]
[X2, y2] → [x02, y2]
[X3, y3] → [x03, Y30]
[X4, Y4] → [x04, y4]
vai permitir o cálculo dos oito coeficientes. Estes quatro locais são às vezes chamados pontos de controle.
A solução pode ser convertido em notação onde as entradas conhecidas [xn, yn] e saídas matriz estão dispostos como vectores de coluna nas matrizes X e X 0, respectivamente, e os coeficientes desconhecido aij e bij são as linhas da matriz A neste expressão:
UMA (Desconhecido) • X (conhecido) (conhecido)
Se a matriz X é quadrado (e se nenhum dos três pontos conhecidos encontram-se na mesma linha recta), em seguida, a matriz inversa X-1 existe e pode ser encontrado por meio de uma simples
44	CAPÍTULO OPERAÇÕES DE TRATAMENTO 4 Imagem
45
Cálculo:
(A • X •) X-1 = X0 • X-1
= ⇒ A = X0 • X-1
Mais pontos de controle pode ser usado em um ajuste bilinear, tornando assim o problema “sobredeterminadas” (mais equações do que incógnitas). A única solução de um problema sobredeterminado pode não existir se houver incerteza ( “ruído”) nos dados. Sob tais condições, quer uma solução de mínimos quadrados (o que minimiza o erro quadrático total de, e assim o erro quadrático médio) podem ser calculadas. Alternativamente, é possível aplicar os pontos de controle no local para determinar transformações locais apropriados para diferentes secções da imagem. Se a distorção não pode ser adequadamente representada por uma série de potência com oito coefficents, em seguida, são necessários mais de quatro pontos de controle.
4,2	Mínimos Quadrados solução para umaTransformação ffine
O procedimento para o cálculo da solução de mínimos quadrados para os coeficientes de uma transformação geométrica é muito fácil em notação matriz. Por exemplo, considere a transformação afim simples que adiciona uma tradução constante para a coordenar e aplica-se uma ampliação em cada sentido ortogonal. As equações de coordenadas são:
X0 = A00 + A10X + a01y
y0 = B00 + + b10x b01y
onde deve ser calculado a ANM coeficientes e BNM. O sistema de equações tem seis quantidades desconhecidas e por isso requer seis equações para obter uma solução. Uma vez que cada ponto de controlo (de entrada-saída par de coordenadas) produz equações para ambos xand y, são necessários três pontos de controlo. Se mais pontos de controle (digamos cinco) estão disponíveis e consistente, os extras pode ser ignorado e o inverso da matriz computada como antes. Se as posições dos pontos de controle são incertos, as equações serão inconsistentes ea matriz inversa não existirá. Sob estas condições, os pontos de controlo adicionais vai melhorar a estimativa da transformação. O cálculo dos coeficientes que minimiza o erro quadrado na transformação é chamada a solução dos mínimos quadrados, e é facilmente calculado utilizando álgebra de matrizes como uma pseudo-inversa.
Considere agora o processo se ter medido cinco pares de pontos de controlo conhecidas, a transformação de matriz é composto de o (como-ainda desconhecido) 2 fileira por 3 coluna da matriz A, o conhecido 3 fileira por 5 coluna de matriz X de locais de entrada, e a linha 2 da coluna por 5 X0 matriz de locais de saída medidos dos pontos de controlo:
Se X eram quadradas (e invertida), gostaríamos de calcular X-1 para encontrar uma via:
No entanto, X não seja quadrada, neste caso, e, assim, o seu inverso X-1 não existe. Podemos avaliar uma pseudo-inversa de X que implementa uma solução de mínimos quadrados para um meio das seguintes etapas para o caso geral em que X tem filas e colunas de p q (p = 3 e q = 5, no exemplo acima).
multiplicar ambos os lados da equação da direita pela matriz transposta, O qual é obtido a partir de X por meio da troca das linhas e colunas para se obter uma matriz com linhas e colunas q p. O resultado é:
O associativity de multiplicação vector permite a segunda e terceira matriceson lado esquerdo para ser multiplicado primeiro:
O Matrix quadrado. No exemplo acima, o produto das duas matrizes é 3 × 3 quadrado:
Desde a é quadrada, há alguma chance de que existe seu inverso. Se este for o caso, então podemos multiplicar o lado esquerdo da equação por este inversa da direita; o resultado produz os coeficientes ak desejadas e bk dentro da matriz A:
Se executar a mesma série de passos no lado direito, obtemos fórmula thedesired para o pseudoinverse 
	UMA = X0 • XT • • X XT -1 ≡X0 • X †
	X† ≡XT • • ¡X XT ¢ -1 = ⇒	³	¡	¢ '
A expressão para a transformação afim obtido a partir de cinco pontos de controlo
é:
⎡⎣ ab0000 ab1010 ab0101 ⎤⎦ = ⎡⎣ xy1010 xy2002 xy3030 xy4004 xy5050 ⎤⎦
		1 X1 y1	y1 1 x1	-1⎛
	1 X2 y	1 x2 y2
• ⎜⎜⎜⎜⎜⎜⎢⎡⎢⎢⎢⎢⎢⎢⎣⎢⎢ 1 x3 yy532 ⎥⎥⎥⎥⎦⎥⎥⎤⎥⎥⎥ • ⎝⎜⎜⎜⎛⎜⎜⎜⎜⎜⎜⎢⎢⎡⎢⎣ x11 x12 x13 x14 x15 ⎥⎤⎥ ⎥⎦ • ⎢⎢⎢⎢⎢⎢⎢⎡⎣⎢⎢ 11 xx3 y3 ⎥⎥⎥⎤⎦⎥⎥⎥⎥⎥⎥⎟⎠⎟⎞⎟⎟⎟⎟⎟⎟⎟ ⎟⎟⎞⎟⎟⎟⎟⎟⎟⎟⎠⎜
	⎜⎜ 1 x4 y4	y1 y2 y3 y4 y5	1 x4 y4
		1 X5	5 y5⎝
Exemplo: Pontos de controlo exactos
Considere um exemplo onde nós selecionamos quatro pontos de controle em uma praça que são mapeados exatamente sem erro
:
Esta é uma rotação e uma escala, o que podemos ver por factoring fora uma constante:
Assim, a imagem é dimensionada (ampliada) por e rodados por	.
Verifica:
X0 = A00 + A10X + a01y
y0 = B00 + + b10x b01y
[0,0] → [0,0]
[100,0] = 100 ⇒ → 0 + 1 + · 100 (-1) · 0 = 100,0
→ 0 + 1 + 1 100 · · 0 = 100 = ⇒ [x02, y20] = [100,100] [100,100] = 100 ⇒ → 0 + 1 + · 100 (-1) · 100 = 0100
→ 0 + 1 + 1 100 · · 100 = 200 = ⇒ [x03, Y30] = [0200]
[0100] ⇒ = 100 → 0 + 1 + 0 · (-1) · 100 = -100100
→ 0 + 1 + 0 · · 1 100 = 100 = ⇒ [x04, Y40] = [-100100]
Pontos de controlo com pequeno erro: Exemplo
Se os quatro pontos de controle não são exatamente localizado, obtemos uma solução aproximada com o menor erro dos mínimos quadrados. Os mesmos pontos de entrada são mapeados para os pontos de saída incorrectos
[X1, y1] = [0,0] → [x01, Y10] = [1, -1]
[X2, y2] = [100,0] → [x02, y20] = [95,98]
[X3, y3] = [100,100] → [x03, Y30] = [2196]
[X3, y3] = [0,100] → [x03, Y30] = [-98,99]
4,2 mínimos quadrados TRANSFORMAÇÃO SOLUTIONFORAFFINE47
54	CAPÍTULO OPERAÇÕES DE TRATAMENTO 4 Imagem
4,2 mínimos quadrados TRANSFORMAÇÃO SOLUTIONFORAFFINE55
4.3 TRANSFERÊNCIAS DE PIXEL
:
Esta é indica que precisamos adicionar uma tradução da função, ao longo de cada direcção.
4.3	Pixel Transferências
Como já mencionado, uma transformação geométrica pode ser implementado por especificando a onde cada pixel da imagem de entrada situa-se na grade de saída, ou especificando o local de cada pixel de saída na grade de entrada. Exceto para certos (e geralmente desinteressante) transformações, pixels da imagem de entrada raramente vai mapear exatamente para pixels da grade de saída. Por conseguinte, é necessário interpolar o valor de cinzento de pixels com coordenadas não inteiros (isto é, pontos nongrid) para pixels com coordenadas de número inteiro que se encontram sobre a grelha. O método que transfere as coordenadas de pixel de entrada e interpola o valor de cinza no grid de saída é chamado de pixel carryover por KR Castleman em seu livro Digital Image Processing. Ele também pode ser chamado um mapeamento de entrada-saída para.
Interpolação do valor de cinza do pixel na transformação geométrica: (a) de pixels
“Carryover”, onde o valor de cinzento de um pixel de entrada é interpolado na matriz de saída; (B) de pixel “enchimento”, onde a interpolação é executada no local transformada do pixel de saída na matriz de entrada.
4,4	interpolação Pixel
-Valor de cinza interpolação baseia-se nas distâncias relativas dos vizinhos mais próximos de ou para o pixel geometricamente transformado. No caso mais simples de vizinho mais próximo ou interpolação de ordem zero), todo o valor de cinza é transferido de ou para o pixel mais próximo. No entanto, uma vez que as distâncias dos quatro vizinhos devem ser avaliados para

Continue navegando