Baixe o app para aproveitar ainda mais
Prévia do material em texto
CAP 03 a SISTEMAS HARDWARE.doc.doc 1 INTERFACE GRÁFICA, IMAGENS E HARDWARE Objetivo: Apresentar os principais conceitos sobre imagem e cor sob a ótica do controle computacional para armazenamento e reprodução nos dispositivos controlados pelo Sistema Operacional. O que são Mapa de Bits? É um tipo de mosaico. É o reticulado ou grade de uma imagens, contudo é formado de bits, sendo que a associação direta com os bits dá-se com os valores ou “1” (ativo) ou “0” (não ativo), representando a cor branca para o máximo (1) ou preto para o valor mínimo (0). A partir deste dois valores é possível criar qualquer cor do espectro luminoso. Cada unidade, ou elementos individuais são chamados de “pixel”, que combinados formam a imagem total. Para cores monocromáticas, podemos associar um pixel como a menor unidade de uma imagem. Porém se a imagem é colorida, o pixel é ainda não é a menor unidade individual da imagem, pois cada pixel é formado por outros 3 pontos designados de “pitch”, ou seja, cada pitch é um elemento de uma cor do sistema de cores adotado. Existem diferenças de tratamento da imagem e seus pontos individuais para: Imagens gráficas dos arquivos em disco. Pontos das imagens de vídeo. Pontos das imagens das impressoras e fotocompositoras. A quantidade necessária de pontos para definir uma imagem identifica o ‘tamanho” da imagem, isto é, quantidade de linhas e colunas, por exemplo 800 linhas por 600 colunas resulta em 800x600=480.000 pixels, ou 480.000 bits com valore 1 ou 0, para sistema monocromático, porém não podemos afirmar que o tamanho real do arquivo será de 480.000bits. Em sistemas computacionais diferentes, cada imagem apresentará dimensões diferentes de pixels e tamanho de arquivos diferentes, assim, uma mesma imagem poderá apresentar distorções na largura e na altura em diferentes sistemas operacionais.. CAP 03 a SISTEMAS HARDWARE.doc.doc 2 Para criar cores diferentes do preto/branco, o sistema operacional utiliza mais bits de informação. A quantidade de cores ou tons de cinza disponíveis será igual a dois elevado à potencia do número de bits, ou seja n 2 , onde “n= quantidade de bits”. Se para cada pixel existirem dois bits de infromação, então teremos 22=4 combinações possíveis de tons, ou seja [(00), (01), (1,0), (11)] possibilidades de cores, ou quatro níveis de cinza para cada pixel. Consequentemente se usarmos 8 bits, então teremos 28=256 níveis de cinza. E no caso de 24 bits, 224=16777216 níveis de cinza. O valor 224 pode ser substituído por (28)3 ou seja, podemos subdividir em três grupos diferentes de tons de cinza, ou seja [(28). (28). (28)]=[2563 ]=16777216. Cada grupo pode ser identificado por uma cor independente com 256 níveis cada uma, designadas na teoria das cores por “cores verdadeiras”. Esta quantidade de mais de 16 milhões de tons é muito alta para ser identificada e separada pelo olho humano, constituído por cones e bastonetes, devido estarem distribuídas de forma muito próxima uma da outra. Mas um sistema operacional computacional consegue discernir cada tom de cinza separadamente. Profundidade da cor, é a quantidade de bits necessária para formar a cor em cada ponto (pixel). Organização dos mapas de bits. As dimensões da imagem e o posicionamento de cada pixel são os elementos principais de um arquivo de imagem. Os eixos da imagem são a largura e a altura da imagem. O pixel é registrado na memória do sistema computacional, e a relação entre os eixos não corresponde a uma medida real. Para fazer o realcionamernto entre os eixos, ou quantidade de pixels na horizontal e na vertical, com as escala reais da iamgem, ou da figura, é necessário usar artifícios de resolução e calibração através de módulos algorítmicos especiais que exigem modelagem geométrica e matemática. Resolução é o número ou quantidade de pixels por unidade de área. A medida é dada por pontos por polegada, ppi (point per inch), mas a medida não é exatamente linear, na verdade, é pontos por polegada quadrada, e deveria ser designada por “ppis” (point per inch square). CAP 03 a SISTEMAS HARDWARE.doc.doc 3 Se as dimensões das linhas forem iguais as das colunas podemos afirmar que a rsolução é de 72x72 pixels por polegada quadrada, mas na prática indica-se por 72 pixels por polegada.. Caso a resolução seja 72 pixels para cada 2 polegada, então na verdade a resolução será de 36 pontos por polegada, ou seja, 36ppi que é uma resolução mais baixa, e assim por diante. Existem resoluções diferentes para : Vídeo: pixels por polegada (ppi). Impressora: linhas por polegada (lpi ou dpi ou pontos de dot pitch por polegada) Escaner: dot pitch por polegada (dpi) Resolução da profundidade de bits É o mesmo que resolução da cor da iamgem, ou número de bits por pixel. Os valores mais comuns são: 2 bits, 4 bits, 8 bits, 24 bits (RGB), 32 bits (CYMK), e os modelos de 36, 48 e 64 bits todos usados somente para gráficos profissionais em sistemas computacionais dedicados à computação gráfica. As quantidades de cores que podem ser exibidas é portanto uma função da placa adaptadora de vídeo, e obedecerá a quantidade de “bytes” (1 byte=8 bits) disponibilizados para formar as cores, por exemplo: Cores de um byte (8 bits) equivale a 28=256 cores, e é chamada de pseudo cor, dois bytes (16 bits) equivale a 216=65.536 cores e é chamada de cor superior., e três bytes (24 bits) equivale a 224=16.777.216 cores, e são chamadas de cores verdadeiras. Os dados coloridos são convertidos em 3 sinais (analógicos) que são enviados ao sistema de vídeo para acionar os pontos da tela, seja um CRT ou um LED, LCD ou plasma, cada um com suas peculiaridades técnicas, distintas mas mantém similaridades na formação das imagens com pixels (RGB). O dispositivo que converte os dados digitais em sinais RGB (analógicos) é chamado de DAC (Conversor Digital Analógico), e fica no adaptador de vídeo. Largura de Banda. A transformação de um valor de 8 bits para um valor de 24 bits e vice versa é feita por um dispositivo de conversão de paletas de cores, integrado ao adaptador de vídeo, ou monitor. O desempenho da memória do vídeo é medido em bytes de dados que podem ser acessados a cada segundo. (bytes/s). A velocidade de acesso é chamada de largura de banda da memória, e é medida em milhões de bytes por segundo. Transcodificador Para modificar os sinais das imagens e do áudio produzidos em um sistema “X” para outro sistema “Y”, por exemplo de PAL-M para NTSC e vice versa, é necessário modificar as freqüências de cromaticidade e de cadencia. É típico utilizar operadores matemáticos, por exemplo matrizes de transformação. Estas modificações são realizadas por equipamentos apropriados, designados de transcodificador. CAP 03 a SISTEMAS HARDWARE.doc.doc 4 A resolução de um arquivo de imagens é calculada considerando a quantidade de pixels por polegada (ppi). Se o arquivo de imagens não especificar quantos pixels por polegada o sistema dever criar, o dispositivo criará um “default” ou a menor unidade para cada pixel. As impressoras laser utilizam pontos individuais ppi, e os vídeos usam as unidades básicas dos pixels, que são formados por 3 pitchs cada. Os monitores possuem um número máximo de pontos por polegada nas linhas (horizontal) e nas colunas (vertical), por exemplo 640x480 1024x768, etc. Também depende dos dispositivos de hardware e de sua tecnologia da placa frame grabber (placa de vídeo), contudo existe a dependência da freqüência de apresentação das imagens. Compactadores Depois de armazenadas as dimensões da imagem, o software armazena os pixels um a um na memória, como um bloco de dados. Existem métodos avançados de rastreio e armazenamento de tais blocos, bem como a compactação.Um mecanismo simples de explicar a compactação é o seguinte: O algoritmo faz uma contagem dos pixels de tons similares, ou de valores muito próximos entre si, armazena a quantidade e estabelece um fator de multiplicação da repetibilidade de tais pixels no mapa de bits. Isto permite reduzir a quantidade de informações sobre a imagem original, conforme a figura a seguir: O algoritmo relaciona a quantidade de pontos com os tons de cinza que são exatamente iguais por (verossimilhança) ou por similares dentro de uma faixa de erro Exemplos de formatos de arquivos e tamanhos de equivalência de um mesmo arquivo: BMP (Bit Map do MS Windows) 570 kbytes TIFF (Taggged Image File Format) 133 kbytes (não compactado) TIFF (Taggged Image File Format) 38 kbytes (compactado) EPS (Encapsulade Post Script) 550 kbytes PCX (PC Extended Paintbrush) 41 kbytes EPS (Encapsulated PostScript) 132 kbytes JPEG (Joint Photographic Experts Group) 9 kbytes Quanto melhor o compactador e descompactador, menos chance de ocorrerem divergências entre as imagens e de serem percebidas pelo olho humano. A quantidade de memória ocupada por uma imagem de mapa de bits depende principal mete de 3 fatores básicos: As dimensões da imagem em estado real e seu relacionamento com os eixos de coordenadas.. A profundidade de bits dos pixels, ou seja a quantidade de bitis necessários para cada cor) O formato do arquivo da imagem, ou seja, o algoritmo para reconstruir a imagem no vídeo a partir das informações contidas na memória do sistema onde está armazenada as informações sobre a imagem. Esta informação depende do tipo de compactador e descompactação que é requerida para a montagem e desmontagem da imagem ou figura. CAP 03 a SISTEMAS HARDWARE.doc.doc 5 Os formatos das imagens dependem dos modelos de análises de imagens e suas cores, e são padronizações internacionais, por exemplo, algoritmos compactadores e otimizadores de imagens gráficas dos estilos “tiff, pcx, bmp, eps, dwg, 3ds, jpg, etc.. A quantidade de pixels deve ser adequada para apresentar uma imagem nítida, natural e inteligível, sem excessos de cores ou aumentos desnecessários na resolução, pois tudo tem um custo operacional que pode sobrecarregar os dispositivos para a saída, por exemplo a placa de vídeo. OIs mapas de bits consomem muita memória “RAM”, e a situação se complica quando tem-se iamgens dinâmicas em tempo real, por exemplo filmes ou vídeos que simulam a realidade virtual. A simulação em 3 dimensões só é possível com estações gráficas apropiradas, e na verdade a geração de alguns tipos de imagens em 3D depende muito da percepção humaana, pois os sistema computacionais atuais e mais comuns possuem dispositivos de saída somente em 2 dimensões, cabendo ao observsador filtrar as imagens e tentar avalia-las em 3 dimensões a partir da acuidade visual de profundidade e das cores que simulam diferenças de distâncias entre os objetos em cenários gráficos, inclusive para efeitos de paralaxes em jogos. O pixel é apenas uma parte do conteúdo da memória do sistema computacional que mantém um acompanhamento da cor, e a realção entre eixos da iamgem não corresponde a qualquer medida real da natureza. Por exemplo, saber que uma imagem é 435x327 pixels nada informa do tamanho real da iamgem, e para saber da verdadeira escala é necessário o uso de calibradores. Depois de armazenadas as dimensões da imagem, os pixels são gravados um a um como um grande bloco de dados. As informações sobre a distribuição dos pixels no arquivo ficam gravadas no cabeçalho do arquivo, e o algoritmo do programa é quem “desvenda” os mistérios sobre a imagem. O computador não registra a posição de cada pixel na imagem real, apenas recria uma grade e preenche pixel a pixel segundo o bloco ou “string” de dados. Filtros Gráficos Tanto na importação como na exportação de imagens gráficas, seja qual for o procedimento e a aplicação, o software emprega algoritmos que traduzem os formatos da imagem em outros padrões matemáticos, e são chamados de “filtros”. Os friltros permitem ao processador numérico interpretar o arquivo e exibir a imagem gráfica usando o buffer de memória da página que está sendo apresentada naquele instante. O programa só pode interpretar arquivos para os quais tenha “filtros” em sua lista de rotinas. Existem dezenas de tipos de filtros, e cada empresa utiliza a metodologia e a otimização dos recursos que melhor lhe convém, e tais métodos podem ser padronizados e livres para uso, ou patenteados e proprietários da tecnologia. Os filtros podem executar operações lógicas e matemáticas e realizarem os seguintes tratamentos nas imagens: Alterações e adaptações dos níveis de cinza. Modificação de níveis de cinza para sistema de cores RGB, e vice versa. Diminuir ou aumentar as imagens. Detectar e controlar bordas e fronteiras das imagens. Segmentar uma imagem, identificando núcleos e/ou periferias. Distorcer conjuntos de pixels, alterando a imagem. Provocar efeitos de “morphing” (modificação da estrutura da distribuição dos pixels) CAP 03 a SISTEMAS HARDWARE.doc.doc 6 Trocar cores de tons e brilhos diferentes. Aplicar limiares (threshold) nos histogramas das cores das imagens. Calcular e perfazer erosão e/ou dilatação das imagens. Realizar rotações, translações, espelhamento, construir mosaicos. Suavizar, realçar conjuntos de pixels, polarizar, localizar pixels específicos. Quaisquer transformações algébricas e/ou lógicas sobre os mapas de pontos da imagem. Operações lógicas e matemáticas entre imagens. As imagens são matrizes de pontos, ou até mesmo, vetores de pontos, se assim quisermos definir. Desta forma podemos imaginar operações lógicas de “união”, “intersecção” e de “negação” (conjunto complementear), além da “+” soma e “-“ subtração entre imagens. Também é possível executar operações especiais, tais como rotação, translação, espelhamento e escala. Mas estas alterações são de estudos da Computação Gráfica, portanto uma área de especialização. Por exemplo, dadas as iamgens identificadas por “A, B e C”, podemos executar operações do tipo: a) BA b) BA c) A~ , que é equivalente a C A (complementar de A) ou seja U AC d) )CB(A e) )CBA f) BA e outras operações. Exemplos de transformações numéricas de um sistema de cores em outro são dados a seguir: 1) [R,G,B] para [X,Y,Z] B G R 9900,00106,02000,0 0100,08124,03100,0 0000,01769,04900,0 Z Y X 2) [R,G,B] para [Y, R-Y, B-Y] B G R 999,0587,0299,0 114,0587,0711,0 114,0587,0299,0 YB YR Y , sendo que GRY BRM GBC ou ainda: B1Y G1M R1C 3) [R,G,B] para [Y, I, Q], (transmissão de TV, para exibir imagens ao olho humano) B G R 312,0523,0211,0 322,0274,0596,0 114,0587,0299,0 Q I L , onde L=luminancia da cor, I=intensidade da cor, Q=quantificador da cor 4) [R,G,B] para [L, Q ou H, I ou S, K], onde , H (Hue) é a tonalidade, S é a saturação, e K= intensidade de preto adicionado à cor. B G R 0,10,10,1 0,16,03,01,06,07,0 1,06,03,0 K I Q L ou B G R 0,10,10,1 0,16,03,0 1,06,07,0 1,06,03,0 K S H L CAP 03 a SISTEMAS HARDWARE.doc.doc 7 Matiz de uma cor é um atributo associado com o comprimento de onda dominante em uma mistura de onda de luz. Assim a matiz reprtesenta a cor dominante como percebida por um observador quando chamamos um objeto de vermelho, laranja, etc. estamos especificando sua “matiz’. Obs. Os comprimentos de ondas referentes a [RGB] são as seguintes matizes. 1=700m =vermelho. 2=7546m =verde. 3=435,8m =azul. As misturas de tons brancos ou pretos nas cores, modificam a matiz da cor, dando origem ao termo de saturação. Quando juntamos os aspectos “matiz e saturação”, obtemos a cromaticidade da cor, ou seja, podemos controlar o brilho e a cromaticidade de cada cor numericamente. Operações lógicas entre imagens Basicamente as operações lógicas são executas a partir dos valores lógicos dos bits (ou 1 ou 0) e aplicando as tabelas lógicas para os conectivos “ ”, “ ”, “~” . Para as operações aritméticas serão necessários operadores de adição e subtração e em algumas situações o uso de cortes ou de limiares (threshold) para as execuções, por exemplo: “ se bit(A)=180 e bit(B)=200, a soma A+B resulta em 380”, e este tom de 380 não existe, portanto assumiria o valor máximo 255, ou o valor completar 380-255=125, e isto dependerá das características do algoritmo de modificação dos valores dos pixels. Estas operações são chamadas de filtros. Exemplo de operação lógica usando imagens monocromáticas. 1110 0011 1101 1001 A 0001 1011 0111 1100 B 0000 0011 0101 1000 BA Para imagens em tons de cromaticidade [RGB}, as operações lógicas também podem ser realizadas, desde que definidos limiares para tais cores, e perfazendo separadamente os cálculos para cada tom de cor. Gráficos vetoriais Ao invés de utilizar mapas de bits com uma quantidade extensa de pontos individuais num mosaico, a opção de apresentar imagens de boa qualidade são através dos gráficos vetoriais. Basicamente é o uso da álgebra e da geometria para construir e formar imagens. As imagens são formadas por primitivas gráficas, por exemplo “pontos, retas, círculos, elipses, curvas, esferas, etc.”. Tais objetos possuem suas características matemáticas e suas funções algébricas, que podem ser manipuladas pelo software. Quando uma imagem é complexa, naturalmente ela poderá ser formada de vários objetos, tantos quanto forem necessa´rios para definir os contornos, portanto uma imagem ou uma figura nada mais ´é que uma função geométrica complexa, compostas de vários subconjuntos de funções de primitivas básicas. Uma face pode ser modelada desta forma usando o algoritmo do 3D Studio da empresa Auto Desk, ou ainda pelo Solidworks, Inventor, etc. CAP 03 a SISTEMAS HARDWARE.doc.doc 8 Para efeitos de sombreamentos, hachuras, refinações da linha, cores, tracejados, etc, existem diferentes funções que transformam as primitivas nestes modelos de iamgens. Uma linha comum é traçada em uma escala suficiente para a interpretação geométrica, mas ao solicitar um “zoom”, as dimensões da linha (espessura e cor) não se alteram, pois trata-se de uma entidade geométrica controlada pelo sistema operacional e pelo software gráfico. O s arquivos vetoriais são formados por: 1) conjuntos de comandos vetoriais para a criação da imagem, 2) tabela de informações de cores para a imagem, 3) dados relativos a fontes e tipos que podem ser incluídfos na iamgem gráfica. Por estes parâmetros é possível alterar as dimensões do gráfico vetorial sem perder a qualidade da imagem. Portanto o zum pode ser expandido ou contraído quantas vezes se desejar, sem perda das características vetoriais, portanto, da imagem. Um exemplo simples de dimensionamento é a construção de um circulo, no caso é dimensionado por coordenadas de centro (XC, YC) e seu Raio R e sua cor (RGB), e então uma primeira imagem poderá ser (XC=30, YC=55) e R=20 (R=24, B=42, B=96), e outra imagem de outro círculo (XC=30, YC=55) e R=70 (R=24, B=42, B=96), com mudança apenas no raio. Nestes exemplos, o dispositivo cria os objetos com R=20 e R=100 utilizando o ma´ximo de pontos, ou seja, com os gráficos vetoriais quanto mais pontos na saída significa maior qualidade da imagem, diferente do mapa de bits quando aproximamos demasiadamente a imagem através do zum. Outra vantagem é que os gráficos vetorias ocupam muito menos espaço de memória RAM, mas requerem muita habilidade matem[atica e te´cnica em software e hardware. Portanto, os gráficos vetoriais criam as imagens a partir das combinações de diferentes objetos. Uma característica interessante destes tipos de imagens é a possibilidade de averiguar detalhes precisos das imagens ou figuras, as quais sendo originadas a partir de funções matemáticas, permitem aumentos ou diminuições de escalas praticamente de ordem infinita. Com isso é possível observar uma imagem sem que apresente traços ou imperfeições do mapa de bits, por exemplo os efeitos indesejados do “alias” ou serrilhamento, ou mesmo deformações das curvas devido ao problema das dimensões dos pixels. A vantagem dos gráficos vetoriais sobre os bitmaps é o uso de pouca memória, mas em contrapartida requerem sistemas computacionais especiais e capazes de executar as rotinas requeridas pelos algoritmos de construção de imagens. O principal uso destes tipos de gráficos vetoriais são para projetos de arquitetura e engenharia, e também para modelagem de elementos finitos, tais como próteses, faces, membros articulados e flexíveis, sistemas elásticos e sujeitos a variações de dimensões, humanóides, veículos e seus acessórios, e outros. O software 3D Studio facilita o intercambio entre o bitmap comum com os gráficos vetoriais, possibilitando as modelagens de desenhos animados, personagens e cenários, a desvantagem é que requer uma certa especialização na área de geometria e álgebra linear, por este motivo é um software dedicado e difícil de manusear para os principiantes. O sistema integrado da CAP 03 a SISTEMAS HARDWARE.doc.doc 9 AutoDesk pode incorporar modelagens em funções geométricas e modelos de personagens do 3D studio., inclusive com geração de vídeos de realidade virtual, o que torna muito útil para simular efeitos de choques, acidentes, quedas, arremessos de objetos, rotação, translação, e outras variedades de movimentos virtuais, flexíveis ou não. Impressoras As impressoras recebem as informações dos sinais que o sistema operacional do computador distribuiu para o buffer de impressão. As impressoreas trabalham com o sistema de cores subtrativas CYMK de 32 bits. Portanto existe a necessidade de transformar o sistema RGB que é apresetnado no vídeo e que está armazenado no buffer de memória do sub sistema de vídeo, para o sub sistema de impressão, no caso, impressora colorida. As impressoras possuem suas características sobre a qualidade da imagem a ser impressa, por exemplo, 300 dpi, isto é, 300 dot pitchs por polegada “linear”. Uma impressora jato de tinta necessita de um número muito maior de pontos por polegada para imprimir, com qualidade semelhante a uma imagem mostrada no monitor de vídeo que tenha um determinado número de pixels por polegada. A impressora trabalha com pontos formados por até quatro canais de cores (padrão CMKY), cada um deles com apenas uma opção de intensidade (quantidadefixa de tinta por canal), enquanto um monitor de vídeo forma um pixel utilizando três canais de cores (RGB), mas cada um deles com 256 níveis de luminosidade diferentes. O número de cores que podem ser gerados pela impressora em um ponto é 16 (24), enquanto um monitor de vídeo pode gerar 16.777.216 (256³) cores diferentes em um pixel. Algumas impressoras têm a capacidade de variar a quantidade de tinta de cada canal de cor ou ter canais de cores adicionais, mas, ainda assim, haverá muito menos opções que as disponíveis em um monitor. A cor cinza é simulada através de um artifício de impressão usando a distribuição de pequenos e diversos pontos pretos. Portanto, uma imagem com 10×10 pixels, por exemplo, no monitor de vídeo precisa de uma densidade de impressão bem maior em uma impressora jato de tinta, para obter-se qualidade semelhante. A maioria das impressoras resolve essa limitação utilizando recursos de meio-tom (ou dithering) para simular cores adicionais, necessitando de vários pontos de impressão para obter o mesmo efeito de um único pixel na imagem do monitor. Impressoras que funcionam no sistema laser podem trabalhar com resolução de 600, 1200 a 2400 dpi. Hardware para imagens Para utilizar qualquer modelo de processamento computacional de imagens, será necessário especificar os dispositivos de entrada e saída adequadamente. CAP 03 a SISTEMAS HARDWARE.doc.doc 10 Subsistema de vídeo O vídeo é a parte mais importante entre o usuário e o computador, e logicamente entre o software e o usuário, dando portanto as principais características da “Interface Homem Máquina” ou Homem computador. Os aplicativos direcionam o usuário e informam os resultados através do sub sistema de vídeo. Sem um bom sub sistema de vídeo os sistemas operacionais funcionam com dificuldades. Placa de vídeo A placa aceleradora, ou mesmo um dispositivo de captura de frames (vídeos), frame grabber, ou mesmo a GPU (Graphics Processing Unit) são dispositivos que permitem aumentar a velocidade dos processamentos gráficos. Buffer de vídeo Todos os sistemas de vídeos são mapeados pela memória em blocos dedicados de tempos em tempos pelo buffer de vídeo. Este dispositivo é um microprocessador (chip) de memória de alta velocidade e é capaz de armazenar grandes volumes de informação das imagens gráficas ou mesmo de texto. O buffer envia as imagens ao vídeo de modo intermitente, fazendo uma espécie de atualizações de imagens, e se estiver bem sincronizada, é imperceptível a olho nu a observação de tais atualizações. A memória buffer conectada ao vídeo deve ter capacidade adequada ao processamento do programa desejado, por exemplo se as aplicações são comuns e conhecidas pelo sistema operacional , a memória RAM dedicada ao sub sistema de vídeo controla adequadamente todas as atividades de endereçamento lógico das imagens. Mas se aplicação requerer alto custo de processamento lógico matemático, além de tratamento numérico de cores, então será prudente a instalação de uma interface gráfica de maior capacidade de cálculos, processamento, controle e endereçamento. CAP 03 a SISTEMAS HARDWARE.doc.doc 11 O resultado final é medido considerando o número de vezes que o computador consegue redesenhar uma cena, seja estática ou dinâmica, esta taxa é designada por “f.p.s” (frames por segundo) Com uma placa de captura de vídeo, tipo frame grabber, a performance aumenta dezenas de vezes, e tais placas aceleram o processamento bidimensional e tridimensional, e podem ter um processador próprio para executar os cálculos que são exigidos em processamentos gráficos. Existem várias tecnologias, por exemplo a união de duas placas de vídeo para trabalharem em paralelo, ou “crossfire”, e isto requer sistemas especiais e também consomem mais energia elétrica, além de métodos de refrigeração. Sinal de varredura. O sinal de varredura ocorre nos sistemas de tela tipo CRT, LCD, eletroluminescência e a gás. O ponto da tela, ou pixel, (picture element) é composto por 3 pitchs (RGB), e é a menor unidade do mosaico da imagem. A tela é uma matriz definida perfeitamente e esquadrejada de modo a conter milhares e até milhões de pontos próximos entre si. Exemplos de resolução mais comuns: VGA: 640X480 SVGA: 800x600 XGA: 1024x768 HDV 720: 1280x720 PAL: 768x576 SXGA: 1280x1024 UXGA: 1600x1200 HDV 1080: 1920x1080, etc. CAP 03 a SISTEMAS HARDWARE.doc.doc 12 O processamento de cada um dos pontos é totalmente matemático e lógico, possuindo (posição, cor, tempo_exposição). O sinal de varredura é a atualização da imagem em um intervalo de tempo, e é um ciclo praticamante infinito, enquanto o sistema estiver energizado. Este sinal de varredura também é chamado de retraçagem, e é padronizado por norma técnicas internacionais. O ciclo inicia-se no canto superior esquerdo e termina no canto inferior direito. Em um segundo podemos ter uma mesma imagem sendo formada ou reconstruída no mínimo 50 vezes, sendo então uma freqüência de apresentação (50 Hz). As cores são formadas pelos 3 dot pitchs que são medidos em décimos de milímetros, na média possuem 0,28mm. Quanto menor o tamanho do dot pitch, mais alta será a resolução, e mais demorado o processamento, devido a uma maior quantidade de cálculos, e também mais caro os sistemas para manter a velocidade das imagens estabilizadas. Por isso a varredura deve refazer a imagem rapidamente, não permitindo a percepção das trocas das telas, que são recalculadas em tempos e tempos, da ordem de mili segundos. As leituras e cálculos dos registros e endereçamentos são feitos dentro deste espaço de tempo pela CPU, ou pela GPU, e repassadas ao buffer de vídeo, o qual possui sua própria velocidade de apresentação dos dados que nele chegam. Nos sistemas de televisores as imagens possuem freqüência de 25 quadros por segundo (qps) para o sistema PAL-M e de 30 qps nos sistemas NTSC, já para os cinemas analógicos, foi estabelecido a freqüência de 24 qps. Entrelaçamento Existe ainda um outro fator importante na geração de imagens gráficas, o entrelaçamento. O entrelaçamento é a formação das imagens em dois conjuntos separados e perfeitamente distintos entre si. A imagem é formada por linhas impares e linhas pares, e é neste sentido que funciona o entrelaçamento. O controlador de imagens faz a construção primeiro de todas as linhas impares, desde o inicio no canto superior esquerdo, até encerrar a ultima linha impar. Quando todas as impares estiverem construídas, então o controlador começa a construir as linhas pares, desde a parte superior esquerda até a parte inferior direita. Em um segundo, o controlador forma 30 vezes todas as linhas impares e 30 vezes todas as linhas pares, e o total resulta em 60 construções, ou 60 Hz. Portanto primeiro forma-se metade da imagem (linhas impares) depois a outra metade da imagem (linhas pares). Este controle de cruzamento entre linhas é chamado de entrelaçamento (ou CAP 03 a SISTEMAS HARDWARE.doc.doc 13 interlaced), e serve para melhorar a qualidade da imagem formada diante do sistema visual humano, além das necessidades técnicas pertinente à tecnologia do hardware. Cada imagem apresentada em vídeo não é total, é apresentada uma primeira metade impar e depois a outra metade par. O entrelaçamento há necessidade de duas retraçagens para formar a imagem, ou seja, 60i=30i+30i (i interlaced). Existem sistemas especiais designados de “progressivos”, onde as iamgens são formadas de uma única passada, impares e pares simultaneamente. Cadência É uma medida (quantidade) do número de imagens (quadros ou frames) individuais que um dispositivo ótico ou eletrônico consegue processar (calcular) e exibir por unidade de tempo.No cinema foi definido como “fotogramas por segundo” fps estilo “p” (progressivo) , ou quadros por segundos qps. Para sistemas de vídeo e televisores a deseignação é dada em frames por segundo fps. Na computação gráfica exige-se sistemas de captura (ou aquisição) de iamgens em movimento (motion capture), e é comum utilizar freqüência em “Hertz” (1Hz= 1/s), e significa “oscilações por segundo” da eletrônica que envia ou recebe os sinais das imagens. Com isso podemos admitir que “imagem é um sinal matemático”. As velocidades de varredura adotadas para perfazer imagens em painéis ou dispositivos eletrônicos, adota pela CIE em 1929 foram as seguintes: Cinema: mínimo de 24 qps, para ser exato: 23.976 fps ou seja, 24×1000÷1001, sendo que no cinema mudo a taxa era de 16 até 20 quadros por segundo, e atualmente também existem taxas de 48 qps utilizadas na industria cinematográfica. A partir do valor de 50, a montagem passa a ser do tipo entrelaçado. Existem taxas progressivas em teste de 72, 120 (para dispositivos UHDTV) e de 300 fps. Nos sistemas de transmissão de imagens por televisores e vídeos utilizando sistema PAL-M (Phase Alternating Line M=30qps) ou NTSC (National Television System Commitee), SECAM (Séquentiel couleur avec mémoire), etc... a taxa de apresentação de imagens varia de 25 a 30 qps, sendo que o NTSC é de 29,97 qps. Todos estes sistemas trabalham com entrelaçamento “i” (interlaced) , formado por imagtens “impares” e imagens “pares”. Para diferenciar as diferentes cadencias, os sitemas PAL- M e SECAM utilizam 50i (2x25) ou 2 vezes imagens impares e pares, e o sistema NTSC utiliza o 60i (2x30x1000÷1001). Existe uma diferença entre padrões “i” (interlaced) e “p” (progressivo) adotado CAP 03 a SISTEMAS HARDWARE.doc.doc 14 pelo cinema de 24 qps, isto é, as imagens são apresentadas de forma progressiva, pois são fotogramas ou fotografias, apesar que hoje em dia utilizarmos imagens digitalizadas e compactadas. Padronização Internacional A cadência de 60i é a apresentação dos campos ou imagens por segundo nos sitemas mais comuns de Televisores, VHS ou DVD, que utilizam a norma IEEE 1952. O valor 60 na verdade é arredondado, pois na realidade é a soma de 29,97 imagens impares mais 29,97 imagens pares, totalizando 59,94 campos, existindo uma redução de 0,1% sobre o valor de 60. Esta reduação é uma técnica que auxilia na separação das ondas de vídeo e de áudio, isto é, separa as ondas de cromaticidade (cores) das de som (áudio), pois ambas são sinais matemáticos!. No cinema antigo, nas imagens progressivas existia duas trilhas de gravação para o audio dos “filmes”, similar aos sistemas de fita magnética dos gravadores de fita. Uma “cadencia” pode ser transformada em outra através de dispositivos que envolvem: Software (programa e álgebra) e Hardware (aquisição e envio de sinais), preferencialmente sem perdas de sinais nas transformações numéricas. A câmera lenta, ou “slow motion” é uma diminuição de cadencia, ou quantidade de quadros apresentados por segundo. Por exemplo, uma película que tenha 48 fps pode ser exibida na velocidade padrão de 24 fps, proporcionando o efeito de 50% mais lento que os movimentos originais. Enquanto que o inverso também é possível e válido, por exemplo uma filmagem realizada em 12 fps gerará uma imagem em, velocidade “acelerada” duas vezes maior quando exibida no padrão de 24 fps. Em ambos os casos será necessário o uso de operadores algébricos otimizados para manter as características das imagens. Portanto o software e o hardware gráficos devem ser capazes de transformar os sinais de imagens matematicamente para diferentes cadencias ou velocidades. Cursor O cursor ou ponteiro é um espectro dimensional definido pelo sistema operacional em uso, e terá tamanho e formato definido por uma área mínima de pixels. O sistema computacional rastreia permanentemente a sua localização e informa à CPU as coordenadas para efetuar as interrupções ou tarefas necessárias. A quantidade de pixels capazes de rastrear e enviar informações à CPU depende do tamanho e formato que estiver em uso pelo sistema operacional.
Compartilhar