Baixe o app para aproveitar ainda mais
Prévia do material em texto
AUTARQUIA EDUCACIONAL DO VALE DO SÃO FRANCISCO – AEVSF FACULDADE DE CIÊNCIAS APLICADAS E SOCIAIS DE PETROLINA – FACAPE CIÊNCIA DA COMPUTAÇÃO – 8º PERÍODO PROFESSOR TENORIO Apostila de Sistemas Multimídia Versão 3.0 Roberto Tenorio Figueiredo Petrolina – PE Apostila de Sistemas Multimídia – Feito por Tenorio. 2 SUMÁRIO 1 – INTRODUÇÃO AO ESTUDO DA MULTIMÍDIA .......................................................... 3 2 – PLATAFORMAS ............................................................................................................... 9 3 – AUTORIA ........................................................................................................................ 17 4 – OS PROJETOS: PRODUÇÃO DE MULTIMÍDIA ........................................................... 31 5 – IMAGEM ........................................................................................................................... 36 6 – DESENHO ......................................................................................................................... 53 7 – A TERCEIRA DIMENSÃO ............................................................................................... 59 8 – ANIMAÇÃO ...................................................................................................................... 68 9 – SOM ................................................................................................................................... 77 10 – VIDEO .............................................................................................................................. 97 11– BIBLIOGRAFIA ............................................................................................................. 101 12– EXERCÍCIO .................................................................................................................... 102 Apostila de Sistemas Multimídia – Feito por Tenorio. 3 1 – INTRODUÇÃO AO ESTUDO DA MULTIMÍDIA O uso do termo “multimídia” (múltiplas mídias) não é novo, é um termo utilizado há muito tempo, mesmo antes da utilização de microcomputadores. Uma apresentação multimídia que era feita nos anos 80, consistia em utilizar uma seqüência de slides (físicos) acompanhada de uma fita cassete. O termo multimídia geralmente vem acompanhado de outros dois termos: Hipertexto e Hipermídia. 1.1. CONCEITOS Multimídia: Programas e sistemas em que a comunicação entre homem e computador se dá através de múltiplos meios de representação de informação (p.ex.: áudio, imagem estática, animação, gráficos e texto), ou seja, multimídia é o conjunto de recursos que visam estimular todos os sentidos, porém, os mais usuais são a visão e a audição. Multimídia significa que uma informação digital pode ser representada através de áudio, vídeo e animação em conjunto com mídias tradicionais (texto, gráficos e imagens) simultaneamente. Hipertexto: Pode-se definir hipertexto como sendo um texto que possui conexão com outros textos. Este termo foi inventado por Ted Nelson em 1965, e geralmente está ligado a uma não- linearidade na leitura de um texto qualquer. Hipermídia: O conceito de Hipermídia também tem haver com a não-linearidade da informação, porém não está limitada somente a textos, pode incluir outras mídias como imagens, sons, vídeos, etc. Hipermídia pode ser considerada como uma das aplicações multimídia. 1.2. MÍDIA Como foi escrito anteriormente, a multimídia é a reunião de várias mídias. Pode-se classificar mídia em quatro categorias: - Mídia de percepção; - Mídia de representação; - Mídia de armazenamento; - Mídia de transmissão; ���� Mídia de Percepção: São os equipamentos que têm como função estimular os sentidos dos seres humanos. A visão e a audição são os estímulos naturais provenientes de monitores e placas de som, por exemplo. O tato pode estar ligado a aplicações de realidade virtual. Existem estudos e protótipos já desenvolvidos para estímulo do olfato e paladar. ���� Mídia de Representação: São os elementos utilizados para representar uma idéia, como por exemplo: texto, imagem gráfica vetorial e estática (matricial), áudio, vídeo e animações. Apostila de Sistemas Multimídia – Feito por Tenorio. 4 Para o desenvolvimento de projetos multimídia, deve-se levar em consideração o efeito de cada elemento no comportamento humano, como é apresentado nas curvas da Figura 1.1. Um bom projeto multimídia deve conter estes elementos distribuídos uniformemente, dependendo do contexto em que se encontre. Por exemplo, um projeto multimídia para um hotel que fique localizado em um centro histórico brasileiro. Esta aplicação multimídia poderá conter uma parte que trata da história do local onde deverá ser utilizado textos e figuras ilustrativas, despertando o lado intelectual do ser humano. Em contrapartida, esta mesma aplicação poderá conter vídeos e figuras ilustrativas do hotel, acompanhados de música (ou som do próprio vídeo), indo então despertar o lado emocional do ser humano. Deve-se lembrar que quando o cinema mudo ganhou som, o sucesso foi absoluto, pois o cinema ganhou muito em emoção. Figura 1-1: Espectro de Representação da idéia. ���� Mídia de Armazenamento: São todos os meios que podem ser utilizados para o armazenamento de elementos da mídia de representação. Podem-se citar várias formas de armazenamento tais como: cartuchos para videogames, CD-ROM para computadores, disco- laser interativos entre outras. ���� Mídia de Transmissão: São todos os meios de transmissão que são utilizados para veiculação da mídia de representação. A principal característica que deve ser levada em consideração é a largura de banda (bandwidth) que pode variar de algumas centenas de kbytes por segundo até algumas dezenas de Mbytes por segundo. Deve ser levado em conta, que estas aplicações devem ser processadas em tempo real e os dados têm uma natureza contínua, sendo assim, outras características também devem ser levadas em consideração: • Diminuição da latência – latency (atraso do recebimento dos pacotes transmitidos); • Jitter (variação do atraso dos pacotes transmitidos); • Taxa de perda de quadros – frame loss rate (taxa de pacotes perdidos); • Taxa de erro de bits – bit error rate (taxa de bits recebidos que possuem erros); 1.3. HISTÓRICO A multimídia foi um marco da evolução da tecnologia da informação. Até 1990, era um termo que poucos utilizavam, pois os computadores possuíam poucos recursos o que impossibilitava o uso da multimídia digital em ambientes domésticos. Apostila de Sistemas Multimídia – Feito por Tenorio. 5 No início da década de 90 surgiu o que as empresas de informática chamavam de “kit multimídia”. As empresas queriam dizer que o kit transformava o computador do usuário em uma máquina multimídia, o que confundiu alguns usuários que até hoje, acham que multimídia é simplesmente o kit, que era formado por uma placa de som (a exemplo da Sound Blaster), caixas de som estéreo e um drive de CD. É claro que multimídia é muito mais que isso. Hoje em dia, muitos usam o termo multimídia, mas quando são perguntados sobre o conceito de multimídia, as respostas passam longe da realidade. A história da multimídia pode ser dividida em três momentos: ���� Primeiro Momento: Articulação de várias linguagens e mídias, ou seja, a utilização de algumas mídias, sem vinculo aparente, de maneira articulada. Por exemplo: um filme mudo, com um som de fundo produzido por um tocador de fitas k-7. Exemplos de mídias: informações digitalizadas, dados alfanuméricos, texto livre, gráficos, animações, imagens Estáticas (Fotografia), som (efeitos especiais, discos, voz, rádio), imagens dinâmicas (vídeo, cinema, TV), etc ���� Segundo Momento: Criação de uma nova mídia e de uma nova linguagemunificada, ou seja, as mídias agora já são utilizadas em conjunto, como um filme que já possui áudio de vídeo em um único dispositivo. É neste momento que surge os conceitos de hipertexto e hipermídia e a conversão de mídias analogias em digitais e vice-versa começam a se complicar e merecer estudos mais apurados. ���� Terceiro Momento: Redefinição da multimídia, criando uma nova forma de trabalhar, comunicar-se, divertir-se, etc. É quando a multimídia atinge o patamar que vivemos hoje, na qual ela é indispensável nos sistemas modernos e onde as mídias são interativas, provenientes de muitas fontes, onde a principal delas é a internet. 1.4. A MULTIMÍDIA HOJE O uso da multimídia, como já foi dito, é indispensável nos sistemas atuais modernos. São exemplos de aplicações multimídia hoje: • Confecção de CD-ROMs e Sites Web; • Corporativo/Empresarial: Demonstrações e Apresentações; • Bancos de dados multimídia; • Simulações (jogos); • Comércio eletrônico; • Comunicação inter-pessoal (videoconferência, reconhecimento e síntese de voz, ...); Para que a multimídia fique cada vez melhor, alguns desafios devem ser enfrentados: • Aquisição, representação e apresentação de objetos multimídia (áudio, imagens, animações e vídeos); • Armazenamento e recuperação de objetos multimídia; • Transmissão de objetos multimídia em forma digital; Apostila de Sistemas Multimídia – Feito por Tenorio. 6 1.5. TIPO DE PRODUTOS MULTIMÍDIA Os produtos multimídia podem ser classificados de acordo com o seu grau de interatividade com o usuário. Vamos a essa classificação. 1.5.1. TÍTULOS Os títulos são os resultados da criação de produtos multimídia. São gravados em arquivos não executáveis e precisam de aplicativos para serem utilizados. Os títulos podem ser: � LINEARES: São títulos cuja apresentação do material segue ordem predeterminada. O usuário final tem poucos controles (avanço, retrocesso, avanço rápido etc.) e geralmente são intercambiáveis com animações. São exemplos de títulos lineares a apresentação de palestras em show de slides, demonstrações e tutoriais. � HIPERMÍDIA: Nestes títulos, a ordem de visualização é determinada pelo usuário final, que possui diversos controles para navegação (seguir referência, voltar, etc.). Os hipertextos são casos particulares de títulos hipermídia. São exemplos e títulos hipermídia os títulos de referência (dicionários), ajuda on-line, quiosques informativos, catálogos interativos, etc. Título Linear Título Multimídia 1.5.2. APLICATIVOS Os aplicativos são arquivos executáveis classificados mediante sua utilização dos títulos multimídia. Vamos a essa classificação. ���� Aplicativos com interface multimídia: São aplicativos desenvolvidos em ambientes normais de programação de aplicativos gráficos (p.ex.: Visual Basic e Delphi), que simplesmente utilizam-se da multimídia para facilitar sua utilização, ou seja, os aplicativos desta classificação não criam ou manipulam produtos multimídia, apenas os utiliza para facilitar a comunicação entre o computador e o usuário. São exemplos de aplicativos com interface multimídia: Aplicativos educacionais, aplicativos de produtividade pessoal (ex.: agendas, geradores de relatórios), Sistema de Gestão, Sistema de Mapeamento, etc. Apostila de Sistemas Multimídia – Feito por Tenorio. 7 Tela de um aplicativo com interface multimídia ����Aplicativos multimídia: São aplicativos cuja principal função é criar/manipular títulos multimídia. Processam o próprio material de multimídia, geralmente em tempo real. É um estágio avançado dos sistemas gráficos interativos e podem sem implementados em qualquer linguagem de programação de sistemas (ex.: C++ ou Java). São exemplos de aplicativos multimídia: • Ferramentas de manipulação de imagens: Corel Draw, PhotoShop, Paint, etc; • Criação de maquetas eletrônicas, imagens médicas: Sketchup, VRML, etc; • Sistemas de computação musical: Sound Forge, ACID, etc; • Sistemas de modelagem 3D e Realidade Virtual: VRML, Sketchup, etc; Tela de um aplicativo multimídia: Sound Forge Apostila de Sistemas Multimídia – Feito por Tenorio. 8 1.6. SITES Os sites são os mais importantes títulos hipermídia da atualidade e por isso precisam de um estudo mais apurado. Sabemos que para usar um título é necessário um aplicativo. No caso dos sites o aplicativo é o navegador (browser), como exemplo temos o Internet Explorer, Netscape, Opera, Google Chrome, entre outros. Com o avanço dos sites foi possível trazer a multimídia para a internet. Dificuldades para autoria de multimídia na Internet. • Padronização: antigamente, uma grande dificuldade na criação de sites a ausência de padronização entre os navegadores, porém, essa dificuldade está acabando, pois os analistas se conscientizaram que a padronização é algo interessante para todos. Apesar disso, ainda é possível encontrar problemas de padronização em alguns navegadores atuais. • Limitações de faixa dos canais de acesso: possuir internet com velocidade aceitável ainda está muito caro, mas as previsões apontam para o fim deste custo tão elevado devido a políticas publicas e a importância de uma internet barata e acessível a todos. Tecnologias de fluxo contínuo (streaming): Muitos sites trabalham com tecnologia de fluxo contínuo, o chamado Streaming. Essa tecnologia permite aos usuários terem acesso a informações em tempo real, através de sons, vídeos e animações transmitidas ao vivo. Essa tecnologia é orientada para títulos lineares e baseia-se em particionar um arquivo em pedaços e enviá-los para o usuário em seqüência e continuamente. O receptor é capaz de usar ou reproduzir os dados à medida que eles chegam. O software do receptor pode então começar a processar os pedaços tão logo os receba. Por exemplo, um sistema de streaming pode particionar um arquivo de áudio em vários pacotes, com tamanhos ajustados para a largura de banda disponível entre o cliente e o servidor. Quando o cliente tiver recebido pacotes suficientes, o software pode simultaneamente reproduzir um pacote, descomprimir um outro e receber um terceiro. Este modelo contrasta com o método mais tradicional, onde a reprodução é retardada até que todo o arquivo tenha sido recebido. O maior problema que essa tecnologia tenta resolver é a manutenção do tempo real na exibição dos dados. Um exemplo de aplicativo que usa essa tecnologia é o Real Player. Tela do Real Player versão 10.1 Apostila de Sistemas Multimídia – Feito por Tenorio. 9 2 – PLATAFORMAS As Plataformas Multimídia são os computadores e dispositivos de hardware utilizados para a criação e reprodução de títulos multimídia. 2.1. Tipos de Plataformas • Plataforma de entrega: é o hardware do usuário final. Apenas para uso dos títulos e aplicativos. • Plataforma de desenvolvimento: é o hardware do desenvolvedor. Pode ser dividido em: o Plataforma de autoria: hardware para criação dos aplicativos multimídia e com interface multimídia; o Plataforma de criação de material: hardware para criação dos títulos lineares e hipermídia. Podem ser • Dispositivos gráficos: monitores, adaptadores gráficos, dispositivos de entrada gráfica, dispositivos de cópia; • Dispositivos multimídia: interfaces de som e de vídeo, interfaces de controle para equipamentos multimídia externos; São características das plataformas de desenvolvimento: � Processador rápido; � Grande quantidade de memória RAM; � Disco rígido rápido e de alta capacidade; � CD-ROM/DVD ROM rápidos; � Placa de som profissional; � Monitor de pelo menos 17"; � Adaptador gráfico com cor verdadeira na resolução de 1024 × 768, no mínimo. Lembre-se que as plataformas de entrega só precisam executar o produto multimídia, já as plataformas de desenvolvimento, precisam executar, além do produto multimídia, as ferramentas de criação desse produto.2.2. Principais Famílias de Plataformas 2.2.1. Wintel: Microcomputadores baseados em arquitetura Intel somados aos sistemas operacionais da Microsoft. A família Wintel é a mais difundida no mundo, pois o seu sistema operacional é o mais usado e a arquitetura dos computadores da Intel é a mais vendida. O padrão de configuração multimídia pertencente a essa família é o MPC (PC - Multimídia), criado para evitar problemas de incompatibilidade entre os diversos padrões existentes em cada um dos componentes de um PC. Os principais hardwares que um MPC pode possuir são: o drive de CD/DVD-ROM, a placa de som, as caixas de som, o microfone e o scanner. Obviamente o padrão MPC possui muito outros hardwares não citados aqui. Os dispositivos são isolados dos aplicativos através de controladores (“drivers”). Apostila de Sistemas Multimídia – Feito por Tenorio. 10 2.2.2. Unix: Estações de trabalhos baseadas no sistema operacional Unix e seus descendentes. No geral, essa família possui um desempenho mais alto que Wintel, porém as ferramentas de desenvolvimento requerem um maior treinamento dos usuários, o que pode onerar o uso dessa família. O transporte entre plataformas da família exige no mínimo a recompilação e podem ser utilizadas para criação de material para a família Wintel. 2.2.3. Macintosh: baseadas no sistema operacional da Apple. Para quem nunca trabalhou com nenhuma família de plataformas, esta é a opção mais simples de uso e possui as melhores ferramentas para se trabalhar com som, porém a difusão em nosso país é muito pouca, tornando-a incompatível com a maioria das ferramentas disponíveis no mercado. (“cult”). 2.3. Arquitetura de Multimídia do Windows São as mais estudadas devido a sua grande difusão no mercado. O ambiente Windows é bastante adequado para o desenvolvimento de aplicativos, enquanto que outras famílias são mais fortes na criação de títulos. A arquitetura de multimídia do Windows é baseada em ferramentas, bibliotecas, controladores e principalmente, em API’s ( Interfaces de Programação de Aplicativos - Application Programming Interfaces); Arquitetura de Multimídia para Ambiente Windows Apostila de Sistemas Multimídia – Feito por Tenorio. 11 ���� Interfaces de Programação de Aplicativos multimídia do Windows - 16 bits: • Graphics Device Interface (GDI) - imagens estáticas e desenhos. É um dos três subsistemas principais do Microsoft Windows. É um padrão desse sistema operacional para representar objetos gráficos e transmiti-los para dispositivos de saída, como monitores e impressoras. É responsável por tarefas como desenhar linhas, curvas e fontes, providenciando todo um API específico para a execução dessas operações. A capacidade mais relevante do GDI é a abstração dos dispositivos finais de visualização. Utilizando o mesmo código fonte pode-se esperar resultados idênticos em qualquer monitor ou impressora. Inadequado para jogos. • Media Control Interface (MCI) - áudio e vídeo digitais. Faz o controle de equipamento multimídia externo. A interface de controle de mídia (MCI) é uma linguagem de comandos padronizada para comunicação com dispositivos de multimídia, como compact disc, áudio em forma de onda (wave) e MIDI (Musical Instrument Digital Interface), videodiscos, arquivos AVI (Audio-Vídeo Interleaved), mixer de áudio, etc. A especificação MCI, liberada em 1991 pela Microsoft e IBM, define um conjunto de comandos básicos, que podem ser aplicados a qualquer dispositivo em geral, e comandos estendidos para tipos específicos de dispositivos [MUS93]. Estes comandos estão disponíveis através de dois tipos de interface de programação dentro da MCI [MIC94]: a interface de strings de comando e a interface de mensagens de comando. ���� Interfaces de Programação de Aplicativos multimídia do Windows - 32 bits: • Microsoft DirectX: interface para aplicações de tempo real (jogos tridimensionais e realidade virtual). O DirectX é uma coleção de APIs que tratam de tarefas relacionadas a multimídia para o sistema operacional Microsoft Windows, ou seja, é quem padroniza a comunicação entre software e hardware. Com a padronização de comunicação, o DirectX fornece instruções para que aplicações multimídia sejam feitas de maneira mais simples e compatível com a maioria das máquinas do mercado. • Open GL: pacote avançado, derivado dos produtos da Silicon Graphics. É uma API livre, utilizada na computação gráfica, para desenvolvimento de aplicativos gráficos, ambientes 3D, jogos, entre outros. É concorrente direto do DirectX. Realidade Virtual com DirectX Apostila de Sistemas Multimídia – Feito por Tenorio. 12 2.4. Tecnologia Orientada a Objetos Também na multimídia, as classes podem ser distribuídas em bibliotecas reutilizáveis. Os objetos são convenientes para a modelagem de entidades do mundo real, suportada por linguagens poderosas, como o Delphi, Visual Basic, C#, Java. Exemplo de modelo orientado a objetos. São exemplos de aplicativos multimídia orientado a objetos: Asymetrix Toolbook e Macromedia Director. ���� Conceitos básicos • OLE: utilização dos recursos de um aplicativo em outros aplicativos. O OLE é uma tecnologia orientada a objetos no Windows de componentes baseadas em objetos. • COM: permite que se trabalhe com componentes de software dotados de comportamento próprio, que podem ser inseridos em outros tipos de documentos e executar operações que foram programadas internamente, ou seja, é a aplicação de código executável nos títulos multimídia. Exemplo dessa tecnologia podem ser vistas no Microsoft Office, que possui o Basic embutido em seus documentos e em scripts para sites, como o VBScript, JavaScript, DHTML, entre outros. • WYSIWYG: sigla de What You See Is What You Get, ou seja, o que você vê é o que você tem. Esse conceito, fundamental para a multimídia hoje, diz que o usuário só deve enxergar no sistema tudo aquilo que ele pode usar. Não é interessante ver botões Apostila de Sistemas Multimídia – Feito por Tenorio. 13 desabilitados por exemplo. É o fim do comando Enable := false; Só deve aparecer o que estiver disponível. • Plug-and-play: recursos pré-instalados no sistema operacional. Faz com que o computador reconheça e configure automaticamente qualquer dispositivo que seja instalado, facilitando a expansão segura dos computadores e eliminando a configuração manual. • Hot-plugging: conexão de periféricos com o sistema ligado, sem a necessidade de reinicializarão. Exemplo de edição de objeto com tecnologia OLE. Exemplo de uso do COM Apostila de Sistemas Multimídia – Feito por Tenorio. 14 2.5. Dispositivos de Armazenamento Os dispositivos de armazenamento são aqueles que guardam as informações para uso posterior. Como exemplo, podemos citar: • Pen-Drivers; • CD-ROMs/DVD-ROMs; • Discos removíveis (ZIP); • Discos Rígidos; • Servidores Remotos; ���� Tecnologias de CD Os dados são gravados no CD em uma espiral com sentido horário a partir do centro do CD. A primeira trilha gravada é a trilha interna (trilha zero), com o mapeamento do disco, os dados são gravados a seguir e na parte mais externa é inserida uma trilha que indica a finalização do CD. A leitura dos dados de um CD é feita utilizando-se velocidade linear constante (CLV Constant Linear Velocity), ou seja, mantém a velocidade de reprodução constante, alterando a velocidade de rotação do disco. O CD possui duas áreas distintas: uma superfície reflexiva denominada de pits e áreas entre estes pits, que são criadas por aparelhos de masterização (corroem a superfície reflexiva) chamada de depressões ou lands. Conforme o disco gira no controlador de CD, o cabeçote de leitura emite um luz infra-vermelha que reflete somente nos pits. Esta reflexão é captada por um diodo receptor sensível a luz. Um espelho semi-reflexivo permite que estaluz refletida seja então transformados em sinais elétricos e então convertidos para bits e bytes. O CD foi criado em 1982, com o objetivo de armazenar o áudio digital com um padrão de alta qualidade. Em 1984, as especificações do CD de áudio foram estendidas para CD-ROMs, para armazenamento de aplicações e dados para computadores, e depois para CD-I, Photo CD, Vídeo CD, CD Extra e vários outros formatos. As tecnologias (formatos) existentes são: • CD-DA ("red book"): Pioneiro, CDs de Áudio. O CD-DA (Digital Áudio) foi o primeiro formato de disco laser criado pela Sony e pela Philips, e que obedece ao padrão Red Book. Este padrão descreve as propriedades físicas dos CDs, bem como a codificação utilizada para o áudio digital (16-bit PCM, sistemas de modulação, correção de erros entre outros). Os CDs de áudio fornecem até 76 minutos de tempo de execução. • CD-ROM ("yellow book"): CDs de Áudio e Dados; A primeira extensão do CD-DA, foi o CD-ROM (Read Only Memory), que permitia o armazenamento de dados para computador e definido pelo padrão Yellow Book. A capacidade de um CD-ROM é de 650 Mbytes. As duas principais diferenças entre o CD-ROM e o CD-DA são as seguintes: - Os dados em um CD-ROM são divididos em setores contendo dados e códigos de correção de erros bem mais complexos. - Os dados estão contidos em arquivos, e desta forma, há a necessidade de se ter um sistema de arquivos para que estes dados sejam acessados de forma fácil e rápida (formatos High Sierra, ISSO 9660). Apostila de Sistemas Multimídia – Feito por Tenorio. 15 Uma extensão da padronização Yellow Book foi o CD-ROM/XA (eXtendend Architecture). O CDROM/XA define um novo formato de setor para permitir dados de computador (mode 1), bem como dados de áudio compactado e informações de imagem/vídeo (mode 2) para poderem ser lidos e reproduzidos simultaneamente. Os dados do computador podem ser combinados ou entrelaçados com áudio e imagens. Este formato não foi muito bem sucedido, mas, entretanto, três outros formatos são baseados nos seus princípios: Photo CD (arquitetura derivada para armazenamento de fotos), Vídeo CD e CD Extra. Como será visto o CD-i também utiliza setores mode 2 e apresenta grande semelhança no tratamento no tratamento do áudio. • CD-I ("green book"): Ideal para jogos; Disco laser interativo (Compact Disc interative) foi desenvolvido pela Philips e pela Sony para sistemas multimídia destinados para a educação e treinamentos. Como este formato prevê uma saída para vídeo/televisão, o uso doméstico foi intensificado não em conectados a PCs, mas sim nas salas de estar. O padrão que define as especificações deste formato é conhecido como Green Book, que é considerado como o padrão mais abrangente na área de CDs, pois não trata somente da codificação dos dados (ADPCM para áudio, vídeo em tempo real, MPEG), mas também do hardware e do sistema operacional (CD-RTOS). Este tempo é suficiente para a execução da Nona Sinfonia de Beethoven , e foi o critério adotado pela Philips e pela Sony para a determinação dos tamanho dos setores e do próprio CD. • CD-R ("orange book"): CDs graváveis com multisessões; O padrão Orange Book foi um padrão desenvolvido em 1998 para definir sistemas CD-R (Disco laser regravável ou Compact Disc Recordable). Estes sistemas permitem que sejam gravados dados em um CD para armazenamento ou para pré-masterização da multimídia. A principal diferença entre o Orange Book e os demais formatos é que se pode refazer o diretório contido na guia interna para mostrar itens adicionais que possam ter sido acrescentados em uma sessão de gravação posterior. • CD-RW e CD-MO: CDs re-graváveis; Também seguem o padrão Orange book; • Vídeo-laser ("blue book"): vídeo analógico; O formato Enhanced Music CD (ou CD Extra) definido pelo padrão Blue Book, especifica como aúdio e dados (imagens, vídeos e textos) podem ser gravados em um CD multisessão fechado, isto é, não regravável. Este formato está em via de extinção; • Vídeo-CD ("white book"): vídeo digital MPEG. Formato desenvolvido exclusivamente para vídeos em CD-ROM. Este formato é conhecido como White Book e pode conter até 74 minutos de vídeo MPEG e sons digitais de alta qualidade. • DVD: Em 1997, uma nova mídia para armazenamento de dados foi desenvolvida (seguindo o mesmo princípio dos CDs), o DVD (primeiramente, conhecido como Digital Vídeo Disk, e depois como Digital Versatile Disk). As três principais características relacionadas aos DVDs são: capacidade de armazenamento, interoperabilidade e compatibilidade. Os primeiros discos DVD possuíam uma capacidade de armazenamento de 4.7 Gbytes (atualmente esta capacidade pode chegar até 17 Gbytes). Com esta nova perspectiva de armazenamento os desenvolvedores de aplicação multimídia (jogos, educativos, entre outros) deixaram de estar limitados, pois um disco DVD pode armazenar mais de 2 horas de vídeo (com excelente qualidade), dados adicionais e ainda som digital Apostila de Sistemas Multimídia – Feito por Tenorio. 16 surround (conceito da expansão da imagem do som a três dimensões. O Surround recria um ambiente mais realista de áudio, presente nos sistemas de som de cinemas, teatros, entretenimento em casa, vídeos, jogos de computador, dentre outros). As tecnologias laser utilizadas, bem como o formato padrão dos dados, permitem que se utilizem DVDROM de um computador e um player da mesma forma. Como resultado, discos DVD podem ser utilizados tanto na sua televisão bem como no seu computador. As empresas que produzem os drives de DVD-ROMs têm a preocupação de que estes sejam compatíveis com os CD-ROMs. Esta filosofia permite que se utilize o mesmo drive para leitura de CD- ROMs e DVDs. O DVD também compartilha o padrão White Book. Obs.: Os padrões cuja nomenclatura baseia-se em cores de livros (books), nada têm haver com a cor da mídia do CD. ���� Qualidade de CD O que muita gente não sabe é que a qualidade de um CD/DVD é diferenciada por um sinal de ‘+’ ou ‘–‘ em seu nome. Assim temos, independentemente da tecnologia utilizada, os tipos: • CD + R/DVD+R: Melhor qualidade; • CD – R/DVD – R: Menor custo; Informações sobre essa diferenciação: � 1 – Quase toda empresa fabrica os dois tipos (geralmente com nomes diferentes), mas sempre o –R é bem mais barato que o +R; � 2 – Sites e Revistas especializadas informam que o –R roda em 99% dos players de mesa, os +R, em 100%; � 3 – A Philips dá garantia de 100 anos para o +R e 20 anos para o –R; � 4 – A Sony fabrica mais de 4 marcas do –R e só uma do +R (que leva o nome de Sony mesmo); � 5 – Se você bater um +R de "quina" no chão, nada acontece, já o –R solta o verniz em forma de meia lua; � 6 – O +R suporta temperaturas muito maiores do que o –R; � 7 – Se você colocar o +R naquelas máquinas que trocam o verniz, eles continuam funcionando, o –R não; � 8 – Se você expor o seu –R a uma luz muito forte, ele começa a dar erro de leitura, com a mesma luz, o +R não dá nenhum tipo de erro; Apostila de Sistemas Multimídia – Feito por Tenorio. 17 3 – AUTORIA Os sistemas de autoria multimídia tratam dos softwares de criação de produtos multimídia, sejam eles títulos e/ou aplicativos. 3.1. FERRAMENTAS PARA DESENVOLVIMENTO DE MULTIMÍDIA As ferramentas de desenvolvimento multimídia são, em sua maioria, baseadas em metáforas e um aspecto importante do uso da multimídia é a curva de aprendizado, ou seja, quanto melhor forem aplicados os conceitos da multimídia, mais rápido o usuário aprenderá a utilizar os recursos disponíveis a ele. Lembre-se que a principal razão da multimídia existir é facilitar a interação entre o usuário e a máquina. 3.2. AUTORIA DE TÍTULOS MULTIMÍDIA 3.2.1. Títulos Lineares: São exemplos de ferramentas de autoria de títulos lineares: • Power Point: orientado para slides. Usa a metáfora de show de slides, possui um editorgráfico interno, exporta seu conteúdo para o formado HTML e utiliza-se de tecnologias como o OLE e o COM. • Acrobat Exchange: orientado para documentação on-line. Usa a metáfora de documentos, é capaz de importar formatos como o PostScript e gera documentos em formato PDF. 3.2.2. Títulos Hipermídia: É uma característica dos títulos hipermídia a presença de controles de navegação na forma de botões, palavras sensíveis (hot words) e/ou pontos sensíveis (hot spots). O resultado desses controles são os saltos para um local qualquer do título e sub-janelas de utilização do mesmo. Os títulos hipermídia podem ser gerados a partir de ferramentas textuais ou visuais. Essas ferramentas geralmente possuem um modo de operação para criação e outro para consulta. São exemplos de formatos hipermídia: HLP, RTF e HTM. A hipermídia na internet é possível através da linguagem de hipertexto HTML (a internet usa o protocolo de hipertexto conhecido como http). ���� HTML (Hipertext mark-up language): A linguagem de programação HTML é uma linguagem textual derivada da SGML (standard generalized mark-up language) e pode ser editada em quaisquer editores de texto (como o Microsoft Word e o Bloco de Notas) ou em ferramentas de edição de sites (como o Dreamweaver da Macromedia, o Microsoft Front Page e o Microsoft Expression Web). O HTML pode ser gerado por conversão de formatos de editores de texto. É capaz de usar referências no formato URL e pode embutir qualquer tipo de mídia, distinguível pelas extensões dos nomes dos arquivos. A plataforma de entrega executa apenas o navegador (“browsers”). Apostila de Sistemas Multimídia – Feito por Tenorio. 18 Exemplo de código HTML: <html xmlns="http://www.w3.org/1999/xhtml"> <head> <meta http-equiv="Content-Language" content="pt-br" /> <meta http-equiv="Content-Type" content="text/html; charset=utf-8" /> <title>Untitled 1</title> <style type="text/css"> .style1 { text-align: center; } </style> </head> <body> <p class="style1"><strong>SISTEMAS MULTIMÍDIA</strong></p> <p> </p> <p>Esta página é apenas para teste durante o curso de Sistemas Multimídia do professor Tenorio.</p> <p>Todos os alunos devem prestar atenção. </p> <p><strong>Links Legais:</strong></p> <p>- <a href="http://www.osfedera.com">Os Federa</a></p> <p>- <a href="http://www.facape.br">Facape</a> </p> <p class="style1"> <img alt="" src="file:///C:/Documents%20and%20Settings/Administrador/Meus%20documentos/Minhas%20imagens/Multi midia/inicio.bmp" width="616" height="286" /></p> </body> </html> O mesmo código visto no navegador Apostila de Sistemas Multimídia – Feito por Tenorio. 19 Ferramentas para edição de HTML: Como já vimos, alguns aplicativos são especializados na criação de sites, como o Dreamweaver da Macromedia, o Microsoft Front Page e o Microsoft Expression Web. O Microsoft Expression Web veio para suceder o Front Page e trouxe muitos avanços no que diz respeito a criação de sites. É um editor de HTML, CSS, XML, ASP.NET 2.0, XHTML e etc. No estilo WYSIWYG, foi lançado ao público em maio de 2005, e atualmente (2009), está na versão 3. Nele, o autor trabalha de maneira visual ou textual (do jeito que achar melhor). Tanto o Dreamweaver quanto o Expression Web apresentam suporte para diversos recursos de multimídia. O mesmo código visto no Expression Web – note a equivalência com o navegador. Obs.: Antigamente o autor de sites deveria definir quais os navegadores preferenciais para visualização do título na página inicial e a resolução mínima da tela que permitia a visualização mais adequada, porém, com a padronização existente hoje, essas informações tornaram-se desnecessárias. Apostila de Sistemas Multimídia – Feito por Tenorio. 20 ���� Ferramentas de Autoria Hipermídia Existem muitas ferramentas de autoria para títulos hipermídia, uma delas é o Adobe Director. O Adobe Director, antigamente chamado de Macromedia Director (antes da compra da Macromedia pela Adobe) é uma aplicação que permite a criação de conteúdo multimídia interativo e complexo para distribuição em mídia (CD-ROM, DVD) ou apresentação em quiosques. O aplicativo usa metáforas do meio teatral ou cinematográfico em seu ambiente de edição, como stage (palco) para a área de edição, cast (elenco) para os objetos que podem ser inseridos e score (roteiro – linha do tempo) para o modo e o momento em que cada membro do elenco é mostrado. A ferramenta é capaz de incorporar vários tipos de conteúdo dos mais diversos formatos de arquivo de imagem, som e vídeo como por exemplo: AVI, JPEG, QuickTime, BMP, etc. Apesar de suportar vários formatos de arquivo, é na verdade apenas um integrador para eles e supõe que foram produzidos em outras aplicações. Seu formato de autoria é o .DIR e pode ser distribuído em vários formatos, como o .EXE, vídeos, Shockwave Movie, etc. Possui uma linguagem de script chamada Lingo que permite controlar os elementos apresentados. A funcionalidade do programa pode ser estendida através de plug-ins chamados Xtras, fornecidos por outras empresas ou desenvolvidos em C++ usando o Macromedia XDK. Pode também criar arquivos executáveis autônomos das apresentações, chamados de projetores, os quais podem ser executados em Windows e Macintosh. O Director surgiu no final dos anos 80 em uma versão para o Apple Macintosh. No começo dos anos 90 ganhou uma versão para Windows. Foi bastante popular na metade e fim dos anos 90, vários artistas lançaram CDs com faixas interativas produzidas com Director. Versão 11 do Adobe Director Apostila de Sistemas Multimídia – Feito por Tenorio. 21 ���� Padrões para hipermídia Assim como o formato padrão HTML permite que os autores escolham entre grande variedade de ferramentas, seria desejável que existissem formatos padronizados para hipermídia genérica. Ainda não existe um formato padronizado de grande difusão, mas várias tentativas de padronização estão em curso: - MHEG (Multimedia Hypermedia Expert Group): padrão desenvolvido pela ISO (International Standards Organization), para intercâmbio de informação em formato de hipermídia, em redes e sistemas distribuídos de arquitetura heterogênea. Foi feito para integrar e codificar as partes de multimídia para que se atinja o objetivo de com "mínimo de recursos" de computação e independente da plataforma, trabalhar com qualquer aplicativo multimídia. Integração do MHEG - AAF (Advanced Authoring Format): padrão desenvolvido pela Microsoft como formato comum para autoria de multimídia. Foi apresentado em companhia de empresas como Avid Technology, Adobe, Digidesign, Matrox Video Products Group, Pinnacle Systems, Softimage, Sonic Foundry e Truevision. É um padrão de arquivo voltado para troca de informações entre as ferramentas de produção. - SMIL (Synchronized Multimedia Integration Language): definido pelo W3C, consórcio padronizador da Internet, linguagem de marcação apropriada para transmissão de conteúdo multimídia em fluxo contínuo, suportada pelo Real Player. A tradução para SMIL, que se pronuncia smile (sorriso), é Linguagem Sincronizada de Integração Multimídia. Em outras palavras, trata-se de uma linguagem que permite integrar um conjunto de objetos multimídia independentes em uma apresentação multimídia sincronizada. O SMIL é um documento em XML capaz de tornar o conteúdo mais acessível independente do formato. Com a linguagem, é possível descrever o comportamento atemporal da apresentação do vídeo ou áudio, determinar a disposição no monitor e associar links aos objetos multimídia. Uma das vantagens de utilizar SMIL é permitir que o conteúdo de áudios e vídeos seja indexados por mecanismos de busca. Isso ocorre pelo fato de o SMIL descrever a apresentação, acabando com o mistério que é o conteúdo de um vídeo para robôs como o do Google, por exemplo. Apostila de SistemasMultimídia – Feito por Tenorio. 22 3.3. AUTORIA DE APLICATIVOS 3.3.1. Autoria de Aplicativos com Interface Multimídia Neste caso, temos a Multimídia como produto meio, ou seja, o objetivo do aplicativo não é a multimídia, mas fará uso da multimídia pra facilitar a interação entre o usuário e o computador, sendo uma interface entre os dois. Mas afinal, o que é a interface usuário- computador? Vejamos agora esse conceito na visão de vários autores: • “A face que o sistema computacional apresenta ao mundo.“ (Hooper); • “Um dispositivo que serve de limite comum às diferentes entidades comunicantes." (Coutaz); • “Interface deve ser encarada, não tanto ao nível técnico mas, mais ao nível humano.“ (Fernandez et Al); • "O elemento motivacional das interfaces (...) é, de certo modo, o grau de aceitação psicológica do sistema, que é importante não negligenciar.” (Gomes et Al); A autoria de aplicativos com interface multimídia requer Linguagens de Programação que trabalham com interfaces gráficas e manipulação de títulos, como é o caso do Delphi, Java, Visual Basic, Asymetrix ToolBook, etc. A programação nestas ferramentas pode ser feita de maneira textual ou visual e muitas pelas também trabalham com metáforas. Apresentam mecanismos para inclusão de material na interface e mecanismos que distribuem o tempo de execução da interface com o resto do aplicativo. ���� Asymetrix Toolbook O ToolBook surgiu no início dos anos de 1990, com a proposta de criar Multimídia. Possui sua metáfora baseada em livros. Um aplicativo (livro) é dividido em telas (páginas). Possui controles de navegação, como botões e palavras sensíveis, consistindo em várias janelas independentes. É limitado quanto à capacidade de hipertexto e usa como codificador o OpenScript, que é uma linguagem de fácil aprendizado. Permitem a inclusão de procedimentos escritos em outras linguagens como o C ou C++ e possui sua estrutura baseada em objetos. O modelo de programação é o popular push-pull. O toolbook possui técnicas de animação de interface, executa clipes de vídeo e pode invocar facilmente à interface MCI do Windows. É capaz de criar jogos, catálogos eletrônicos com som e imagens de vídeo, simuladores, demonstrações de produtos e serviços, sistemas de treinamento à distância, quiosques informativos, portfólio para artistas, CD-ROM institucional, revistas e livros em CD-ROM, e muito mais. Apostila de Sistemas Multimídia – Feito por Tenorio. 23 Tela do Asymetrix Toolbook ���� Borland Delphi O Borland Delphi é um compilador, uma IDE e uma linguagem de programação, produzido antigamente pela Borland Software Corporation e atualmente produzido pela Embarcadero. O Delphi, originalmente direcionado para a plataforma Windows, chegou a ser usado para desenvolvimento de aplicações nativas para Linux e Mac OS, através do Kylix e para o framework Microsoft .NET em suas versões mais recentes. O desenvolvimento do Kylix foi descontinuado. Atualmente (2009), há um projeto chamado Lazarus que possui uma interface muito semelhante ao Delphi e a característica de ser multiplataforma, ou seja, roda em Linux, Windows, OS/2, Mac OS tradicional, Mac OS X, ARM, BSD, BeOS, DOS e mais. O nome Delphi é inspirado na cidade de Delfos, o único local na Grécia antiga em que era possível consultar o Oráculo de Delfos. O nome deve-se ao fato de que os desenvolvedores do compilador buscavam uma ferramenta capaz de acessar o banco de dados Oracle, daí o trocadilho: "a única maneira de acessar o oráculo é usando Delphi". O Delphi é um ambiente de desenvolvimento de softwares com as seguintes particularidades: 1. Visual: A definição da interface e até mesmo de parte da estrutura de um aplicativo Delphi pode ser realizada com o auxílio de ferramentas visuais. Por exemplo, uma tela é criada com um simples clique e um botão, selecionando esta imagem em uma barra de ferramentas e clicando sobre a tela onde ele deve aparecer; Apostila de Sistemas Multimídia – Feito por Tenorio. 24 2. Orientada a Objeto: Os conceitos de classe, herança e polimorfismo são abarcados pela linguagem de programação do Delphi, o Object Pascal. Esta não é, no entanto, uma linguagem puramente orientada a objeto como Java, Smalltalk e Eiffel; 3. Orientada a Eventos: Cada elemento de uma interface de aplicativo é capaz de capturar e associar ações a uma série de eventos; 4. Compilada: A geração de código em linguagem de máquina acelera a execução dos aplicativos. O Delphi usa metáfora dos antigos armários de formulários, onde cada programa é um armário e cada tela é um formulário. Possui muitos recursos para a criação de interfaces e seu ambiente de desenvolvimento é formado por múltiplas janelas. Usa tecnologias como o OLE, COM e WYSIWYG de maneira simples e descomplicada. O Delphi é uma excelente opção para criação de todos os tipos de aplicativos com interface multimídia, sejam eles comerciais, jogos, etc. Além de ser uma linguagem extremamente simples, possui uma velocidade de criação e execução muito superiores ao Java, por exemplo. Tela do Delphi 2007 Apostila de Sistemas Multimídia – Feito por Tenorio. 25 3.3.2. Autoria de Aplicativos Multimídia Neste caso, a Multimídia é o produto final do aplicativo. Esses aplicativos geralmente apresentam interfaces gráficas e comportamento de tempo real. Muitos deles usam serviços de multimídia do sistema operacional, como o MCI (invocado por uma interface de mensagens de comando, onde a função recebe o comando na forma de texto) e o DirectX do Windows. No caso do MCI, seus comandos são divididos em quatro categorias: • De sistema: para uso do SO; • Exigidos: padrões disponíveis ao usuário; • Básicos: comandos de controle largamente utilizados; • Estendidos: comandos avançados; Os principais comandos do MCI são: sound, open, close, status, load, play, pause, etc. Exemplos de Aplicativos Multimídia Apostila de Sistemas Multimídia – Feito por Tenorio. 26 No caso do Direct X, a funcionalidade é provida na forma de comando de estilo e interfaces de objetos, como também um administrador de objetos. Os componentes que incluem o DirectX são: • DirectX Graphics, incluindo dois APIs: o DirectDraw : para desenhos de gráficos 2D; o Direct3D: para desenhos de gráficos 3D; • DirectInput : para distribuição de dispositivos de controle - teclados, mouses, joysticks, ou outros controladores de jogo; • DirectPlay: para comunicação em rede local de computadores ou internet; • DirectSound: para a reprodução e gravação de sons de waveform; o DirectSound3D (DS3D): para a reprodução de sons 3D; • DirectMusic: para reprodução de trilhas sonoras ou toradas no DirectMusic Producer; • DirectX Media, que inclui: o DirectAnimation: para animação 2D da web; o DirectShow: para reprodução de multimídias e streaming media e contém plugins de DirectX para processamento de sinais de áudio; o DirectX Transform: para interatividade na internet; o Direct3D Retained Modo: para níveis mais alto de gráficos 3D; o DirectX Video Acceleration: para aceleração de reprodução vídeo. • DirectX Media Objects: apoio por streaming objects como codificadores, decodificadores, e efeitos. • DirectSetup: para a instalação de componentes de DirectX. 3.4. AUTORIA DE SÍTIOS (SITES) Os sites são títulos multimídia de extrema importância nos dias de hoje, por isso merece um estudo especial. Geralmente os sites são classificados em: • Sítios Estáticos (Ex.: Ferramenta – FrontPage); • Sítios servidores de multimídia em fluxo contínuo. • Sítios Dinâmicos; 3.4.1. Sites Estáticos Os sites estáticos apenas apresentam informações ao usuário, sem que o mesmo possa enviar qualquer tipo de informação a ele, isto significa que esses tipos de sites não interagem com o usuário, que é um mero leitordas informações disponíveis; 3.4.2. Sítios servidores de multimídia em fluxo contínuo. Estes sites fazem parte de uma classificação especial e recebem informações continuamente e em tempo real, de um servidor, usando a tecnologia denominada Streaming. Essa tecnologia já foi discutida no item 1.6 do capítulo 1 desta apostila. Apostila de Sistemas Multimídia – Feito por Tenorio. 27 3.4.3. Sítios Dinâmicos Neste caso, as páginas possuem código ativo, o que permitem ao usuário interagir com os recursos disponíveis no site. O código ativo são códigos algoritmos que podem ser embutidos em alguns títulos multimídia, principalmente em páginas da internet. Os principais tipos de código ativo: • Scripts – programas em código fonte, embutidos no código HTML (ex. JavaScript, VBScript, DHTML). Utilizados para fazer com que a página responda com ações simples às solicitações do usuário. • Componentes – arquivos de código binário, invocados quando a referência é localizada na página. Esses componentes podem ser: o De acesso restrito aos recursos do cliente, como é o caso de aplicativos Java; o De acesso irrestrito aos recursos do cliente, como é o caso do Java Beans e ActiveX. A execução dos algoritmos que compõem o código ativo pode ser feita de duas formas: o Do lado do Servidor; o Do lado do Cliente; ���� Lado do Servidor: Neste caso, quem executa o algoritmo é o servidor que disponibiliza o site. Um exemplo dessa tecnologia são os sites de compras, onde o usuário faz uma solicitação, o servidor processa a solicitação e responde, gerando uma página HTML, contento todos os produtos que correspondem aos dados fornecidos pelo usuário durante sua solicitação. Exemplo – solicitação do usuário Apostila de Sistemas Multimídia – Feito por Tenorio. 28 Exemplo – Resposta do Sistema Um exemplo de tecnologia que executa ao lado do servidor é o CGI (Common Gateway Interface – forma padrão (“common”) de comunicação (“Interface”) entre diferentes processos (“gateway”)). O CGI não é uma linguagem, é um protocolo que pode ser usado para comunicar forms da Web com o seu programa. Um script CGI pode ser escrito em qualquer linguagem que possa ler STDIN, escrever STDOUT, e ler variáveis de ambiente, ou seja virtualmente qualquer linguagem de programação (Exemplos: C, Perl - Practical Extraction and Report Language, etc). Uma seqüência “típica” de passos para um script CGI, em qualquer linguagem, pode ser: 1. Leia o input do form do usuário; 2. Faça o que desejar com os dados; 3. Escreva a resposta HTML em STDOUT; Existem aplicativos específicos para a criação de sites dinâmicos, cuja principal característica é a execução do lado do servidor. A seguir, veremos as duas tecnologias mais importantes neste sentido. • ASP (Active Server Pages). O ASP é uma estrutura de programação (um framework) em Script que se utiliza de VBScript, JScript, PerlScript ou Python processadas pelo lado servidor para geração de conteúdo dinâmico na Web. Ele executa nativamente em servidores Windows, através do serviço chamado de IIS (Internet Information Service) - o servidor web da Microsoft, ou do PWS (Personal Web Server) em ambientes com Apostila de Sistemas Multimídia – Feito por Tenorio. 29 Windows 98. Além disso, ele pode executar em outras plataformas, como Linux no servidor Apache quando usando um Módulo de um programa como o Tomcat. O script é interpretado no lado do servidor e o que é enviado ao lado do usuário (navegador, por exemplo) é apenas a saída, que normalmente é uma linguagem de marcação como HTML, XHTML ou XML, por isso, qualquer navegador atual é capaz de receber informações geradas em ASP. Linguagens como o Javascript e o VBScript podem ser processadas pelo navegador do visitante e, neste caso, este precisa ser compatível com a linguagem. Contudo, como o ASP é processado pelo servidor, há independência de navegadores, uma vez que eles só processarão HTML. Através dessa tecnologia também é possível executar consultas a Banco de Dados, através da biblioteca de componentes ActiveX. O uso desta tecnologia vem diminuindo sensivelmente pela maturação da tecnologia .NET, sendo gradativamente substituído pelo ASP.NET que proporciona uma gama maior de recursos e um melhor desempenho. O ASP gera arquivos com a extensão .ASP que contém uma combinação de comandos HTML e lógica de Script. • PHP (PHP Hypertext Preprocessor). A linguagem PHP é uma linguagem de programação de domínio específico, ou seja, seu escopo se estende a um campo de atuação que é o desenvolvimento web, embora tenha variantes como o PHP-GTK. Seu propósito principal é de implementar soluções web velozes, simples e eficientes. É uma linguagem de elaboração de scripts embutida no HTML que opera no lado do servidor. Suas principais vantagens são: o Simplicidade, Facilidade de uso de banco de dados; o Possui código-fonte aberto; o Velocidade e robustez; o Estruturado e orientação a objeto; o Portabilidade - independência de plataforma; o Tipagem fraca; o Sintaxe similar a Linguagem C/C++ e o PERL; ���� Lado do Cliente: Neste caso, quem executa o algoritmo é a máquina do usuário, para tanto, é necessário que, primeiramente, o usuário faça o download do código para posterior execução. Comparando essa forma de execução com a anterior, a execução do lado do cliente mostra-se mais lenta no início, devido à necessidade do download e bem mais rápida durante o uso, por não mais depender da banda de internet disponível. O navegador faz automaticamente o download quando uma referência dessas é encontrada. Um exemplo comum desse tipo de execução são programas e applets feitos em Java para internet. Exemplo de Applet em Java Apostila de Sistemas Multimídia – Feito por Tenorio. 30 Código Fonte do exemplo anterior: import java.awt.*; import java.applet.*; public class Soma extends Applet { TextField tf1, tf2, tf3; Label l1, l2, l3; Button b; public void init ( ); setBackground (Color.blue); tf1 = new TextField (“0”, 10); tf2 = new TextField (“0”, 10); tf3 = new TextField (“0”, 10); l1 = new Label (“Informe A:”); l2 = new Label (“Informe B:”); b= new Button (“Soma”); l3 = new Label (“Resultado:”); add(l1); add(tf1); add(l2); add(tf2); add(l3); add(tf3); add(b); tf1.setText (“0”); tf2.setText (“0”); } public void paint (Graphics g){ String s = tf1.getText (); int a = Integer.parseInt (s); s = tf2.getText (); int b = Integer.parseInt (s); int c = a + b; String r = String.valueOf (c); tf3.setText (r); } public boolean action (Event evt, Object arg) { repaint (); return true; } } Exemplo de Aplicativo Java Atenção: O desenvolvimento de sites dinâmicos requer a integração de diversas tecnologias, de construção de sites, de desenvolvimento de software e de bancos de dados. Um site dinâmico executa funções e interage automaticamente apresentando determinada solução. Os sites dinâmicos permitem a dinamização das informações, obtendo-se uma aproximação maior dos aspectos que tanto atraem as pessoas. Apostila de Sistemas Multimídia – Feito por Tenorio. 31 4 – OS PROJETOS: PRODUÇÃO DE MULTIMÍDIA Nunca comece um projeto de multimídia sem primeiro esboçar sua estrutura e seu conteúdo. À medida que você visualiza em sua mente o que deseja realizar, em um produto multimídia, balanceie o potencial de retorno do projeto com o investimento do trabalho e os recursos necessários para fazê-lo acontecer. Essa afirmação vale para todo projeto e não somente para projetos multimídia. Isto significa que, antes de tudo, um bom planejamento deve ser feito, pois essa pode ser a diferença entre o sucesso de um projeto, ou um fracasso total. 4.1. PLANEJAMENTO 4.1.1. Elementos do planejamento: • Resultado Final (escopo): o que realmente deve ser feito? • ResultadosIntermediários: dividir o problema em problemas menores; • Prazo: quanto tempo esse projeto vai demorar para ser feito? Deve-se estimar sempre um tempo maior a fim de comportar imprevistos; • Orçamento: quanto vai custar esse projeto? • Cliente: a quem interessa esse projeto? • Usuários: quem vai efetivamente usar esse projeto no dia-a-dia? O usuário pode não ser o cliente, ou seja, o dono de uma empresa pode comprar um produto que será utilizado por seus empregados; • Ciclo de vida: quais são as etapas do projeto? • Equipe desenvolvedora: quem programará esse projeto? ����Ciclo de Vida: o ciclo de vida descreve as fases da existência do produto desde sua concepção inicial até a obsolescência (quando não recebe mais suporte). Vejamos as fases deste ciclo: • Ativação: onde é feita proposta de projeto por parte do cliente. As idéias iniciais do produto e estimativas preliminares surgem nessa etapa. • Especificação: definição precisa e detalhada do produto, com dimensionamento dos custos e prazos. Compreende a análise e o planejamento; • Desenvolvimento: construção e colocação em operação do produto. Compreende o desenho, a implementação e a implantação; • Operação: o produto é utilizado pelos usuários finais. O produtor oferece suporte e manutenção até saída de linha ou nova versão; Com isso, podemos desmembrar o ciclo de vida em um processo técnico, que consiste nas seguintes etapas: Ativação; Especificação; Análise; Planejamento; Desenvolvimento; Implementação; Implantação; Operação; Manutenção. Apostila de Sistemas Multimídia – Feito por Tenorio. 32 ����Formação de Equipe Desenvolvedora: em um grande projeto multimídia, geralmente são necessários: • Gerente de projeto; • Designer de multimídia; • Designer de interfaces; • Animador; • Redator; • Especialista em vídeo; • Especialista em áudio; • Engenheiro de software. 4.1.2. Direitos Autorais Ao se criar um projeto multimídia, é importante ter em mente que nem tudo pode ser utilizado, principalmente em se tratando de títulos multimídia. O material a ser utilizado deve ser de domínio público ou pertencer às empresas envolvidas (desenvolvedora e/ou cliente). É importante saber que a simples colocação de material em uma fonte pública, como a WWW, não significa que este material seja de domínio público. • Exemplos de restrições que podem ser aplicadas a aplicativos e título multimídia: o Forma de distribuição; o Prazo de utilização; o Transferência do material a terceiros; o Região onde o produto poderá ser comercializado; o Edição e processamento do material; 4.1.3. Produto Aceitável Um produto aceitável é aquele que atende aos requisitos funcionais da aplicação, ou seja, é o que atende as necessidades do cliente. Os requisitos funcionais definem as ações fundamentais através das quais o produto recebe e processa os dados e comandos fornecidos pelo usuário, gerando as respectivas saídas. Para que um produto seja aceitável, primeiramente, é necessário que os programadores conheçam o produto, sabendo realmente o que o cliente quer. Para isso, diversas técnicas podem ser utilizadas para o que chamamos de Levantamento de Requisitos. Uma forma de análise dos requisitos de um projeto é a Análise Orientada a Objetos que modela a semântica do domínio da aplicação, permitindo uma especificação mais precisa que o simples uso da linguagem natural – Design Conceitual. Um exemplo de uma metodologia para levantamento de requisitos é a Metodologia de D. Schwave - I. Jacobson. Nessa metodologia são criados: • Casos de uso – comportamento esperado de todas as partes do produto; • Classes – descrevem os conceitos presentes no problema a ser resolvido pelo produto; Apostila de Sistemas Multimídia – Feito por Tenorio. 33 • Diagramas de classes – descrevem os relacionamentos estáticos entre classes (agregação, generalização); • Diagramas de interação – descrevem como as classes interagem entre si e com os atores (usuários e sistemas externos) para realizar os casos de uso. A tarefa de levantamento de requisitos é algo tão importante que existe um ramo da computação apenas para a pesquisa de técnicas que levam ao cumprimento desta tarefa, é a chamada Engenharia de Requisitos. A seguir, algumas técnicas provenientes da Engenharia de Requisitos. • Entrevistas com clientes e usuários; • Etnografia: observar o dia-a-dia dos potenciais usuários do produto; • Reuniões: levantamento de idéias (brainstorming) - redação dos requisitos (JADs de requisitos); • Prototipação: construção de protótipos (Exemplo: storyboard, pequena animação ou um pequeno programa); • Revisão de requisitos; Entre essas técnicas está o JAD (Joint Application Development). O JAD é uma técnica interessante para levantamento de requisitos que foi desenvolvida pela IBM nos anos 70. Desde então ela tem sido alterada e adaptada por diversas pessoas para as suas reais necessidades. Os princípios básicos do JAD são simples: • Ninguém é melhor para explicar um determinado processo do que as pessoas que trabalham com ele. • Os profissionais de TI são os mais preparados para identificar as possibilidades que a tecnologia oferece, assim como suas limitações. • Sistemas de informação e processos do negócio não são isolados. • Os melhores sistemas de informação são resultado do trabalho conjunto de todas as pessoas envolvidas: profissionais de TI, usuários, gestores, analistas de negócio, etc. No entanto, como podemos juntar todos estes profissionais de forma ordenada? O objetivo do JAD é justamente esse: organizar as reuniões que discutem o próprio processo de levantamento de requisitos e gerenciamento do projeto, ou seja, o JAD é um processo de gerenciamento de projetos. Em particular, o JAD pode ser muito útil para a etapa de levantamento de requisitos. Componentes do JAD: Um dos pontos fortes do JAD são as sessões. Uma sessão nada mais é do que uma reunião com profissionais envolvidos no projeto. Mas para que esta reunião seja produtiva, vários aspectos devem ser bem definidos. O primeiro é a equipe. O Processo do JAD: O processo do JAD gira em torno das sessões, mas não está limitado às mesmas. O sucesso da aplicação desta técnica é baseado nas tarefas de preparo e finalização das sessões, tanto quanto na condução das sessões em si. Antes mesmo da primeira sessão de JAD, o gestor e o líder do projeto se encontrarão para definir alguns pontos. Em particular é preciso definir o escopo e a composição da equipe que irá participar das sessões. Uma ferramenta do JAD adequada para esta tarefa é o quadro do projeto. Apostila de Sistemas Multimídia – Feito por Tenorio. 34 4.2. ASPECTOS DE PLANEJAMENTO Ao se planejar um produto, é importante ter em mente: • Processos e métodos a utilizar; • Organização administrativa do grupo de desenvolvimento; • Formas de relacionamento com os clientes; • Mecanismos de avaliação e controle da qualidade; • Mecanismos para mudança dos próprios planos; • Recursos humanos e materiais necessários; • Possíveis riscos e respectivas medidas preventivas; • Custos; • Cronogramas; • Escopo (resultados a entregar); Existem ferramentas que auxiliam o desenvolvimento e acompanhamento de projetos. Entre ela está o Microsoft Project. Relatório de Cronograma - Mcrosoft Project 4.3. DESENHO DO PROJETO Em um produto de software, a multimídia está mais preocupada com o desenho do projeto do que com a implementação de requisitos funcionais. Esse desenho pode ser classificado como: • Desenho Externo: interfaces de usuários e bancos de dados; • Desenho da arquitetura: da estrutura estática, da estrutura dinâmica e de alto nível dos componentes; • Desenho dos testes: Planejamento detalhado da implementação; Apostila de Sistemas Multimídia – Feito por Tenorio. 35 O desenho mais importante é a interface com usuário.Os objetivos dessa interface são: • Maior velocidade de aprendizado para os usuários novatos, reduzindo o custo em treinamentos; • Maior velocidade de uso para os usuários experientes, gerando maior produtividade na utilização; • Redução da taxa de erros humanos, gerando também maior produtividade na utilização; • Lembrança rápida das funções disponíveis, gerando menores dúvidas e perda de tempo com consultas; • Ter aspecto atraente; ���� Estilos de interfaces de usuário • WYSIWYG (“o que você vê é o que você tem”): entre outras coisas, é o fim dos botões desabilitados; • Interfaces icônicas (uso de ícones): economizam espaço de tela, superam barreiras lingüísticas, contribuem para a estética da interface; • Manipulação direta, como a técnica de arraste e posicionamento - drag and drop (Editores de animação - objetos arrastados para a posição desejada). ����Princípios de desenho de interfaces de usuários: consistência; realimentação; minimização dos erros; recuperação dos erros; múltiplos níveis de treinamento; minimização da memorização; layout adequado. A melhor interface para o usuário requer o mínimo esforço de aprendizado, lembre-se eu as telas não precisam, necessariamente, ser cheias ou coloridas para serem agradáveis aos olhos. 4.4. TESTES Durante a implementação, é feito o teste alfa, onde só participam membros da equipe de Desenvolvimento. Na implantação, é feito o teste beta, onde participam usuários “cobaias”. Nesta etapa ocorre o que chamamos de “liberdade vigiada”, os acessos dos usuários são restritos e qualquer problema aos dados, tudo pode ser restaurado sem maiores problemas. Caso algum erro na implementação seja detectado, pequenas correções podem ser feitas através de remendos (patches), disponibilizados em um site de suporte ao produto (com instruções claras, suporte através de correio eletrônico e lista de perguntas freqüentes). Cuidado: As estatísticas de engenharia de software comprovam que boa parte das manutenções introduz novos defeitos nos produto. Dependendo do software de autoria utilizado, existem ferramentas auxiliares que ajudam na identificação de possíveis erros. Um exemplo disso é o Microsoft Expression Web, que possui um recursos para identificação de possíveis links quebrados. Para terminar, lembre-se que aliando os recursos de multimídia, a integração de diversas mídias com a capacidade de interação do usuário, torna-se possível a aplicação de várias teorias de comunicação. Em multimídia há, basicamente, cinco maneiras para elaborar e transmitir mensagens. Pode-se escrever, ilustrar, animar, ouvir e interagir. Explore-as ao máximo, com discernimento. Apostila de Sistemas Multimídia – Feito por Tenorio. 36 5 – IMAGEM Uma imagem é uma matriz de pontos, também chamados de “Pixels” (Picture Elements) ou “Dots”, com resolução horizontal (eixo X) e vertical (eixo Y). Na imagem, os pixels são dispostos na tela do computador formando uma matriz de pontos denominada "Bit-Map" ou "Mapa de Bits", que é um mapa reticulado onde cada elemento da matriz possui uma informação referente à cor associada aquele ponto específico (obtida de forma direta ou através de uma tabela de acesso indireto – paletas). A Resolução da imagem é o número de elementos que a imagem possui na horizontal e na vertical (eixo X e eixo Y). A Resolução Espacial é o parâmetro que mede quantos pontos (pixels) podem ser vistos pelo olho humano em uma imagem. Imagem “Ampliada”. Cada quadrado está representando um pixel. O estudo da multimídia, em relação às imagens, está ligado a Representação Digital das Imagens, que trata especificamente do tratamento e análise de imagens para seu uso e nada tem haver com a criação dessas imagens. A criação de imagens é objeto de estudo da área de PDI (Processamento Digital de Imagens). O estudo da multimídia refere-se à manipulação e exibição de imagens prontas, envolve processos de tratamento da imagem e processos que permitam a interface entre dispositivos de entrada e saída gráfica e o arquivo de imagem. Não possui como fim a geração de uma imagem a partir de dados, mas a manipulação de uma imagem previamente gerada e até possivelmente a extração de informações a partir desta imagem. ���� Aplicações: São muitas, as aplicações do estudo da multimídia em relação a imagens. Entre elas, podemos citar: � Tratamento e melhoria de imagens: Medicina, Controle de Qualidade, Biologia, Sistemas de Monitoração e Controle (segurança), Geologia, Sensoriamento Remoto (imagens de satélites), Metereologia, etc. � Reconhecimento e classificação de objetos presentes em uma imagem: Sistemas de segurança (impressões digitais), interpretação automática de textos, visão artificial, robótica, exploração automatizada (sistemas anti-bombas, exploração submarina, mísseis teleguiados), etc. Apostila de Sistemas Multimídia – Feito por Tenorio. 37 5.1. RESOLUÇÃO Já vimos que a resolução é quantidade de pixels (linha x coluna) de uma imagem. Segue abaixo as resoluções das imagens no olho humano e nos dispositivos mais importantes: • Campo visual humano: matriz de 3.000 x 3.000 pixels; • Fotografia: até 8000 x 8000 pixels; • Televisão comum: 512 x 480 pixels; • Televisão de alta definição (HDTV): 2.000 x 1.100 pixels • Computadores: resolução determinada pelo modo gráfico escolhido, dentro do limite estabelecido pelo drive. A seguir, uma tabela com algumas das resoluções já utilizadas: Padrão MegaPixels Resolução (px) Padrão MegaPixels Resolução (px) QSIF 0.019 160 x 120 SXGA 1.311 1280 x 1024 QCIF 0.025 176 x 144 WXGA+ 1.296 1440 x 900 CVGA 0.064 320×200 SXGA+ 1.470 1400 x 1050 QVGA (SIF) 0.077 320 x 240 WSXGA+ 1.764 1680 x 1050 CIF 0.101 352 x 288 UXGA 1.920 1600 x 1200 HVGA 0.154 640 x 240 HD 1080 2.074 1920 x 1080 VGA 0.307 640 x 480 WUXGA 2.304 1920 x 1200 NTSC 0.346 720 x 480 QXGA 3.146 2048 x 1536 PAL 0.442 768 x 576 WQXGA 4.096 2560 x 1600 WVGA 0.410 854 x 480 QSXGA 5.243 2560 x 2048 SVGA 0.480 800 x 600 WQSXGA 6.554 3200 x 2048 XGA (XVGA) 0.786 1024 x 768 QUXGA 7.680 3200 x 2400 HD 720 0.922 1280 x 720 WQUXGA 9.216 3840 x 2400 WXGA 0.983 ou 1.024 1280 x 768 ou 1280 x 800 WUQSXGA 11.298 4200 x 2690 Na tabela anterior podemos notar os MegaPixels. Essa unidade de medida é utilizada na indústria de máquinas fotográficas digitais, para informar aos usuários, a resolução máxima das fotos tiradas com um determinado modelo de câmera. ����Razão de aspecto do monitor: A razão de aspecto de um dispositivo de visualização descreve a relação entre suas dimensões horizontais e verticais, ou altura e largura. Por exemplo, os monitores de computadores CRT e TVs convencionais tem o aspect rate 4:3, o que significa que a razão entre a resolução horizontal pela vertical é de 4 para 3 (800 x 600 � 4 x 3). Alguns monitores LCD têm aspect ratio diferentes, conhecidos como widescreen, sendo em geral 16:9. Os monitores da nova televisão digital e o cinema, tem aspect rate de aproximadamente 2. ����TV Digital Para falar em TV Digital, vamos conhecer essa tecnologia comparando-a com as televisões analógicas. Apostila de Sistemas Multimídia – Feito por Tenorio. 38 Comparação entre a TV Analógica e TV Digital 5.2. CORES Cada elemento da matriz de pixels possui uma informação referente à cor associada aquele ponto específico, que pode ser obtida de forma direta ou através de uma tabela de acesso indireto, como veremos mais adiante. A representação adotada e a quantidade de cores do sistema é quem vai definir a quantidade de bits requerida por um pixel. ���� Visão humana O espectro visível do olho humano compreende feixes de luz entre 400nm (violeta) a 700nm (vermelho), um dos maiores da natureza, porém, alguns animais como o Beija-Flor, possuem espectros maiores. Obviamente, o olho humano é mais sensível para alguns feixes do que para outros. Os picosde maior sensibilidade do olho humano correspondem aproximadamente ao verde (principal), ao vermelho (um pouco menor) e ao azul (bem menor). A percepção das cores do olho humano pode ser descrita como uma combinação linear, onde cada cor é expressa como soma ponderada das cores básicas de um sistema. O ser humano possui três tipos de sensores capazes de identificar três faixas diferentes de “espectros de energia” (tri-stimulus theory). Esses sensores são explorados pelos sistemas de cores computacionais. Espectro de energia eletromagnética Fonte: GONZALEZ, R. C. e WOODS, R., Processamento de Imagens Digitais, Editora Edgard Blücher, Ltda, 2000. Apostila de Sistemas Multimídia – Feito por Tenorio. 39 5.3. SISTEMAS DE CORES 5.3.1. RGB O sistema de cores mais conhecido é o RGB, utilizado na maioria dos monitores. No sistema de cores RGB, as faixas diferentes de espectros de energia, correspondem às tonalidades de Vermelho (Red) – 700nm, Verde (Green) – 546,1nm e Azul (Blue) – 435,8nm. É um sistema de cores aditivo, ou seja, controla a intensidade da geração das três cores básicas (primárias) e gera das demais cores através da soma dessa intensidade. Na computação, o ser humano vê, na realidade, a combinação resultante da mistura das três cores básicas. Cada uma dessas cores básicas é codificada em 8 bits. Diagrama do sistema de cores RGB Apesar de ser o mais usado, o RGB não é o único sistema de cores existente. Vejamos a seguir outros sistemas de cores importantes para a computação. 5.3.2. CMY No sistema de cores CMY, as faixas diferentes de espectros de energia, correspondem às tonalidades de Ciano (Cyan), Magenta (Magenta) e Amarela (Yellow). É um sistema de cores subtrativo, ou seja, controla a intensidade da geração das três cores básicas (primárias) e gera das demais cores através da subtração dessa intensidade (mistura de pigmentos). Para facilitar este cálculo, em cores com alta pureza, é usada uma variante deste sistema, chamado de CMYK, onde a cor preta (Black) é inclusa nos cálculos. Enquanto que a principal utilização do RGB está nos monitores, o CMY é utilizado em impressões, normais ou fotográficas, o que pode gerar diferenças entre a cor mostrada no monitor e a cor impressa no papel. Apostila de Sistemas Multimídia – Feito por Tenorio. 40 Cores Primárias e Secundárias da Luz e de Pigmentos Fonte: GONZALEZ, R. C. e WOODS, R., Processamento de Imagens Digitais, Editora Edgard Blücher, Ltda, 2000. 5.3.2. HSI Este sistema não trabalha com cores primárias e isto faz dele um modo completamente diferente de se trabalhar com as cores. Neste sistema, cada cor possui três informações: Matiz (Hue), Saturação (Saturation) e Intensidade (Intensity). A Matiz é a medida do comprimento de onda dominante (mede a freqüência dominante da vibração luminosa). Pode-se se dizer que a matiz é a cor propriamente dita. É possível codificar a matiz com 4 (quatro) bits. A Saturação é a medida da pureza da cor. Quanto menos misturas foram necessárias para a criação da cor, mais saturada ela é. O branco (mistura perfeita das cores) representa a impureza total da cor (saturação zero). Para outras cores, a saturação pode ser entendida como a quantidade de branco presente. Os tons muito saturados são “brilhantes” e os menos saturados são “pastel”. É possível codificar a matiz com 4 (quatro) bits. Os componentes de matiz e saturação são intimamente relacionados à percepção humana de cores. A Intensidade ou Luminância é a medida da energia luminosa da cor. O preto representa a ausência de energia (intensidade nula). É o parâmetro da cor ao qual o olho é mais sensível. Os sistemas “monocromáticos” (tons de cinza, por exemplo) trabalham apenas com a informação deste componente que é desacoplado da informação de cor. É possível codificar a intensidade com 8 (oito) bits. Cores similares, muitas vezes, são dificilmente separadas no espaço de cores RGB, mas podem ser facilmente separadas no espaço de cores HSI. Algumas cores, como o amarelo e o azul podem ser separadas simplesmente com a matiz, enquanto outras, como o laranja e o vermelho, deverão ser separadas também pela saturação e pela intensidade, pois a matiz de cada uma delas é próximo. Existem muitas aplicações para esse sistema, a mais comum é a sua utilização em sistemas de visão artificial, onde são desenvolvidos algoritmos baseados em propriedades do sistema visual humano. Um exemplo é o sistema de colheita de frutas, em que é preciso determinar se a fruta está suficientemente madura para ser colhida a partir de sua colocação externa. Apostila de Sistemas Multimídia – Feito por Tenorio. 41 Diagrama do sistema de cores HSI Um outro sistema de cores que se utiliza dos mesmos princípios do HSI é o HSV, onde a intensidade é substituída pelo parâmetro Valor, esse valor expressa a tonalidade da cor e é medido pela linha, no diagrama do sistema de cores HSI, que liga a cor preta da cor branca. ���� Conversão RGB em HSI Para a conversão de uma cor no sistema RGB, para uma cor no sistema HSI, primeiramente é preciso normatizar a cor, ou seja, colocar o valor da cor, que varia entre 0 a 255 no intervalo fechado entre 0 e 1. Com os valores normatizados basta aplicar as formulas que veremos no exemplo a seguir. Exemplo: Suponhamos que uma cor, no sistema RGB, é formada pelos valores r, g, b. Primeiramente, vamos normatizar a cor. R = r / (r + g + b); G = g / (r + g + b); B = b / (r + g + b); Agora basta aplicar a seguinte fórmula: Caixa de cores que mostra o RGB e o HSI Apostila de Sistemas Multimídia – Feito por Tenorio. 42 5.3.3. Outros sistemas Além destes sistemas de cores estudados, existem muitos outros que estão presentes no nosso dia-a-dia, como por exemplo: • YIQ: (Y – Intensidade/luminância; I – em Fase; Q – em Quadratura. Estes dois últimos componentes de crominância) Usado na transmissão de televisores NTSC (National Television System(s) Committee). Este sistema foi projetado para tirar vantagem do sistema da maior sensibilidade da visão humana a mudanças na luminância do que nas mudanças de matiz e saturação; • YUV: Muito similar ao sistema YIQ, porém, possui um referencial menos defasado. É utilizado em televisores PAL (Phase Alternating Line); • YCbCr: Este sistema de cores também tem a mesma característica de ter o componente de luminância. Os demais componentes são a Crominância de Azul (Cb) e de Vermelho (Cr). • CIE LAB: O CIE LAB é um sistema subtrativo de cor criado pela Commision Internationale L'Eclairage - CIE. Essa combinação de cores subtrativa é usada para definir as cores de materiais não emitentes especialmente os pigmentos que definirão as cores dos tecidos, plásticos e tintas. Utiliza como o YUV um canal de luminância e dois de crominância, mas aqui a luminância é substituída pela luminosidade, ou seja, a medida de como a intensidade luminosa é percebida. O sistema CIE LAB estabelece coordenadas uniformes no espaço tridimensional de cor. Neste sistema, as cores espectrais puras são representadas por uma curva em forma da ferradura. A base da ferradura (magenta) representa cores não-espectrais. ����Gama de um Sistema de Cores: O Gama de um sistema de cores é o conjunto de cores que pode ser produzido a partir das cores primárias. Quanto maior a saturação das cores primárias, maior será o gama do sistema. A seguir vejamos algumas coparações de gama. • Gama dos monitores profissionais > gama da TV; • Gama da fotografia > gama dos monitores; • Gama dos monitores > gama de várias técnicas de impressão. Para melhor esclarecer o conceito de gama, vamos definir o gama do sistema de cores RGB. Primeiro, vejamos que cada cor do sistema RGB precisa de 8 bits de codificação, ou seja, cada parâmetro de cor é capaz de produzir 28 cores. Como existem três parâmetros de cores, temos um total
Compartilhar