Baixe o app para aproveitar ainda mais
Prévia do material em texto
PEQUENO HISTÓRICO O CINEMA O que nós podemos chamar hoje de “A Indústria do Audiovisual” começou no século XIX com experimentos de captação da imagem em movimento até a invenção do Cinematógrafo pelos irmãos franceses Auguste e Louis Lumiére em 1895. Baseado no processo de “impressão” da luz em um suporte sensível desenvolvido pela Fotografia, o cinema aliou a isso a velocidade, isto é: ao captar a imagem em uma série de “fotografias” subseqüentes a um ritmo de 16 quadros por segundo (mais tarde padronizado a 24qps) e projetando como uma série de “slides” à mesma velocidade, o Cinematógrafo criou no espectador a percepção ou a “ilusão” do movimento. A partir daí o Cinema se desenvolveu e se estabeleceu como a mais forte, imediata e concreta forma de registro da realidade. Mais do que isso, alguns realizadores viram a possibilidade de um novo meio de expressão narrativa, onde poderiam contar suas histórias e até mesmo expor suas opiniões. Neste momento surge a necessidade de manipulação dessas imagens para criar a forma e o sentido desejados, para que qualquer pessoa que visse o filme entendesse a história que estava sendo contada. Aos poucos, esses realizadores vão criando uma nova linguagem chamada Cinematográfica. E a manipulação das imagens em função dessa linguagem foi chamada de Montagem. Hoje em dia os termos se confundem e alguns também chamam de Edição de Imagens ou simplesmente Edição. No princípio o processo de montagem era feito de uma forma muito simplória. As várias imagens eram separadas, ordenadas e escolhidas na mão. Seus tempos definidos empiricamente a partir de um padrão estabelecido. Poderia ser, por exemplo, o braço do montador, e muitos fizeram assim. O montador segurava a ponta da película e esticava o braço. Com a outra mão, segurava e guiava a outra ponta do filme até o seu queixo e ali marcava o seu ponto de corte. Com o seu braço ele criava um padrão métrico: se ele quisesse que uma imagem demorasse mais, repetia o movimento mais uma ou duas vezes e então cortava. Se ele quisesse que uma imagem demorasse menos, cortava o seu padrão pela metade ou menos. Essas imagens eram unidas em um rolo e então exibidas. Nessa exibição anotava-se o que deu certo e o que precisava ser modificado. Esse rolo era levado novamente para a sala de montagem. As alterações eram feitas e novamente levadas para a projeção iniciando um ciclo de anotações e correções até que se chegasse ao resultado pretendido. Era demorado e trabalhoso. Nesse momento surge um engenheiro holandês naturalizado americano, Iwan Serrurier, que adaptou um projetor de cinema comum para que pudesse ser usado nas salas de estar das famílias americanas. Ele apenas revestiu o projetor com um belo acabamento de madeira para que não destoasse da decoração e instalou uma pequena tela à sua frente. Chamou-o, então, de moviola. Não fez sucesso. Mas ao conhecer um montador dos Estúdios de Douglas Fairbanks percebeu que uma adaptação de sua máquina poderia ser útil na montagem dos filmes. Nesse momento ele teve a idéia que revolucionou a finalização dos filmes. Despiu o projetor de sua caixa, inverteu sua posição, e encaixou uma manivela, criando assim a primeira máquina de montagem ou “mesa de edição”. A partir daí sua tecnologia foi se desenvolvendo, surgiram outros fabricantes mas o aparelho jamais deixou de ser conhecido como moviola. A moviola padrão é uma mesa de metal que apresenta de 3 a 4 pistas, sendo uma de imagem e as outras de som. Existem moviolas com 2 pistas de imagem, por exemplo, feitas para montar sequências filmadas com 2 câmeras, mas eram muito mais caras e por isso, mais raras. A pista de imagem faz o positivo passar por uma cabeça de projeção que, através de um sistema de prismas e espelhos, faz chegar a imagem a uma tela instalada na própria mesa, permitindo ao montador a visualização dos planos. As pistas de som transportam o magnético perfurado gravado para uma cabeça de leitura magnética, e o som é ouvido simultaneamente e em sincronia com a imagem. A moviola foi a peça principal no processo de montagem e finalização de um filme até o surgimento do computador e dos programas de edição. A evolução tecnológica e a transformação da prática da montagem em função da utilização do meio digital fizeram com que a moviola se tornasse praticamente obsoleta nos dias de hoje. A TELEVISÃO As transmissões de televisão começam no fim da década de 20 e início da de 30, mas só depois da 2ª Grande Guerra é que realmente começa a se transformar em um meio popular de comunicação. Aqui no Brasil a primeira transmissão se dá em 1950 e a partir daí a TV vai conquistando a preferência mundial como meio de informação e entretenimento. A princípio a Televisão poderia ser comparada a um “rádio com imagens” uma vez que obedecia ao mesmo processo de produção e exibição radiofônicas: seus programas eram transmitidos ao vivo pois não havia nenhum meio de registro das imagens geradas pelas câmaras de TV. Além disso as primeiras equipes foram recrutadas da área técnica das rádios. Tanto é que quem responde até hoje pelos trabalhadores da Televisão é o Sindicato dos Radialistas. Com o surgimento do videotape (fita de vídeo) no ano de 1956, os programas poderiam ser pré-gravados evitando, assim, erros que eram frequentes na geração ao vivo, porém ainda não se dispunha de um equipamento que permitisse a manipulação desse material, isto é, sua edição. A gravação se dava como se fosse ao vivo: do início ao fim, sem interrupções. O videotape apareceu pela primeira vez no Brasil em 1958, com a apresentação de "O Duelo", de Guimarães Rosa na TV Tupi de São Paulo e passou a ser usado definitivamente com o programa humorístico de Chico Anísio em 1960. Esse primeiro sistema de gravação magnética de imagens utilizava fitas em rolo de 2 polegadas chamadas Quadruplex. A câmera prtátil de vídeo mudou tudo. Em 1967 a japonesa Sony apresenta o seu aparelho DV-2400 Portapack (Video Rover) e a produção em vídeo sai às ruas e se torna mais acessível. Esse novo formato foi utilizado principalmente por artistas plásticos, transformados agora em "vídeo-artistas", que experimentaram as possibilidades do vídeo como expressão artística. Essas primeiras câmaras portáteis se ligavam, via cabos, a um gravador também portátil que era carregado pelo próprio câmera ou por um assistente. No ano de 1970, a Sony criou o U-Matic, formato que trazia a fita já em cassete com uma bitola de ¾ de polegada em vez de 2 polegadas, lançado comercialmente em 1974. A televisão, com este sistema, apesar de um pouco inferior ao Quadruplex, ganhava praticidade. Com a fita U-Matic, esse conjunto de inovações técnicas permitiu agilizar as gravações externas, principalmente as reportagens, em que eram utilizadas câmeras com filmes 16 mm que deveriam ser revelados e depois montados. Junto com o U-matic desenvolveu-se o equipamento e o conceito de edição eletrônica. O espaço onde são instalados os equipamentos de edição ficou conhecido como "Ilha de Edição". A ilustração acima é o que chamamos de "ilha de corte seco". É geralmente utilizada no processo de pré-edição e principalmente em jornalismo. É composta de duas máquinas de videotape (VT). O Player, onde são colocadas as fitas com as imagens originais, e o Recorder, que gravará em uma nova fita as imagens selecionadas geradas, já na ordem de edição, pelo Player. Essa pré-edição é levada então a uma "ilha de finalização" equipada com outros aparelhos como as mesas de edição, efeitos e som e o gerador de caracteres. Nessa ilha, como o próprio nome sugere, a edição é finalizada, gerando o que chamamos de "master": o programa pronto para ser exibido. Em 1981a Sony lança o formato Betacam de meia polegada acompanhado de equipamentos ainda mais portáteis. Foi baseado no Betamax, formato caseiro que não obteve sucesso no mercado, sendo incontestávelmente batido pelo formato VHS da JVC (Japan Victor Company). O Betacam, pelo contrário, foi um sucesso e conquistou o mercado profissional. Até hoje é o formato padrão das TVs brasileiras e pelo mundo. EDIÇÃO OU MONTAGEM? Montagem é o principal departamento da fase de finalização de um filme. O montador trabalhava na moviola e é o responsável por dar a forma final ao filme a partir dos planos filmados. Vindo do teatro e através da influência francesa no vocabulário técnico do cinema brasileiro, esse termo vem caindo em desuso a partir do avanço da produção em vídeo e da padronização da edição digital que nivela, em termos operacionais, tanto vídeo como cinema. Em inglês, quem "monta" a imagem é chamado de editor seja ele "video editor" ou" film editor". A televisão no Brasil sofreu a influência direta da língua inglesa, portanto quem trabalha com edição de imagens na TV é chamado de editor. EDIÇÃO LINEAR OU NÃO LINEAR? A edição linear apareceu com o vídeo e tende a desaparecer a partir da sua substituição pelos programas de edição digitais. Ela é resultado da própria característica física da gravação em vídeo. O próprio nome já diz tudo: as imagens têm que ser gravadas em uma fita magnética que corre ininterruptamente sobre uma cabeça de gravação. Elas são registradas uma após a outra, linearmente. Qualquer modificação que se fizer necessária o editor terá que posicionar a fita no ponto da modificação e recomeçar a gravação, linearmente, apagando todo o trabalho já feito a partir daí. A edição não-linear é utilizada tanto em cinema como cada vez mais em Televisão. Ela não é sinônimo de edição computadorizada. O corte de uma película e a montagem em uma moviola, por exemplo, é uma maneira de se editar de forma não linear, ou seja, o filme pode sofrer mudanças de tempo ao longo da edição sem comprometer o que foi editado antes ou depois daquela modificação. É como um jogo de cartas. Nós podemos dispor das cartas, assim como a película de cinema e os arquivos de computador, em qualquer ordem e modificar essa ordem em qualquer ponto sem interferir na posição das outras "cartas", ou imagens. EDIÇÃO DE TV A edição de Tv demanda alguns cuidados devidos às próprias características do vídeo. Além disso estamos vivendo a transição dos formatos Standard (SD) para os formatos de alta definição (HD) Seguem algumas informações a respeito: 1 - Existem dois sistemas de cor principais adotados no mundo o Pal e o NTSC. Esses sistemas são adotados em função da rede elétrica de cada país. Países com rede de 50 Hz adotam sistemas que rodam a 25 fps. O Pal é um deles, e dos países da Europa, por exemplo, a maioria adotou o Pal. Estados Unidos, Américas, Brasil e Japão, por exemplo, têm a rede a 60 Hz. O sistema de cor NTSC, que roda a aproximadamente 30 fps é o sistema mais utilizado nesses países. Mesmo que o sistema adotado para exibição seja outro, aqui no Brasil, ao se implantar a TV a cores nos anos 70, decidiu-se por um padrão híbrido baseado no sistema Pal adaptado para rodar a 30 fps, de acordo com a nossa corrente elétrica de 60 Hz, o PAL-M. Mas isso é apenas o padrão de exibição. A produção e a pós-produção em vídeo e TV trabalham no sistema NTSC. 2 - Cada frame de imagem, independente do sistema, é formado por dois campos ou fields. Esses são gerados através do percurso do feixe de elétrons que é responsável pela geração da imagem. O primeiro campo é formado pelas linhas ímpares e o segundo pelas linhas pares. Esses dois campos se entrelaçam formando um frame de imagem. Logo: 60 hz ⇒ 60 fileds ⇒ 30 fps entrelaçados ou interlaced. 3 - Criou-se um modo de contagem dos frames e, consequentemente, do tempo gravado nas fitas de vídeo: o Timecode. Traduzindo: código de tempo. O Timecode é uma informação gravada na fita, assim como o vídeo e o áudio, que identifica cada frame e nos informa sua posição através do formato hh:mm:ss:ff, onde h=hora, m=minuto, s=segundo, f=frame. Enquanto a fita vai rodando, nós somos informados também da progressão do Timecode. A cada 30 frames é contado 1 segundo, a cada 60 segundos 1 minuto e a cada 60 minutos 1 hora. Simples? Nem tanto. O NTSC tem uma característica: 30 frames não correspondem exatamente a 1 segundo. Eles rodam mais lentos que o segundo. A velocidade real do NTSC é reconhecida como 29,97... fps. Isto é: o trigésimo frame "avança" 0,3 sobre o 2º segundo, atrasando a entrada do novo bloco de 30 frames e assim sucessivamente e cumulativamente. Desta forma, quanto mais o Timecode avança, mais se distancia de uma contagem real do tempo. Esse problema foi solucionado com o estabelecimento de um padrão de contagem de frames chamado drop frame ou, livremente traduzindo, queda de frame. Estando em DF o timecode será gravado "deixando cair" dois frames a cada segundo, exceto nos minutos redondos: 00:1:00:00, 00:02:00:00, 00:03:00:00, etc. Fora desses momentos específicos, ao chegar ao frame 29, o segundo vira registrando o Timecode 02, "deixando cair"o 01 e o 02. Não se joga fora o frame, ele só é reconhecido com um Timecode diferente da ordem lógica, uma forma de contar os frames que aproxima o tempo registrado na fita do Tempo Real. A forma "natural" de se contar frames, um por um, sem perder nenhum número, também está à disposição do editor e é chamada de non drop frame NDF. 4 - As fitas de vídeo são magnéticas e é dessa forma que a informação é gravada nelas. É preciso que os componentes da fita sejam "arrumados" para receber a informação eletromagnética que será depois traduzida em áudio e vídeo pelos monitores de TV. Para isso existe uma forma de gravação chamada ASSEMBLE, onde a fita passa por uma primeira cabeça que "arruma" os elementos da fita, gravando o que chamamos Base. Logo a seguir a fita passa pelas cabeças de gravação de áudio, vídeo e Timecode, registrando as imagens desejadas. A questão é que sempre que se trabalhar no modo Assemble essa primeira cabeça estará ativa preparando o terreno, criando uma nova base mesmo em fitas já gravadas e portanto já com base. Nessa situação, em qualquer lugar em que se parar a gravação vai haver um pedaço de fita com a nova base mas sem imagem nem vídeo nem Timecode. Visualmente, o espectador percebe um ruído interrompendo o fluxo das imagens. Esse fenômeno é conhecido como "quebra de base"ou "buraco de Timecode". Para que isso não aconteça existe um outro modo de gravação onde só as cabeças de áudio, vídeo e Timecode são acionadas que é o modo INSERT. As imagens são gravadas sobre uma base já previamente colocada. No entanto este modo de gravação não é eficiente em fitas "virgens" já que elas vêm de fábrica sem base. A primeira gravação deverá ser, portanto, em assemble. 5 - Por conta disso, existem dois modos de gravação de Timecode: PRESSET e REGEN. O modo Preset é o modo utilizado na gravação da primeira imagem na fita. O editor define o Timecode com o qual a gravação vai começar. Para que o Timecode flua constante e progressivo, a partir daí utiliza-se o modo Regen, onde o deck lê e reconhece o Timecode da fita e, a partir do ponto de gravação, continua gravando e "regenerando" o Timecode. PENSANDO A EDIÇÃO NA GRAVAÇÃO É importante estar atento que a edição não é apenas a última etapa no processo de produção de um produto audiovisual. Ela está presente desde o início, mesmo que de forma implícita. Na gravação de um programa de tv, diversos cuidados devem ser tomados para que não ocorram surpresas na ilha de edição. 1. Decupar o roteiro em caso de uma teledramaturgia. O diretor, juntamente com o fotógrafo e com o assistentede direção, deve prever a montagem já no roteiro. Nessa etapa é que serão escolhidos os tipos de plano a serem gravados para cada cena do roteiro. Uma decupagem precisa e organizada faz com que a edição flua sem problemas. O Storyboard muitas vezes é utilizado para que essa decupagem esteja clara para todos os envolvidos. 2. Gravar planos de apoio para auxiliarem a edição. 3. Cenas que exijam muitos efeitos de pós-produção devem ser discutidas antes de sua filmagem com o editor e/ou o produtor de efeitos / animador. 4. No caso de documentários, gravar imagens que possam enriquecer a edição. Prever isso já em uma pré-decupagem. 5. Evitar problemas técnicos que possam afetar diretamente a edição daquele produto. Algumas dicas: a. Som contínuo em uma gravação (música ambiente, barulho de obra, latidos de cachorro, etc.). Se não houver solução, é importante que o técnico de som grave por um tempo (normalmente um minuto) o som ambiente. Assim, na montagem, esse som será utilizado para que tenhamos uma sensação de continuidade nas cenas. b. Estar atento em utilizar o recurso da claquete para cenas que necessitam de sinc. Tanto de áudio (caso de gravação do som separado da imagem) e também de vídeo, para o caso de gravação com duas câmeras. c. Sempre gravar vídeo e áudio, mesmo que a princípio só o vídeo interesse. Algum ruído ou comentário sempre pode ser útil ao editor. Se nada for útil é só não utilizar, mas se algum som se mostrar indispensável e não foi gravado, não poderá ser utilizado porque não existe. d. Utilizar a ficha de decupagem (também boletins de som para gravação do som separado da imagem) nas gravações. Esse recurso tem o objetivo de organizar o material, para que qualquer outro profissional que vá manuseá-lo possa entender sem problemas. e. Uso de claquete identificadoras das cenas. Para cada plano a ser gravado, o ideal é utilizar a claquete que identifique a cena no roteiro. f. Uso de claquete para entrevistados. Pedir para que os entrevistados falem seu nome completo e todas as informações necessárias para que fique registrado na fita. Uma claquete com o seu nome escrito é melhor ainda, pois já identifica a grafia correta. g. Identificação correta e organizada do material – fitas, cds de áudio, gravações de off, etc. Tudo deve estar rigorosamente organizado para iniciar o processo de edição. EDIÇÃO DIGITAL - O COMPUTADOR Com a chegada do computador houve uma radical modificação nos procedimentos de edição e finalização tanto no cinema quanto em vídeo. Os editores e montadores tiveram que se adaptar, aprendendo a técnica de operação desse novo equipamento. Para se editar imagem em computador é necessário, basicamente, um programa de edição e da transformação das imagens arquivos digitais editáveis. Para a transformação das imagens originais em arquivos é preciso haver uma ligação do computador, através de uma placa de vídeo, a um aparelho que gere essas imagens, um player de videotape. As imagens captadas em filme deverão, portanto, ser transformadas em imagens em vídeo. Esse processo é chamado de Telecinagem e é feito por um equipamento chamado Telecine O Telecine nada mais é que um projetor adaptado para projetar a imagem da película em um sensor que a transforma em informações elétricas para a cabeça de gravação de um videotape recorder. Após a telecinagem, a imagem de cinema adquire as mesmas características da imagem em vídeo e está pronta para se transformar em arquivos editáveis. Os programas de edição desenvolveram-se bastante até os dias de hoje. Aqui no Brasil os mais utilizados são o Avid, o Final Cut e o Premiere. Eles têm muita coisa em comum, e o operador que está familiarizado com um programa terá poucas dificuldades em se adaptar a outro, pois apesar de oferecerem comandos um pouco diferenciados as operações de edição são basicamente as mesmas e a interface, o modo como eles se apresentam visualmente, é muito parecida, seguindo a mesma estrutura gráfica de disposição das janelas. A imagem acima é uma reprodução do Avid, primeiro programa de edição a consolidar uma posição no mercado brasileiro. É considerado por alguns setores como o único programa "profissonal" confiável, mas o Final Cut já divide com ele as atenções e preferências dos editores. O Final Cut entrou no mercado gerando uma verdadeira revolução ao ser oferecido a um custo acessível à grande parte das produtoras e editores. O que só só era possível com um investimento pesado e reduzido às produtoras de finalização, montar uma ilha de edição digital, com o aparecimento do pacote Final Cut + Apple G4 ficou acessível a todos. Houve uma democratização do acesso aos meios de edição e finalização. Acima, o Final Cut. Já o Premiere corre por fora e vem evoluindo rapidamente, mas, por questões operacionais, não é muito utilizado pela faixa profissional de geração de conteúdo para cinema e tv, mas sim pela de prestação de serviços vários para o público em geral. É o programa mais utilizado por produtoras que oferecem os mais variados serviços como a cobertura de casamentos, formaturas, aniversários e, eventualmente, um ou outro institucional e pequenos vídeos para a internet. A INTERFACE DOS PROGRAMAS DE EDIÇÃO Interface é a apresentação visual de um programa e como ele dispõe suas janelas para a interação com o usuário. Acabamos de ver que neste quesito os programas apresentam um grau de semelhança muito forte. A interface dos programas de edição é uma tentativa de reproduzir o ambiente analógico a que os editores estavam acostumados. Com isso, foram adaptadas ao ambiente gráfico características tanto da sala de montagem cinematográfica quanto da ilha de edição eletrônica. Na sua configuração básica, os programas apresentam 5 janelas principais. 1. A primeira janela é a janela do projeto, onde o editor organiza seu trabalho e onde estão dispostos todos os elementos necessários para a edição desse projeto: clipes de áudio e vídeo, arquivos gráficos como fotos, animações, logotipos, etc. e as sequências onde esses elementos serão editados. Dependendo do volume do trabalho, o editor pode abrir nessa janela pastas para organizar melhor o seu trabalho. Essas pastas são chamadas de bins, termo que vem do cinema e, na sala de montagem, dá nome a uma caixa "banheira" onde eram pendurados / guardados os pedaços de filme que estavam sendo montados no momento. Imagem ao lado. 2. As próximas duas janelas reproduzem uma ilha de corte seco em vídeo. São dois monitores que fazem o papel dos monitores das máquinas player e recorder. O da direita exibe a imagem da sequência que está sendo editada, mostrando ao editor o resultado de seu trabalho. O da esquerda recebe o material que vai ser editado, os clipes originais, dando oportunidade ao editor para escolher o trecho exato que vai entrar na edição final. 3. Abaixo delas está a Timeline ou Linha do Tempo, que é a representação gráfica da edição. Você pode ver os clipes que constituem sua edição, seu tamanho e sua relação com os outros clipes. A Timeline é uma adaptação ao ambiente gráfico das pistas de uma moviola. 4. Finalmente temos a janela de efeitos. Ela guarda uma coleção de efeitos e transições de áudio e vídeo que podem ser utilizados pelo editor no momento em que ele quiser. Os efeitos são aplicados sobre os clipes, alterando a imagem original. As transições são aplicadas entre dois clipes e, como o próprio nome sugere, possibilitam efeitos de passagemde uma imagem para outra como fusões e wipes. Além disso existem também os "geradores"que são padrões de imagem e som como o color bar, por exemplo Esta é a configuração básica dos programas de edição. Existem outras janelas, com diferentes funções, que poderão ser abertas de acordo com as necessidades do editor. Correção de cor, mixagem, digitalização, monitoração de áudio e vídeo, geração de caracteres são exemplos de algumas outras janelas. A TÉCNICA DA EDIÇÃO DIGITAL A edição de imagens é condicionada a vários fatores, os principais são: a forma como a imagem foi captada e forma como o produto final será exibido. A partir desse dois parâmetros o editor/montador vai definir os procedimentos de edição mais adequados a este momento específico. Dessa forma podemos identificar três fases distintas no processo de edição: 1. A Importação ou Input. 2. A edição propriamente dita. 3. A exportação ou Output. 1. IMPORTAÇÃO OU INPUT A fase de importação é a fase de agrupamento de todo o material necessário para a edição do projeto. Sejam as imagens em vídeo, sejam arquivos gráficos ou de áudio. É também o momento em que o editor prepara o seu projeto de acordo com o formato do vídeo original ou seu Codec. O QUE É UM CODEC? Codec é uma sigla que condensa duas palavras em inglês: coder e decoder (co/dec). Essa palavra também resume o processo pelo e para o qual os codecs foram criados.Um codec codifica e comprime a imagem para o seu armazenamento como arquivo de dados e o descomprime e decodifica para a sua exibição e/ou edição. Geralmente um codec é um código digital responsável por essas ações a partir do momento em que é acionado por um programa (software), mas também pode ser um equipamento (hardware) capaz de transformar áudio e vídeo analógicos em informação digital. Estas ações ocorrem em tempo real, tanto a captura quanto a exibição (playback). O codec também pode funcionar da forma inversa, isto é, transformar a informação digital em um sinal analógico de áudio e vídeo. Fora do contexto da Televisão, o codec será principalmente utilizado para a compressão digital de áudio e vídeo tendo em vista seu melhor armazenamento, manipulação e exibição. Tipos de Codecs Existe uma grande variedade de codecs que podem ser agrupados em diferentes categorias de acordo com suas características: "Lossles Codecs" ou seja, Codecs "sem perda", reproduzem o vídeo exatamente como ele é, sem perda de qualidade. "Lossy Codecs" por sua vez, são codecs em que o vídeo perde em qualidade ao ser comprimido, mas fica "mais leve, podendo ser armazenado mais facilmente. Geralmente esses codecs são muito utilizados para comprimir dados quando é preciso enviá-los por e-mail ou fazer o seu upload para a internet. "Transformative Codecs" cortam o material em pedaços menores, e por isso de melhor manuseio, antes de comprimí-lo. E "Predictive Codecs" comparam a imagem a ser comprimida com os dados adjacentes, dispensando toda informação redundante ou repetitiva e por isso desnecessária, maximizando a utilização do espaço em disco. De uma forma geral, todos esses codecs trabalham com o objetivo de dispor a informação em arquivos de fácil manuseio e com a menor perda de qualidade possível. Uma "família" muito usada e conhecida é baseada nos padrões da MPEG: Moving Picture Experts Group, a organização que estabeleceu e codificou esses padrões. Existem três formatos principais de MPEG de onde derivam vários outros. MPEG-1 é um fluxo de dados (data stream) que reproduz a imagem em alta qualidade. O MP3 (MPEG-1 Layer 3) que é um padrão para a compressão de áudio, é uma aplicação derivada do MPEG-1 data stream. Porém o vídeo em MPEG-1 nem sempre inclui MP3 áudio. Quase todos os computadores e DVD players suportam os formatos de encodamento digital MPEG-1 e MP3. Uma desvantagem é que o MPEG-1 trabalha apenas com scanning progressivo. Scanning Progressivo é uma forma de armazenamento e exibição da imagem onde as linhas são formadas em sequência, isto é, progressivamente, em contraste com o scanning entrelaçado onde, como vimos antes, a imagem se forma através do entrelaçamento das linhas pares com as ímpares, formadas independente e subsequentemente. Por outro lado o MP3, embora tenha perdas (lossy), é um arquivo muito leve e se tornou o padrão para o áudio digital na internet e nos aparelhos de armazenamento e reprodução de áudio, os mp3 players. MPEG-2 tambem oferece alta qualidade e é o padrão utilizado para os DVDs de exibição. Embora existam novos codecs com maior qualidade de compressão, o MPEG-2 continua sendo o padrão para a produção de DVDs e é também uma opção para Blu-Ray. MPEG-4 suporta tanto vídeo progressivo quanto entrelaçado. Tão aceito quanto o MPEG- 2, utiliza, no entanto uma técnica de compressão aprimorada. Há um grande número de codecs derivados do MPEG-4. Um deles é o H.264 que é outra opção de encodamento para blu-ray, além de ser utilizado, por exemplo, pelo i-tunes store para exibição de vídeos. .A "família" H.264 oferece uma grande variedade e flexibilidade de padrões. Possibilita a compressão tanto em altos e baixos Bit-rates e resoluções, permitindo ao usuário ajustar seu tamanho para as mais diversas aplicações, bradcast, multimídia ou seu armazenamento em grandes arquivos. WMV (Windows Media Video) é outra família de codecs muito conhecida e popular por se tratar do padrão Windows de encodamento de vídeo. Criado originalmente para comprimir arquivos para a internet, o WMV apareceu como um concorrente do codec Real Video. A sua versão WMV9, segundo a Microsoft, apresenta padróes de compressão duas vezes melhor que o MPEG-4 e três vezes melhor que o MPEG-2. É também a base para o formato de compressão SMPTE VC-1, que é outro padrão disponível para o encodamento para blu-ray. DV é um outro codec largamente utilizado. O formato popular Mini DV usa o DV25, que corre a 25 megabits por segundo. QUICKTIME e AVI não são codecs. Quando um vídeo é capturado, um computador rodando Windows irá gravar a imagem em um arquivo AVI e um Mac gravará em QuickTime. AVI e QuickTime são "containers" ou "envelopes", arquivos que "envolvem", como um papel de presente, o vídeo encodado. Eles se referem ao modo como o vídeo é armazenado, não como é encodado, abrigando uma grande variedade de codecs. O recomendável é que se trabalhe, do início ao fim da edição, utilizando-se um só formato de vídeo, mas dependendo das características do produto, como por exemplo um documentário utilizando diferentes fontes de imagens de arquivo, gravadas em formatos diferentes, o editor terá que padronizar esses formatos para gerar, no final, um produto em um único formato. O input é realizado de duas formas distintas. Digitalizando o material original em vídeo através de um deck. A informação analógica será transformada em dados e armazenada como arquivos de vídeo. AVI ou QUICKTIME. Ou então a transferência de dados, geralmente feita com arquivos sonoros e gráficos. Recentemente surgiram câmeras que já registram as imagens em dados, não necessitando mais do suporte magnético. Essas câmeras gravam a informação em cartões de memória ou já em um HD, seja interno ou externo. Nessa situação, cabe ao montador transferir esses arquivos para o seu computador e transformá-los em um formato, AVI ou QUICKTIME, que possa ser manipulado dentro do programa de edição. Dependendo da capacidade de armazenamento do computador, o editor tem duas opções.: 1. Digitalizar o material em alta compressão. Quanto maior a compressão menor o tamanho do arquivo e mais arquivos poderão ser armazenados. Porém a qualidade da imagem cai proporcionalmente ao aumento da compressão. Isso quer dizer que a edição se dará öff line", isto é, servirá apenas comoreferência, não tendo qualidade para exibição. Em um momento posterior, quando a montagem estiver fechada ou quase fechada, o editor está ciente de que necessitará redigitalizar a imagem, desta vez sem compressão. No entanto ele só digitalizará as imagens que foram preservadas no corte final, o que diminui consideravelmente o volume de material. 2. Logar as imagens que interessam e digitalizar apenas essas imagens. "Logar" é um termo adaptado do inglês Log que quer dizer listar, registrar. O montador faz uma lista dos pontos a serem digitalizados e o programa de edição cumpre as suas determinações. O importante é ser organizado e fornecer todas as informações necessárias para o programa de edição. Assim, o projeto, além da sua principal função que é a edição, é um registro e uma memória dessa edição, podendo refazê-la automaticamente. Atualmente o armazenamento já não é um problema, temos HDs de até 2 Terabites. Com essa facilidade, os editores vêm digitalizando o material já com a sua melhor qualidade, evitando trabalho dobrado. 2. A EDIÇÃO PROPRIAMENTE DITA Depois de "alimentar" o computador com a mídia a ser usada pelo programa de edição, o montador parte para o seu trabalho principal: dar forma ao filme, seguindo os seguintes passos. Criação de sequências ou timelines – Dentro dos bins organizados pelo montador, são criadas as Seqüências. A seqüência é o elemento que guarda a memória de determinada edição. Enquanto que os outros elementos são exibidos em uma janela que seria a correspondente ao player de uma ilha linear, a seqüência será aberta em duas janelas. Uma corresponde ao recorder e oferece ao editor a reprodução das imagens editadas de acordo com os seus comandos. A outra é a Timeline ou “linha do tempo” que é a representação gráfica da edição. 1. Criação de sequências ou timelines – Dentro dos bins organizados pelo montador, são criadas as Seqüências. A seqüência é o elemento que guarda a memória de determinada edição. Enquanto que os outros elementos são exibidos em uma janela que seria a correspondente ao player de uma ilha linear, a seqüência será aberta em duas janelas. Uma corresponde ao recorder e oferece ao editor a reprodução das imagens editadas de acordo com os seus comandos. A outra é a Timeline ou “linha do tempo” que é a representação gráfica da edição 2. IN e OUT – Ao longo de uma edição, o editor vai se deparar o tempo inteiro com esses dois termos. Eles são a marcação de entrada e de saída de um plano escolhido, isto é, onde uma imagem começa e onde termina. Ex. Caso o editor queira inserir na edição uma imagem de uma panorâmica, ele deve indicar ao computador o início (mark in) e o final (mark out) do take que ele quer inserir. 3. Montagem na Timeline - Na timeline a montagem pode ser alterada a qualquer momento pelo montador. Esta manipulação se dá através da utilização do “mouse” e de atalhos de teclado. Música, planos escolhidos, vinhetas, fotos, tudo será colocado na sequência. Conforme vão sendo inseridos novos elementos a duração do programa aumenta e consequentemente o tamanho físico da timeline. 4. Tracks ou Layers – Cada Timeline é composta de tracks (pistas), também chamadas de layers (camadas) de áudio e vídeo. Nessas pistas serão inseridos os elementos de áudio e vídeo do programa. Os softwares atuais possibilitam inúmeras pistas simultâneas. Isso é muito útil para utilizar efeitos de composição de vídeo (ex. Uma tela dividida em quatro com várias cenas acontecendo ao mesmo tempo) e de mixagem de áudio (ex. Uma música inserida na edição que toca ao fundo de um diálogo entre dois personagens). 5. Aplicação de efeitos e Padronização – Depois de se fechar a imagem, o editor aplica efeitos e filtros necessários tanto na imagem quanto no som. Também nesse momento ele trabalha os níveis de áudio e video para que eles fiquem dentro dos padrões de exibição, evitando a ocorrência de ruídos. Alguns filmes necessitam de um trabalho mais especializado para prepará-los para a exibição, visando a melhor qualidade de imagem e de som. O editor cede seu lugar a profissionais especializados no tratamento tanto de áudio quanto de vídeo e o filme passa pelo processo de Finalização. 1. Correção de cor ou marcação de luz – Depois de se fechar a imagem, muitas vezes com o auxílio do fotógrafo, o finalizador vai tratar a cor, a luz e o contraste do programa, tendo em vista um conceito fotográfico que acompanhe as necessidades narrativas do filme e uma homogeneidade visual para que o espectador não perceba nenhuma mudança brusca na passagem de uma imagem para outra, a não ser quando isto for proposital. 2. Finalização de Som ou Sonorização – Nessa etapa, toda a parte sonora do programa será tratada. O editor de som se encarregará da construção das trilhas de diálogos, ruídos e ambiente. Em televisão é também conhecido como sonoplasta. Já o compositor ou diretor musical irá inserir a trilha sonora original ou de arquivo. O som, assim como a imagem, será tratado em softwares específicos. O mais comum é o Pro Tools. O som, então, poderá ser mixado, transformando-se em uma trilha única. 3. Masterização – Todo Canal de Televisão possui suas normas técnicas e seus padrões de exibição. Antes de colocar o produto em uma fita, o editor ou finalizador deve estar atento a isso. Nesse momento ele vai gerar uma fita Master, que será a matriz para cópias de exibição e toda e qualquer outra cópia daquele produto (DVDs, VHS, vídeos para Internet, etc.) 3. A EXPORTAÇÃO OU OUTPUT Este é o momento do editor "se livrar" do seu trabalho, gerando o Master de exibição. Como foi dito acima, a forma tradicional é "baixar" para uma fita. O mesmo deck que foi utilizado para a digitalização do material agora grava em uma fita livre, geralmente Betacam (analógica ou digital) ou DV, o produto editado. A fita é encaminhada para a exibição e o montador está pronto para recomeçar. Hoje, no entanto, existem várias opções de output e, de acordo com a finalidade de cada edição, o Master pode ser produzido como arquivo digital em diferentes codecs para diferentes formatos de exibição como DVD, internet streaming e aparelhos móveis (MPEG players ou mesmo telefones celulares).
Compartilhar