Buscar

Apostila Edição Imagem e Som

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 16 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 16 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 16 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

PEQUENO HISTÓRICO 
 
O CINEMA 
 O que nós podemos chamar hoje de “A Indústria do Audiovisual” começou no 
século XIX com experimentos de captação da imagem em movimento até a invenção do 
Cinematógrafo pelos irmãos franceses Auguste e Louis Lumiére em 1895. 
Baseado no processo de “impressão” da luz em um suporte sensível desenvolvido 
pela Fotografia, o cinema aliou a isso a velocidade, isto é: ao captar a imagem em uma 
série de “fotografias” subseqüentes a um ritmo de 16 quadros por segundo (mais tarde 
padronizado a 24qps) e projetando como uma série de “slides” à mesma velocidade, o 
Cinematógrafo criou no espectador a percepção ou a “ilusão” do movimento. 
A partir daí o Cinema se desenvolveu e se estabeleceu como a mais forte, imediata 
e concreta forma de registro da realidade. Mais do que isso, alguns realizadores viram a 
possibilidade de um novo meio de expressão narrativa, onde poderiam contar suas 
histórias e até mesmo expor suas opiniões. Neste momento surge a necessidade de 
manipulação dessas imagens para criar a forma e o sentido desejados, para que qualquer 
pessoa que visse o filme entendesse a história que estava sendo contada. 
Aos poucos, esses realizadores vão criando uma nova linguagem chamada 
Cinematográfica. E a manipulação das imagens em função dessa linguagem foi chamada 
de Montagem. Hoje em dia os termos se confundem e alguns também chamam de Edição 
de Imagens ou simplesmente Edição. 
No princípio o processo de montagem era feito de uma forma muito simplória. As 
várias imagens eram separadas, ordenadas e escolhidas na mão. Seus tempos definidos 
empiricamente a partir de um padrão estabelecido. Poderia ser, por exemplo, o braço do 
montador, e muitos fizeram assim. O montador 
segurava a ponta da película e esticava o braço. 
Com a outra mão, segurava e guiava a outra 
ponta do filme até o seu queixo e ali marcava o 
seu ponto de corte. Com o seu braço ele criava 
um padrão métrico: se ele quisesse que uma 
imagem demorasse mais, repetia o movimento 
mais uma ou duas vezes e então cortava. Se ele 
quisesse que uma imagem demorasse menos, 
cortava o seu padrão pela metade ou menos. 
Essas imagens eram unidas em um rolo e então 
exibidas. Nessa exibição anotava-se o que deu certo e o que precisava ser modificado. 
Esse rolo era levado novamente para a sala de montagem. As alterações eram feitas e 
novamente levadas para a projeção iniciando um ciclo de anotações e correções até que 
se chegasse ao resultado pretendido. 
Era demorado e trabalhoso. Nesse momento surge um engenheiro holandês 
naturalizado americano, Iwan Serrurier, que adaptou um 
projetor de cinema comum para que pudesse ser usado 
nas salas de estar das famílias americanas. Ele 
apenas revestiu o projetor com um belo acabamento 
de madeira para que não destoasse da decoração e 
instalou uma pequena tela à sua frente. Chamou-o, 
então, de moviola. 
Não fez sucesso. Mas ao conhecer um montador dos Estúdios de 
Douglas Fairbanks percebeu que uma adaptação de sua máquina poderia 
ser útil na montagem dos filmes. Nesse momento ele teve a idéia que 
revolucionou a finalização dos filmes. Despiu o projetor de sua caixa, 
inverteu sua posição, e encaixou uma manivela, criando assim a primeira 
máquina de montagem ou “mesa de edição”. A partir daí sua tecnologia foi 
se desenvolvendo, surgiram outros fabricantes mas o aparelho jamais 
deixou de ser conhecido como moviola. 
A moviola padrão é uma mesa de metal 
que apresenta de 3 a 4 pistas, sendo uma de 
imagem e as outras de som. Existem moviolas 
com 2 pistas de imagem, por exemplo, feitas 
para montar sequências filmadas com 2 câmeras, mas eram 
muito mais caras e por isso, mais raras. A pista de imagem 
faz o positivo passar por uma cabeça de projeção que, 
através de um sistema de prismas e espelhos, faz chegar a imagem a uma tela instalada 
na própria mesa, permitindo ao montador a visualização dos planos. As pistas de som 
transportam o magnético perfurado gravado para uma cabeça de leitura magnética, e o 
som é ouvido simultaneamente e em sincronia com a imagem. 
A moviola foi a peça principal no processo de montagem e finalização de um filme 
até o surgimento do computador e dos programas de edição. A evolução tecnológica e a 
transformação da prática da montagem em função da utilização do meio digital fizeram 
com que a moviola se tornasse praticamente obsoleta nos dias de hoje. 
 
A TELEVISÃO 
 
As transmissões de televisão começam no fim da década de 20 e início da de 30, 
mas só depois da 2ª Grande Guerra é que realmente começa a se transformar em um 
meio popular de comunicação. Aqui no Brasil a primeira transmissão se dá em 1950 e a 
partir daí a TV vai conquistando a preferência mundial como meio de informação e 
entretenimento. 
A princípio a Televisão poderia ser comparada a um “rádio com imagens” uma vez 
que obedecia ao mesmo processo de produção e exibição radiofônicas: seus programas 
eram transmitidos ao vivo pois não havia nenhum meio de registro das imagens geradas 
pelas câmaras de TV. Além disso as primeiras equipes foram recrutadas da área técnica 
das rádios. Tanto é que quem responde até hoje pelos trabalhadores da Televisão é o 
Sindicato dos Radialistas. 
 Com o surgimento do videotape (fita de vídeo) no ano de 1956, os programas 
poderiam ser pré-gravados evitando, assim, erros 
que eram frequentes na geração ao vivo, porém 
ainda não se dispunha de um equipamento que 
permitisse a manipulação desse material, isto é, 
sua edição. A gravação se dava como se fosse ao 
vivo: do início ao fim, sem interrupções. O 
videotape apareceu pela primeira vez no Brasil 
em 1958, com a apresentação de "O Duelo", de 
Guimarães Rosa na TV Tupi de São Paulo e 
passou a ser usado definitivamente com o 
programa humorístico de Chico Anísio em 1960. 
Esse primeiro sistema de gravação magnética de imagens utilizava fitas em rolo de 2 
polegadas chamadas Quadruplex. 
 
 A câmera prtátil de vídeo mudou tudo. Em 1967 a japonesa Sony apresenta o seu 
aparelho DV-2400 Portapack (Video Rover) e a produção em vídeo sai às ruas e se torna 
mais acessível. Esse novo formato foi utilizado principalmente por artistas plásticos, 
transformados agora em "vídeo-artistas", que experimentaram as possibilidades do vídeo 
como expressão artística. 
 
 Essas primeiras câmaras portáteis se ligavam, via cabos, a 
um gravador também portátil que era carregado pelo próprio 
câmera ou por um assistente. 
 
 No ano de 1970, a Sony criou o U-Matic, formato 
que trazia a fita já em cassete com uma bitola de ¾ de polegada 
em vez de 2 polegadas, lançado comercialmente em 1974. 
A televisão, com este sistema, apesar de um 
pouco inferior ao Quadruplex, ganhava 
praticidade. Com a fita U-Matic, esse 
conjunto de inovações técnicas permitiu agilizar as gravações 
externas, principalmente as reportagens, em que eram utilizadas 
câmeras com filmes 16 mm que deveriam ser revelados e depois 
montados. Junto com o U-matic desenvolveu-se o equipamento e o 
conceito de edição eletrônica. 
 
 O espaço onde são instalados os equipamentos de edição 
ficou conhecido como "Ilha de Edição". 
 
 
 
 
 
 
 A ilustração acima é o que chamamos de "ilha de corte seco". É geralmente 
utilizada no processo de pré-edição e principalmente em jornalismo. 
É composta de duas máquinas de videotape (VT). O Player, onde são colocadas as fitas 
com as imagens originais, e o Recorder, que gravará em uma nova fita as imagens 
selecionadas geradas, já na ordem de edição, pelo Player. Essa pré-edição é levada 
então a uma "ilha de finalização" equipada com outros aparelhos como as mesas de 
edição, efeitos e som e o gerador de caracteres. Nessa ilha, como o próprio nome sugere, 
a edição é finalizada, gerando o que chamamos de "master": o programa pronto para ser 
exibido. 
 
 
 Em 1981a Sony lança o formato Betacam de meia 
polegada acompanhado de equipamentos ainda mais portáteis. 
Foi baseado no Betamax, formato caseiro que não obteve 
sucesso no mercado, sendo incontestávelmente batido pelo 
formato VHS da JVC (Japan Victor Company). O Betacam, pelo 
contrário, foi um sucesso e conquistou o mercado profissional. 
Até hoje é o formato padrão das TVs brasileiras e pelo mundo. 
 
 
EDIÇÃO OU MONTAGEM? 
 
 Montagem é o principal departamento da fase de finalização de um filme. O 
montador trabalhava na moviola e é o responsável por dar a forma final ao filme a partir 
dos planos filmados. Vindo do teatro e através da influência francesa no vocabulário 
técnico do cinema brasileiro, esse termo vem caindo em desuso a partir do avanço da 
produção em vídeo e da padronização da edição digital que nivela, em termos 
operacionais, tanto vídeo como cinema. Em inglês, quem "monta" a imagem é chamado 
de editor seja ele "video editor" ou" film editor". A televisão no Brasil sofreu a influência 
direta da língua inglesa, portanto quem trabalha com edição de imagens na TV é 
chamado de editor. 
 
EDIÇÃO LINEAR OU NÃO LINEAR? 
 
 A edição linear apareceu com o vídeo e tende a desaparecer a partir da sua 
substituição pelos programas de edição digitais. Ela é resultado da própria característica 
física da gravação em vídeo. O próprio nome já diz tudo: as imagens têm que ser 
gravadas em uma fita magnética que corre ininterruptamente sobre uma cabeça de 
gravação. Elas são registradas uma após a outra, linearmente. Qualquer modificação que 
se fizer necessária o editor terá que posicionar a fita no ponto da modificação e 
recomeçar a gravação, linearmente, apagando todo o trabalho já feito a partir daí. 
 A edição não-linear é utilizada tanto em cinema como cada vez mais em Televisão. 
Ela não é sinônimo de edição computadorizada. O corte de uma película e a montagem 
em uma moviola, por exemplo, é uma maneira de se editar de forma não linear, ou seja, o 
filme pode sofrer mudanças de tempo ao longo da edição sem comprometer o que foi 
editado antes ou depois daquela modificação. 
 É como um jogo de cartas. Nós podemos dispor das cartas, assim como a película 
de cinema e os arquivos de computador, em qualquer ordem e modificar essa ordem em 
qualquer ponto sem interferir na posição das outras "cartas", ou imagens. 
 
 EDIÇÃO DE TV 
 
A edição de Tv demanda alguns cuidados devidos às próprias características do 
vídeo. Além disso estamos vivendo a transição dos formatos Standard (SD) para os 
formatos de alta definição (HD) Seguem algumas informações a respeito: 
 
1 - Existem dois sistemas de cor principais adotados no mundo o Pal e o NTSC. 
Esses sistemas são adotados em função da rede elétrica de cada país. Países com rede 
de 50 Hz adotam sistemas que rodam a 25 fps. O Pal é um deles, e dos países da 
Europa, por exemplo, a maioria adotou o Pal. Estados Unidos, Américas, Brasil e Japão, 
por exemplo, têm a rede a 60 Hz. O sistema de cor NTSC, que roda a aproximadamente 
30 fps é o sistema mais utilizado nesses países. Mesmo que o sistema adotado para 
exibição seja outro, aqui no Brasil, ao se implantar a TV a cores nos anos 70, decidiu-se 
por um padrão híbrido baseado no sistema Pal adaptado para rodar a 30 fps, de acordo 
com a nossa corrente elétrica de 60 Hz, o PAL-M. Mas isso é apenas o padrão de 
exibição. A produção e a pós-produção em vídeo e TV trabalham no sistema 
NTSC.
 
 
2 - Cada frame de imagem, independente do sistema, é formado por dois campos 
ou fields. Esses são gerados através do percurso do feixe de elétrons que é responsável 
pela geração da imagem. O primeiro campo é formado pelas linhas ímpares e o segundo 
pelas linhas pares. Esses dois campos se entrelaçam formando um frame de imagem. 
Logo: 60 hz ⇒ 60 fileds ⇒ 30 fps entrelaçados ou interlaced. 
 
3 - Criou-se um modo de contagem dos frames e, consequentemente, do tempo 
gravado nas fitas de vídeo: o Timecode. Traduzindo: código de tempo. O Timecode é uma 
informação gravada na fita, assim como o vídeo e o áudio, que identifica cada frame e nos 
informa sua posição através do formato hh:mm:ss:ff, onde h=hora, m=minuto, s=segundo, 
f=frame. Enquanto a fita vai rodando, nós somos informados também da progressão do 
Timecode. A cada 30 frames é contado 1 segundo, a cada 60 segundos 1 minuto e a 
cada 60 minutos 1 hora. Simples? Nem tanto. O NTSC tem uma característica: 30 frames 
não correspondem exatamente a 1 segundo. Eles rodam mais lentos que o segundo. A 
velocidade real do NTSC é reconhecida como 29,97... fps. Isto é: o trigésimo frame 
"avança" 0,3 sobre o 2º segundo, atrasando a entrada do novo bloco de 30 frames e 
assim sucessivamente e cumulativamente. Desta forma, quanto mais o Timecode avança, 
mais se distancia de uma contagem real do tempo. Esse problema foi solucionado com o 
estabelecimento de um padrão de contagem de frames chamado drop frame ou, 
livremente traduzindo, queda de frame. Estando em DF o timecode será gravado 
"deixando cair" dois frames a cada segundo, exceto nos minutos redondos: 00:1:00:00, 
00:02:00:00, 00:03:00:00, etc. Fora desses momentos específicos, ao chegar ao frame 
29, o segundo vira registrando o Timecode 02, "deixando cair"o 01 e o 02. Não se joga 
fora o frame, ele só é reconhecido com um Timecode diferente da ordem lógica, uma 
forma de contar os frames que aproxima o tempo registrado na fita do Tempo Real. A 
forma "natural" de se contar frames, um por um, sem perder nenhum número, também 
está à disposição do editor e é chamada de non drop frame NDF. 
 
4 - As fitas de vídeo são magnéticas e é dessa forma que a informação é gravada 
nelas. É preciso que os componentes da fita sejam "arrumados" para receber a 
informação eletromagnética que será depois traduzida em áudio e vídeo pelos monitores 
de TV. Para isso existe uma forma de gravação chamada ASSEMBLE, onde a fita passa 
por uma primeira cabeça que "arruma" os elementos da fita, gravando o que chamamos 
Base. Logo a seguir a fita passa pelas cabeças de gravação de áudio, vídeo e Timecode, 
registrando as imagens desejadas. A questão é que sempre que se trabalhar no modo 
Assemble essa primeira cabeça estará ativa preparando o terreno, criando uma nova 
base mesmo em fitas já gravadas e portanto já com base. Nessa situação, em qualquer 
lugar em que se parar a gravação vai haver um pedaço de fita com a nova base mas sem 
imagem nem vídeo nem Timecode. Visualmente, o espectador percebe um ruído 
interrompendo o fluxo das imagens. Esse fenômeno é conhecido como "quebra de 
base"ou "buraco de Timecode". Para que isso não aconteça existe um outro modo de 
gravação onde só as cabeças de áudio, vídeo e Timecode são acionadas que é o modo 
INSERT. As imagens são gravadas sobre uma base já previamente colocada. No entanto 
este modo de gravação não é eficiente em fitas "virgens" já que elas vêm de fábrica sem 
base. A primeira gravação deverá ser, portanto, em assemble. 
 
5 - Por conta disso, existem dois modos de gravação de Timecode: PRESSET e 
REGEN. O modo Preset é o modo utilizado na gravação da primeira imagem na fita. O 
editor define o Timecode com o qual a gravação vai começar. Para que o Timecode flua 
constante e progressivo, a partir daí utiliza-se o modo Regen, onde o deck lê e reconhece 
o Timecode da fita e, a partir do ponto de gravação, continua gravando e "regenerando" o 
Timecode. 
 
 
PENSANDO A EDIÇÃO NA GRAVAÇÃO 
 
É importante estar atento que a edição não é apenas a última etapa no processo 
de produção de um produto audiovisual. Ela está presente desde o início, mesmo que de 
forma implícita. Na gravação de um programa de tv, diversos cuidados devem ser 
tomados para que não ocorram surpresas na ilha de edição. 
 
1. Decupar o roteiro em caso de uma teledramaturgia. O diretor, juntamente com 
o fotógrafo e com o assistentede direção, deve prever a montagem já no 
roteiro. Nessa etapa é que serão escolhidos os tipos de plano a serem 
gravados para cada cena do roteiro. Uma decupagem precisa e organizada 
faz com que a edição flua sem problemas. O Storyboard muitas vezes é 
utilizado para que essa decupagem esteja clara para todos os envolvidos. 
 
2. Gravar planos de apoio para auxiliarem a edição. 
 
3. Cenas que exijam muitos efeitos de pós-produção devem ser discutidas antes 
de sua filmagem com o editor e/ou o produtor de efeitos / animador. 
 
4. No caso de documentários, gravar imagens que possam enriquecer a edição. 
Prever isso já em uma pré-decupagem. 
 
5. Evitar problemas técnicos que possam afetar diretamente a edição daquele 
produto. Algumas dicas: 
 
a. Som contínuo em uma gravação (música ambiente, barulho de obra, 
latidos de cachorro, etc.). Se não houver solução, é importante que o 
técnico de som grave por um tempo (normalmente um minuto) o som 
ambiente. Assim, na montagem, esse som será utilizado para que 
tenhamos uma sensação de continuidade nas cenas. 
b. Estar atento em utilizar o recurso da claquete para cenas que necessitam 
de sinc. Tanto de áudio (caso de gravação do som separado da imagem) 
e também de vídeo, para o caso de gravação com duas câmeras. 
c. Sempre gravar vídeo e áudio, mesmo que a princípio só o vídeo 
interesse. Algum ruído ou comentário sempre pode ser útil ao editor. Se 
nada for útil é só não utilizar, mas se algum som se mostrar 
indispensável e não foi gravado, não poderá ser utilizado porque não 
existe. 
d. Utilizar a ficha de decupagem (também boletins de som para gravação 
do som separado da imagem) nas gravações. Esse recurso tem o 
objetivo de organizar o material, para que qualquer outro profissional que 
vá manuseá-lo possa entender sem problemas. 
e. Uso de claquete identificadoras das cenas. Para cada plano a ser 
gravado, o ideal é utilizar a claquete que identifique a cena no roteiro. 
f. Uso de claquete para entrevistados. Pedir para que os entrevistados 
falem seu nome completo e todas as informações necessárias para que 
fique registrado na fita. Uma claquete com o seu nome escrito é melhor 
ainda, pois já identifica a grafia correta. 
g. Identificação correta e organizada do material – fitas, cds de áudio, 
gravações de off, etc. Tudo deve estar rigorosamente organizado para 
iniciar o processo de edição. 
 
 
EDIÇÃO DIGITAL - O COMPUTADOR 
 
 Com a chegada do computador houve uma radical modificação nos procedimentos 
de edição e finalização tanto no cinema quanto em vídeo. Os editores e montadores 
tiveram que se adaptar, aprendendo a técnica de operação desse novo equipamento. 
Para se editar imagem em computador é necessário, basicamente, um programa de 
edição e da transformação das imagens arquivos digitais editáveis. 
 Para a transformação das imagens originais em arquivos é preciso haver uma 
ligação do computador, através de uma placa de vídeo, a um aparelho que gere essas 
imagens, um player de videotape. 
 As imagens captadas em filme deverão, portanto, ser transformadas em imagens 
em vídeo. Esse processo é chamado de Telecinagem e é feito por um equipamento 
chamado Telecine O Telecine nada mais é que um projetor adaptado para projetar a 
imagem da película em um sensor que a transforma em informações elétricas para a 
cabeça de gravação de um videotape recorder. 
 Após a telecinagem, a imagem de cinema adquire as mesmas características da 
imagem em vídeo e está pronta para se transformar em arquivos editáveis. 
 Os programas de edição desenvolveram-se bastante até os dias de hoje. Aqui no 
Brasil os mais utilizados são o Avid, o Final Cut e o Premiere. Eles têm muita coisa em 
comum, e o operador que está familiarizado com um programa terá poucas dificuldades 
em se adaptar a outro, pois apesar de oferecerem comandos um pouco diferenciados as 
operações de edição são basicamente as mesmas e a interface, o modo como eles se 
apresentam visualmente, é muito parecida, seguindo a mesma estrutura gráfica de 
disposição das janelas. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 A imagem acima é uma reprodução do Avid, primeiro programa de edição a 
consolidar uma posição no mercado brasileiro. É considerado por alguns setores como o 
único programa "profissonal" confiável, mas o Final Cut já divide com ele as atenções e 
preferências dos editores. 
 O Final Cut entrou no mercado gerando uma verdadeira revolução ao ser oferecido 
a um custo acessível à grande parte das produtoras e editores. O que só só era possível 
com um investimento pesado e reduzido às produtoras de finalização, montar uma ilha de 
edição digital, com o aparecimento do pacote Final Cut + Apple G4 ficou acessível a 
todos. Houve uma democratização do acesso aos meios de edição e finalização. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 Acima, o Final Cut. 
 
 Já o Premiere corre por fora e vem evoluindo rapidamente, mas, por questões 
operacionais, não é muito utilizado pela faixa profissional de geração de conteúdo para 
cinema e tv, mas sim pela de prestação de serviços vários para o público em geral. É o 
programa mais utilizado por produtoras que oferecem os mais variados serviços como a 
cobertura de casamentos, formaturas, aniversários e, eventualmente, um ou outro 
institucional e pequenos vídeos para a internet. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
A INTERFACE DOS PROGRAMAS DE EDIÇÃO 
 
 Interface é a apresentação visual de um programa e como ele dispõe suas janelas 
para a interação com o usuário. Acabamos de ver que neste quesito os programas 
apresentam um grau de semelhança muito forte. 
 A interface dos programas de edição é uma tentativa de reproduzir o ambiente 
analógico a que os editores estavam acostumados. Com isso, foram adaptadas ao 
ambiente gráfico características tanto da sala de montagem cinematográfica quanto da 
ilha de edição eletrônica. 
 Na sua configuração básica, os programas apresentam 5 janelas principais. 
 
1. A primeira janela é a janela do projeto, onde o editor 
organiza seu trabalho e onde estão dispostos todos os 
elementos necessários para a edição desse projeto: 
clipes de áudio e vídeo, arquivos gráficos como fotos, 
animações, logotipos, etc. e as sequências onde esses 
elementos serão editados. Dependendo do volume do 
trabalho, o editor pode abrir nessa janela pastas para 
organizar melhor o seu trabalho. Essas pastas são 
chamadas de bins, termo que vem do cinema e, na sala 
de montagem, dá nome a uma caixa "banheira" onde 
eram pendurados / guardados os pedaços de filme que 
estavam sendo montados no momento. Imagem ao lado. 
 2. As próximas duas janelas reproduzem uma ilha de corte seco em vídeo. São 
dois monitores que fazem o papel dos monitores das máquinas player e recorder. O da 
direita exibe a imagem da sequência que está sendo editada, mostrando ao editor o 
resultado de seu trabalho. O da esquerda recebe o material que vai ser editado, os clipes 
originais, dando oportunidade ao editor para escolher o trecho exato que vai entrar na 
edição 
final.
 
 
 
 
 
3. Abaixo delas está a Timeline ou Linha do Tempo, que é a representação gráfica da 
edição. Você pode ver os clipes que constituem sua edição, seu tamanho e sua relação 
com os outros clipes. A Timeline é uma adaptação ao ambiente gráfico das pistas de uma 
moviola. 
 
 
 
 
 
 
4. Finalmente temos a janela de efeitos. Ela guarda uma 
coleção de efeitos e transições de áudio e vídeo que 
podem ser utilizados pelo editor no momento em que ele 
quiser. 
Os efeitos são aplicados sobre os clipes, alterando a 
imagem original. 
As transições são aplicadas entre dois clipes e, como o 
próprio nome sugere, possibilitam efeitos de passagemde uma imagem para outra como fusões e wipes. 
Além disso existem também os "geradores"que são 
padrões de imagem e som como o color bar, por exemplo 
 
 
 Esta é a configuração básica dos programas de 
edição. Existem outras janelas, com diferentes funções, 
que poderão ser abertas de acordo com as necessidades 
do editor. 
 Correção de cor, mixagem, digitalização, 
monitoração de áudio e vídeo, geração de caracteres são 
exemplos de algumas outras janelas. 
 
 
 
 
 
 
 
A TÉCNICA DA EDIÇÃO DIGITAL 
 
A edição de imagens é condicionada a vários fatores, os principais são: a forma 
como a imagem foi captada e forma como o produto final será exibido. A partir desse dois 
parâmetros o editor/montador vai definir os procedimentos de edição mais adequados a 
este momento específico. 
Dessa forma podemos identificar três fases distintas no processo de edição: 
1. A Importação ou Input. 
2. A edição propriamente dita. 
3. A exportação ou Output. 
 
1. IMPORTAÇÃO OU INPUT 
 
A fase de importação é a fase de agrupamento de todo o material necessário para 
a edição do projeto. Sejam as imagens em vídeo, sejam arquivos gráficos ou de áudio. É 
também o momento em que o editor prepara o seu projeto de acordo com o formato do 
vídeo original ou seu Codec. 
 
 O QUE É UM CODEC? 
 Codec é uma sigla que condensa duas palavras em inglês: coder e decoder 
(co/dec). Essa palavra também resume o processo pelo e para o qual os codecs foram 
criados.Um codec codifica e comprime a imagem para o seu armazenamento como 
arquivo de dados e o descomprime e decodifica para a sua exibição e/ou edição. 
Geralmente um codec é um código digital responsável por essas ações a partir do 
momento em que é acionado por um programa (software), mas também pode ser um 
equipamento (hardware) capaz de transformar áudio e vídeo analógicos em informação 
digital. 
 Estas ações ocorrem em tempo real, tanto a captura quanto a exibição (playback). 
O codec também pode funcionar da forma inversa, isto é, transformar a informação digital 
em um sinal analógico de áudio e vídeo. Fora do contexto da Televisão, o codec será 
principalmente utilizado para a compressão digital de áudio e vídeo tendo em vista seu 
melhor armazenamento, manipulação e exibição. 
 
 Tipos de Codecs 
 
 Existe uma grande variedade de codecs que podem ser agrupados em diferentes 
categorias de acordo com suas características: 
"Lossles Codecs" ou seja, Codecs "sem perda", reproduzem o vídeo exatamente como 
ele é, sem perda de qualidade. 
"Lossy Codecs" por sua vez, são codecs em que o vídeo perde em qualidade ao ser 
comprimido, mas fica "mais leve, podendo ser armazenado mais facilmente. Geralmente 
esses codecs são muito utilizados para comprimir dados quando é preciso enviá-los por 
e-mail ou fazer o seu upload para a internet. 
"Transformative Codecs" cortam o material em pedaços menores, e por isso de melhor 
manuseio, antes de comprimí-lo. 
E "Predictive Codecs" comparam a imagem a ser comprimida com os dados adjacentes, 
dispensando toda informação redundante ou repetitiva e por isso desnecessária, 
maximizando a utilização do espaço em disco. 
De uma forma geral, todos esses codecs trabalham com o objetivo de dispor a informação 
em arquivos de fácil manuseio e com a menor perda de qualidade possível. 
 
Uma "família" muito usada e conhecida é baseada nos padrões da MPEG: Moving Picture 
Experts Group, a organização que estabeleceu e codificou esses padrões. Existem três 
formatos principais de MPEG de onde derivam vários outros. 
 
MPEG-1 é um fluxo de dados (data stream) que reproduz a imagem em alta qualidade. O 
MP3 (MPEG-1 Layer 3) que é um padrão para a compressão de áudio, é uma aplicação 
derivada do MPEG-1 data stream. Porém o vídeo em MPEG-1 nem sempre inclui MP3 
áudio. 
Quase todos os computadores e DVD players suportam os formatos de encodamento 
digital MPEG-1 e MP3. Uma desvantagem é que o MPEG-1 trabalha apenas com 
scanning progressivo. Scanning Progressivo é uma forma de armazenamento e exibição 
da imagem onde as linhas são formadas em sequência, isto é, progressivamente, em 
contraste com o scanning entrelaçado onde, como vimos antes, a imagem se forma 
através do entrelaçamento das linhas pares com as ímpares, formadas independente e 
subsequentemente. Por outro lado o MP3, embora tenha perdas (lossy), é um arquivo 
muito leve e se tornou o padrão para o áudio digital na internet e nos aparelhos de 
armazenamento e reprodução de áudio, os mp3 players. 
MPEG-2 tambem oferece alta qualidade e é o padrão utilizado para os DVDs de exibição. 
Embora existam novos codecs com maior qualidade de compressão, o MPEG-2 continua 
sendo o padrão para a produção de DVDs e é também uma opção para Blu-Ray. 
MPEG-4 suporta tanto vídeo progressivo quanto entrelaçado. Tão aceito quanto o MPEG-
2, utiliza, no entanto uma técnica de compressão aprimorada. Há um grande número de 
codecs derivados do MPEG-4. Um deles é o H.264 que é outra opção de encodamento 
para blu-ray, além de ser utilizado, por exemplo, pelo i-tunes store para exibição de 
vídeos. .A "família" H.264 oferece uma grande variedade e flexibilidade de padrões. 
Possibilita a compressão tanto em altos e baixos Bit-rates e resoluções, permitindo ao 
usuário ajustar seu tamanho para as mais diversas aplicações, bradcast, multimídia ou 
seu armazenamento em grandes arquivos. 
 
WMV (Windows Media Video) é outra família de codecs muito conhecida e popular por se 
tratar do padrão Windows de encodamento de vídeo. Criado originalmente para comprimir 
arquivos para a internet, o WMV apareceu como um concorrente do codec Real Video. A 
sua versão WMV9, segundo a Microsoft, apresenta padróes de compressão duas vezes 
melhor que o MPEG-4 e três vezes melhor que o MPEG-2. É também a base para o 
formato de compressão SMPTE VC-1, que é outro padrão disponível para o encodamento 
para blu-ray. 
 
DV é um outro codec largamente utilizado. O formato popular Mini DV usa o DV25, que 
corre a 25 megabits por segundo. 
 
QUICKTIME e AVI não são codecs. Quando um vídeo é capturado, um computador 
rodando Windows irá gravar a imagem em um arquivo AVI e um Mac gravará em 
QuickTime. AVI e QuickTime são "containers" ou "envelopes", arquivos que "envolvem", 
como um papel de presente, o vídeo encodado. Eles se referem ao modo como o vídeo é 
armazenado, não como é encodado, abrigando uma grande variedade de codecs. 
 
 O recomendável é que se trabalhe, do início ao fim da edição, utilizando-se um só 
formato de vídeo, mas dependendo das características do produto, como por exemplo um 
documentário utilizando diferentes fontes de imagens de arquivo, gravadas em formatos 
diferentes, o editor terá que padronizar esses formatos para gerar, no final, um produto 
em um único formato. 
 
 O input é realizado de duas formas distintas. Digitalizando o material original em 
vídeo através de um deck. A informação analógica será transformada em dados e 
armazenada como arquivos de vídeo. AVI ou QUICKTIME. Ou então a transferência de 
dados, geralmente feita com arquivos sonoros e gráficos. Recentemente surgiram 
câmeras que já registram as imagens em dados, não necessitando mais do suporte 
magnético. Essas câmeras gravam a informação em cartões de memória ou já em um 
HD, seja interno ou externo. Nessa situação, cabe ao montador transferir esses arquivos 
para o seu computador e transformá-los em um formato, AVI ou QUICKTIME, que possa 
ser manipulado dentro do programa de edição. 
 Dependendo da capacidade de armazenamento do computador, o editor tem duas 
opções.: 
 1. Digitalizar o material em alta compressão. Quanto maior a compressão menor o 
tamanho do arquivo e mais arquivos poderão ser armazenados. Porém a qualidade da 
imagem cai proporcionalmente ao aumento da compressão. Isso quer dizer que a edição 
se dará öff line", isto é, servirá apenas comoreferência, não tendo qualidade para 
exibição. Em um momento posterior, quando a montagem estiver fechada ou quase 
fechada, o editor está ciente de que necessitará redigitalizar a imagem, desta vez sem 
compressão. No entanto ele só digitalizará as imagens que foram preservadas no corte 
final, o que diminui consideravelmente o volume de material. 
 2. Logar as imagens que interessam e digitalizar apenas essas imagens. "Logar" é 
um termo adaptado do inglês Log que quer dizer listar, registrar. O montador faz uma lista 
dos pontos a serem digitalizados e o programa de edição cumpre as suas determinações. 
 O importante é ser organizado e fornecer todas as informações necessárias para o 
programa de edição. Assim, o projeto, além da sua principal função que é a edição, é um 
registro e uma memória dessa edição, podendo refazê-la automaticamente. 
 Atualmente o armazenamento já não é um problema, temos HDs de até 2 
Terabites. Com essa facilidade, os editores vêm digitalizando o material já com a sua 
melhor qualidade, evitando trabalho dobrado. 
 
2. A EDIÇÃO PROPRIAMENTE DITA 
 
Depois de "alimentar" o computador com a mídia a ser usada pelo programa de 
edição, o montador parte para o seu trabalho principal: dar forma ao filme, seguindo os 
seguintes passos. 
 
Criação de sequências ou timelines – Dentro dos bins organizados pelo 
montador, são criadas as Seqüências. A seqüência é o elemento que guarda a memória 
de determinada edição. Enquanto que os outros elementos são exibidos em uma janela 
que seria a correspondente ao player de uma ilha linear, a seqüência será aberta em duas 
janelas. Uma corresponde ao recorder e oferece ao editor a reprodução das imagens 
editadas de acordo com os seus comandos. A outra é a Timeline ou “linha do tempo” que 
é a representação gráfica da edição. 
 
1. Criação de sequências ou timelines – Dentro dos bins organizados pelo 
montador, são criadas as Seqüências. A seqüência é o elemento que guarda a 
memória de determinada edição. Enquanto que os outros elementos são 
exibidos em uma janela que seria a correspondente ao player de uma ilha 
linear, a seqüência será aberta em duas janelas. Uma corresponde ao recorder 
e oferece ao editor a reprodução das imagens editadas de acordo com os seus 
comandos. A outra é a Timeline ou “linha do tempo” que é a representação 
gráfica da edição 
 
2. IN e OUT – Ao longo de uma edição, o editor vai se deparar o tempo inteiro com 
esses dois termos. Eles são a marcação de entrada e de saída de um plano 
escolhido, isto é, onde uma imagem começa e onde termina. Ex. Caso o editor 
queira inserir na edição uma imagem de uma panorâmica, ele deve indicar ao 
computador o início (mark in) e o final (mark out) do take que ele quer inserir. 
 
3. Montagem na Timeline - Na timeline a montagem pode ser alterada a qualquer 
momento pelo montador. Esta manipulação se dá através da utilização do 
“mouse” e de atalhos de teclado. Música, planos escolhidos, vinhetas, fotos, 
tudo será colocado na sequência. Conforme vão sendo inseridos novos 
elementos a duração do programa aumenta e consequentemente o tamanho 
físico da timeline. 
 
4. Tracks ou Layers – Cada Timeline é composta de tracks (pistas), também 
chamadas de layers (camadas) de áudio e vídeo. Nessas pistas serão inseridos 
os elementos de áudio e vídeo do programa. Os softwares atuais possibilitam 
inúmeras pistas simultâneas. Isso é muito útil para utilizar efeitos de 
composição de vídeo (ex. Uma tela dividida em quatro com várias cenas 
acontecendo ao mesmo tempo) e de mixagem de áudio (ex. Uma música 
inserida na edição que toca ao fundo de um diálogo entre dois personagens). 
 
5. Aplicação de efeitos e Padronização – Depois de se fechar a imagem, o 
editor aplica efeitos e filtros necessários tanto na imagem quanto no som. 
Também nesse momento ele trabalha os níveis de áudio e video para que eles 
fiquem dentro dos padrões de exibição, evitando a ocorrência de ruídos. 
 
 Alguns filmes necessitam de um trabalho mais especializado para prepará-los para 
a exibição, visando a melhor qualidade de imagem e de som. O editor cede seu lugar a 
profissionais especializados no tratamento tanto de áudio quanto de vídeo e o filme passa 
pelo processo de Finalização. 
 
1. Correção de cor ou marcação de luz – Depois de se fechar a imagem, muitas 
vezes com o auxílio do fotógrafo, o finalizador vai tratar a cor, a luz e o 
contraste do programa, tendo em vista um conceito fotográfico que acompanhe 
as necessidades narrativas do filme e uma homogeneidade visual para que o 
espectador não perceba nenhuma mudança brusca na passagem de uma 
imagem para outra, a não ser quando isto for proposital. 
 
2. Finalização de Som ou Sonorização – Nessa etapa, toda a parte sonora do 
programa será tratada. O editor de som se encarregará da construção das 
trilhas de diálogos, ruídos e ambiente. Em televisão é também conhecido como 
sonoplasta. Já o compositor ou diretor musical irá inserir a trilha sonora original 
ou de arquivo. O som, assim como a imagem, será tratado em softwares 
específicos. O mais comum é o Pro Tools. O som, então, poderá ser mixado, 
transformando-se em uma trilha única. 
 
3. Masterização – Todo Canal de Televisão possui suas normas técnicas e seus 
padrões de exibição. Antes de colocar o produto em uma fita, o editor ou 
finalizador deve estar atento a isso. Nesse momento ele vai gerar uma fita 
Master, que será a matriz para cópias de exibição e toda e qualquer outra cópia 
daquele produto (DVDs, VHS, vídeos para Internet, etc.) 
 
 3. A EXPORTAÇÃO OU OUTPUT 
 
 Este é o momento do editor "se livrar" do seu trabalho, gerando o Master de 
exibição. Como foi dito acima, a forma tradicional é "baixar" para uma fita. O mesmo deck 
que foi utilizado para a digitalização do material agora grava em uma fita livre, geralmente 
Betacam (analógica ou digital) ou DV, o produto editado. A fita é encaminhada para a 
exibição e o montador está pronto para recomeçar. 
 Hoje, no entanto, existem várias opções de output e, de acordo com a finalidade de 
cada edição, o Master pode ser produzido como arquivo digital em diferentes codecs para 
diferentes formatos de exibição como DVD, internet streaming e aparelhos móveis (MPEG 
players ou mesmo telefones celulares).

Outros materiais