68
Informações técnicas Sinal de vídeo www.therebels.com.br Página 1

Informações técnicas - Sinais de Vídeo

Embed Size (px)

Citation preview

Page 1: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 1

Page 2: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 2

1080i um dos dois tipos de formatos HD ; o formato 1080i possui resolução vertical de

1080 linhas e seus quadros de imagem são montados através da forma entrelaçada (daí o

"i" após "1080").

23,97 (frames / seg) O frame rate real do sinal de vídeo no padrão NTSC é 29,97qps e

não 30qps, uma redução de 0,1%, correspondentes a, mais precisamente, um fator de

1000/1001. Já os filmes empregam desde o estabelecimento do cinema sonoro a

frequência de 24qps. Várias câmeras de vídeo permitem a gravação em 24qps, para

possibilitar a transferência do conteúdo gravado para película cinematográfica (processo

denominado transfer) com mais facilidade. No entanto as câmeras voltadas para o

segmento semi-profissional com esta característica geram os 24 quadros embutidos

dentro de um sinal padrão NTSC, utilizando a técnica Pull Down. Ou então o Pull

Down pode opcionalmente não ser feito (na opção de gravação direta em cartões de

memória como o cartão P2 por exemplo) mas ainda assim, a captura original das

imagens dentro da câmera antes das transformações internas para gerar os diversos tipos

de saída segue o padrão NTSC em termos de frame rate (mesmo utilizando 60qps no

modo progressive scan, como muitas câmeras HD fazem, o frame rate real é na verdade

59,94qps).

Com isso, os 24 quadros gerados também ficam submetidos à redução de 0,1% no

frame rate, tendo-se assim 24000/1001 = 23,97602397602397602397602397... o que é

representado em alguns sistemas como "23,97", em outros como "23,98", em outros

como "23,976" ou ainda simplesmente "23", querendo dizer a mesma coisa de forma

simplificada. Por outro lado, equipamentos profissionais permitem, como opção, a

gravação de exatos 24qps, utilizando técnicas como por exemplo a gravação em PsF

(Progressive Segmented Frame).

No caso das câmeras que não gravam 24 quadros reais (e sim 23,97 como visto acima),

se o conteúdo de imagem gerado sofrer transfer, após o mesmo, o filme será exibido em

uma cadência ligeiramente mais rápida do que a utilizada na captura.

24p referência ao padrão de sinal de vídeo NTSC utilizado em sua variação progressive

com 24 quadros por segundo. Cada quadro é montado linha a linha em 1/24seg., e essa

cadência (frame rate) é a mesma utilizada no cinema. O objetivo é obter um sinal que

possa com mais facilidade ser transferido para película - devido à coincidência de

frequência de quadros - além de imitar o aspecto de "borrão" existente nas películas

para imagens em movimento. O "24" em "24p" faz referência a 24 quadros progressivos

e o "p" ao referido modo.

25p o mesmo que 30p, porém para o sistema PAL, que utiliza frame rate de 25

quadros/segundo.

29,97 (frames / seg) No início da década de 50, nos EUA, o comitê National Television

System Committee estabeleceu o padrão para TV colorida conhecido como NTSC.

Como já existia uma grande base de aparelhos P&B funcionando, para manter a

compatibilidade com eles o novo sistema deveria ter suas imagens captadas sem

problemas por esses aparelhos também. Desenvolver um sistema completamente novo

Page 3: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 3

faria com que todos esses televisores tornassem-se obsoletos da noite para o dia,

exigindo assim sua troca, e a coexistência de 2 sistemas não era algo prático nem viável.

A solução encontrada foi embutir os sinais de cores dentro do sinal já existente P&B, de

modo que televisores antigos simplesmente o ignorassem. Para isso, através da técnica

de multiplexação (que, de maneira simplificada, nesse caso significa ter diferentes tipos

ondas eletromagnéticas (chamadas subportadoras) "montadas" sobre uma mesma onda

principal (chamada portadora) onde varia-se a frequência dessas ondas subportadoras)

foi incluída uma nova onda no sinal, correspondendo a sua parte de cor. Como os

aparelhos antigos não "liam" essa frequência nova, estava revolvido o problema.

Os engenheiros perceberam no entanto que essa nova frequência de onda incluída

causava interferências no sinal de áudio do sistema, que possuía frequência próxima da

frequência do novo sinal de cor. Para minimizar o problema de poder ocorrer essa

interferência, algumas modificações no padrão original tiveram que ser feitas, sempre

de modo a não interferir na recepção dos sinais P&B pelos antigos televisores. E uma

dessas modificações foi reduzir ligeiramente o frame rate do sinal, em uma taxa de 0,1%

(mais precisamente o resultado da divisão de 1000/1001, ou seja,

0,999000999000999000999000999...).

Com isso, ao invés de se ter 30qps, passou a ter-se 30000/1001 = 29,97qps (ou, mais

precisamente, 29,97002997002997002997002997... qps). Esse fato levou a criação de

técnicas como a do drop frame Timecode, para opcionalmente ajustar a contagem de

tempo do vídeo com a do tempo real. Como o vídeo "corre" mais lentamente do que o

tempo real (em uma taxa de 0,1%, como visto acima), ao término de cada minuto

(exceto os terminados em "0") a numeração de contagem dos quadros no Timecode

avança 2 quadros, para compensar essa diferença do frame rate do sistema NTSC com o

tempo real.

2K / 4KCom o desenvolvimento dos sistemas de projeção digital em cinema, utilizando

vários formatos com diferentes resoluções de imagem (resolução de imagens digitais), o

DCI (Digital Cinema Initiative, consórcio formado pelos principais estúdios de cinema

de Hollywood) propôs em 2005, em uma tentativa de padronizar o assunto e garantir um

nível mínimo de qualidade projetiva, três níveis mínimos de resolução para uso nas

salas de cinema digital:

2K = 2048 x 1080 pixels a 24 qps

4K = 4096 x 2160 pixels a 24 qps (a)

2K = 2048 x 1080 pixels a 48 qps (b)

Filmes produzidos por esses estúdios só seriam liberados para projeção digital nas salas

equipadas para garantir as resoluções de imagem acima. O "K" em "2K" e "4K" refere-

se à resolução vertical em quantidade de linhas ( pixels ) dessas imagens: em Física,

K=1.000 unidades e em Informática, K=1024. A indicação "(a)" acima faz a ressalva de

que esta opção propicia qualidade de imagem visualmente idêntica à da opção 2K para

telas de até 12m de largura e é indicada pelo consórcio somente para projeções 3D (nas

quais os expectadores utilizam óculos especiais para visualizar o efeito tridimensional).

Em "(b)" a projeção é mais nítida e estável do que a 2K a 24qps, porém o espaço

consumido para armazenamento dos dados é maior.

Page 4: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 4

Cinemas que não possuem projetores digitais dentro dessas especificações optam por

trabalhar digitalmente com filmes provenientes de estúdios paralelos, fora do circuito

Hollywoodiano ou então utilizam seu projetor para a exibição de traillers e comerciais

antes do filme em película.

3:1:1 taxa utilizada no processo de sampling (parte do processo de digitalização) de um

sinal de vídeo do tipo analógico, a partir do color space YUV. Os dois componentes

relacionados à parte de cor do sinal (cromitância, canais "U" e "V") tem resolução 3

vezes menor do que o componente relacionado à parte de brilho da imagem

(luminância, canal "Y").

Isso significa que a cada 3 pixels em uma linha de pixels da imagem, para todos é feita a

amostragem de luminosidade e para somente um é feita a amostragem de cor dos sinais

U / V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os

pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para

todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color

difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada a cada 3

pixels.

O formato HDCAM no padrão NTSC utiliza esta taxa.

30p referência ao padrão de sinal de vídeo NTSC utilizado em sua variação progressive,

onde cada quadro é montado linha a linha em 1/30seg. O "30" em "30p" faz referência a

30 quadros progressivos e o "p" ao referido modo.

4:1:1 taxa utilizada no processo de sampling (parte do processo de digitalização) de um

sinal de vídeo do tipo analógico, a partir do color space YUV. Os dois componentes

relacionados à parte de cor do sinal (cromitância, canais "U" e "V") tem resolução 4

vezes menor do que o componente relacionado à parte de brilho da imagem

(luminância, canal "Y").

Isso significa que a cada 4 pixels em uma linha de pixels da imagem, para todos é feita a

amostragem de luminosidade e para somente um é feita a amostragem de cor dos sinais

U / V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os

pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para

todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color

difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada a cada 4

pixels.

Page 5: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 5

Os formatos DV Mini-DV, DVCAM e Digital-8 no padrão NTSC utilizam esta taxa. O

formato DV DVCPRO também utiliza esta taxa, tanto no padrão NTSC como no padrão

PAL.

4:2:0 taxa utilizada no processo de sampling (parte do processo de digitalização) de um

sinal de vídeo do tipo analógico, a partir do color space YUV. A resolução dos dois

componentes relacionados à parte de cor do sinal (cromitância, canais "U" e "V") é

semelhante à utilizada no sistema 4:1:1, ou seja, quatro vezes menor do que a de

luminosidade. No entanto, aqui a amostragem é feita em blocos de 4 pixels distribuídos

em uma área 2x2 (ao invés de 4x1 como no sistema 4:1:1). O desenho abaixo ilustra o

que ocorre: a cada duas linhas, para uma delas é efetuada a amostragem de cor e para a

outra não; para as duas, é efetuada sempre a amostragem de luminosidade:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os

pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para

todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color

difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada uma

linha sim, outra linha não.

Tomando-se os 2 primeiros pixels da linha superior e os dois primeiros da linha inferior,

tem-se um quadrado 2x2. Dentro desse quadrado, como mencionado acima, a

amostragem de cor ocorre somente uma vez. Isso é o mesmo que efetuar uma

amostragem do tipo 4:2:2 para a linha de cima, e uma amostragem hipotética "4:0:0"

para a de baixo. A notação para representar este sistema decorre deste fato: 4:2:0. Não é

uma notação intuitiva, porém o sistema não poderia ser representado nem por "4:0:0"

nem por "4:2:2". O algoritmo de compressão MPEG2 utilizado em DVD-Video

emprega este sistema, assim como o formato HDV e o AVCHD. O formato DV PAL

utiliza uma variação: também classificado como 4:2:0, emprega amostragem de cor em

todas as linhas, mas de maneira alternada: em uma delas é utilizado o componente U, na

outra o componente V, como mostra o desenho abaixo:

4:2:2 taxa utilizada no processo de sampling (parte do processo de digitalização) de um

sinal de vídeo do tipo analógico, a partir do color space YUV. Os dois componentes

relacionados à parte de cor do sinal (cromitância, canais "U" e "V") tem resolução 2

vezes menor do que o componente relacionado à parte de brilho da imagem

(luminância, canal "Y").

Page 6: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 6

Isso significa que a cada 4 pixels em uma linha de pixels da imagem, para todos é feita a

amostragem de luminosidade e para dois deles é feita a amostragem de cor dos sinais U

/ V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os

pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para

todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color

difference U / V, ou seja, a amostragem de cor. Como indicado, ela é efetuada a cada 2

pixels.

Os formatos Digital Betacam, DVCPRO50 e Digital-S são exemplos de formatos que

utilizam esta taxa. O algoritmo de compressão MPEG2 também pode opcionalmente

comprimir dados utilizando esta taxa.

4:4:4 representação da digitalização de um sinal de vídeo do tipo analógico a partir do

color space RGB, sem que seus componentes sofram redução em suas resoluções

originais, como ocorre nos processos 4:1:1, 4:2:2 e 4:2:0 .

Isso significa que a cada 4 pixels em uma linha de pixels da imagem, para todos é feita a

amostragem de luminosidade e também para todos é feita a amostragem de cor dos

sinais U / V, como ilustra o desenho abaixo:

Cada retângulo azul corresponde a um pixel, em uma dada linha do vídeo DV. Os

pequenos quadrados brancos representam a amostragem de luminosidade, efetuada para

todos os pixels. Os pequenos quadrados vermelhos e azuis representam os sinais color

difference U / V, ou seja, a amostragem de cor. Como indicado, ela também é efetuada

para todos os pixels.

50i o mesmo que 60i, porém para o sistema PAL (o frame rate é 50 e não 60).

59,97 (frames / seg) O frame rate real do sinal de vídeo no padrão NTSC é 29,97qps e

não 30qps. Nas câmeras voltadas para o segmento semi-profissional que disponibilizam

sinais HD utilizando frame rate 60p (60 quadros no modo progressive scan), a captura

original das imagens dentro da câmera antes das transformações internas para gerar os

diversos tipos de saída segue o padrão NTSC em termos de frame rate. Assim, como

neste a cadência das imagens é 0,1% menor (mais precisamente o resultado da divisão

de 1000/1001, ou seja, 0,999000999...), a cadência das imagens na captura é

60000/1001, ou seja, 59,9400599... . Já equipamentos profissionais HD permitem

geralmente a opção de se gerar conteúdo a exatos 60p ou então em 59,97p.

60i referência ao padrão de sinal de vídeo NTSC tradicional, onde 60 campos são

capturados / exibidos por segundo (daí o "60" em "60i") e no modo interlaced (daí o "i"

em "60i").

Page 7: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 7

720p um dos dois tipos de formatos HD ; o formato 720p possui resolução vertical de

720 linhas e seus quadros de imagem são montados através da forma progressiva (daí o

"p" após "720").

amostragem o mesmo que sampling.

analógico, sinal o sinal de vídeo é gerado a partir da leitura sequencial, da esquerda para

a direita e de cima para baixo, da intensidade da voltagem de cada ponto do chip sensor

( CCD ) onde a imagem é projetada através das lentes da câmera. Quanto maior a

intensidade de luz em determinado ponto, maior a voltagem produzida pelo mesmo, ou

seja, existe uma analogia direta entre o brilho da imagem e a voltagem produzida, por

isso o sinal é dito analógico.

No sinal digital esta analogia também existe, porém não é direta: o sinal é dividido em

trechos com mesmo tamanho e para cada trecho é calculada a média da intensidade da

voltagem, sendo posteriormente o número obtido codificado no formato de número

binário (sistema de numeração que só possui 2 algarismos - o '0' e o '1' ) e assim

gravado por exemplo em uma fita do tipo DV. O sinal analógico por outro lado é

gravado em uma fita do tipo VHS por exemplo, com todas as milhares de variações de

voltagem obtidas.

O processo de gravação / transmissão de sinais elétricos é sempre sujeito a várias

interferências e perdas, que aumentam e se propagam quando o mesmo é copiado de um

meio a outro (degradação da imagem). A grande vantagem que o sinal digital tem sobre

o analógico é o fato destas perdas poderem ser virtualmente eliminadas. Assim por

exemplo, se os '1's e '0's forem representados por voltagem 1V e 0V, é muito fácil um

circuito eletrônico reconstruir um sinal que chegou a seu destino como 1 - 0 - 0,8 - 0,3 -

1 - 1 ao invés de 1 - 0 - 1 - 0 - 1 - 1 (houve danificação e o '1 V' chegou como '0,8 V',

assim como o '0 V' chegou como '0,3 V') pois sabe-se que o sinal só pode ser 0 ou 1 V,

então 0,8 é 'consertado' para 1 e 0,3 para 0 .

No entanto é impossível fazer o mesmo com o sinal analógico, pois os milhares de

valores diferentes de voltagem são gravados diretamente na fita.

O formato digital beneficia-se em qualidade ao digitalizar o sinal assim que o mesmo é

gerado no CCD: deste ponto em diante as perdas serão praticamente nulas.

artefatos de compressão quanto maior a taxa de compressão utilizada para reduzir o

tamanho ocupado por um sinal de vídeo digitalizado, maior a probabilidade de surgirem

'defeitos' na imagem final descomprimida. Isto ocorre porque os processos de

compressão utilizados para comprimir sinais de vídeo geralmente acarretam perdas de

detalhes durante a compressão e não há como reconstruí-los no processo inverso

(descompressão). Estes defeitos são mostrados na imagem na forma de falhas em cores

ou resolução em determinados pontos da imagem.

aspect ratio o mesmo que proporção da imagem.

AVC (Advanced Video Coding ou H.264 ou MPEG4 Part-10) padrão criado em 2003

pelo grupo MPEG em conjunto com o grupo Video Coding Experts do ITU-T

(International Telecommunication Union) para digitalização de imagens de vídeo. O

Page 8: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 8

objetivo foi desenvolver um padrão que tivesse a qualidade apresentada pelo MPEG2

ou pelo MPEG4, porém que pudesse opcionalmente fazer isso utilizando taxas menores

de bit rate e sem ser excessivamente complexo, para viabilizar sua implementação em

circuitos não muito dispendiciosos. A flexibilidade de uso do padrão foi bastante

extendida em relação aos originais MPEG2 e MPEG4, permitindo sua utilização tanto

em sistemas de alta resolução (HD) quanto de baixa resolução (SD).

O nome H.264 deriva do grupo Video Coding Experts (que iniciou seu

desenvolvimento) e o nome AVC do grupo MPEG4 (que completou o trabalho). É

comum por este motivo o uso da referência "H.264/AVC". Foi incorporado ao padrão

MPEG4 original como sub-padrão 10, ou "part 10" do MPEG4.

Mais de 20 novas engenhosas técnicas envolvidas nos sofisticados processos internos de

compressão foram utilizadas, permitindo um comportamento melhor do que os demais

padrões em diversas situações. Com menos da metade da taxa de bit rate utilizada no

MPEG2 é possível obter a mesma qualidade de imagem. Da mesma forma que o

MPEG2, o AVC estabelece diversos níveis de profile, para uso desde aplicações móveis

(celulares por exemplo, exigindo menor poder de computação dos circuitos) e

videoconferência, até aplicações que exigem maior poder de processamento, como

exibição de imagens em alta-definição (HD), como em diversos sistemas de HDTV. Um

número muito grande de aplicações adota este padrão, como transmissões diretas de

programação de TV de satélites para residências, transmissões terrestes de TV digital,

aplicações de distribuição de imagem na Internet, etc... . Os discos Blu-ray e HD-DVD

também o empregam para gravação de suas imagens.

B-frame (bi-directionally frame) tipo de quadro utilizado na montagem dos GOPs de

compressões multi-frame como a MPEG2 por exemplo.

banda , largura de banda . As variações de voltagem do sinal de vídeo (analógico, sinal)

são inseridas em ondas de alta frequência, nas vizinhanças de Mhz (megahertz, milhões

de ciclos por segundo). Dentro desta faixa, as variações de frequência representam as

variações na intensidade do sinal, que formam as imagens. Este conjunto, englobando

desde a menor até a maior frequência, pode ser maior ou menor, dependendo da

quantidade de frequências diferentes que conseguir englobar - e assim, da quantidade de

informações que conseguir transmitir e portanto da qualidade final obtida. Assim, se na

faixa de frequências a menor frequência é 3 Mhz e a maior 5 Mhz, dizemos que a

largura de banda (bandwidth) deste sinal é de 2 Mhz.

bandwidth o mesmo que banda, largura de banda.

bit rate nome dado à taxa que mede a quantidade de bits que trafega por segundo em um

sinal digital. Formatos que utilizam fitas trabalham normalmente com valores sempre

constantes de bit rate, como os da família DV por exemplo, com 25Mbps (milhões de

bits por segundo) e o formato DVCPRO50 com 50Mbps. A este modo de gravação dá-

se o nome de CBR (Constant Bit Rate).

Formatos desenvolvidos originalmente para uso em discos ópticos (como DVD-Vídeo

por exemplo) podem ser gravados com diferentes taxas de bit rate, como o formato

MPEG2. É possível, a partir do mesmo original, gravar um DVD com bit-rate maior e

gravar outro DVD com bit-rate menor. Assim, nesses formatos a qualidade da imagem

Page 9: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 9

depende do valor de bit-rate utilizado. O bit-rate de 9Mbps é considerado geralmente

como de ótima qualidade para imagens comuns (SD) e o de 19Mbps o equivalente para

imagens de alta definição (HD). A este modo de gravação dá-se o nome de VBR

(Variable Bit Rate).

BNC (British Naval Connector ou Bayonet Neil Concelman ou Bayonet Nut Connector)

Conector para cabos coaxiais (cabos que contém 2 condutores, um central - fio grosso

de cobre - e outro em forma de malha de fios de cobre envolvendo-o, sendo o condutor

central isolado da malha por uma camada de plástico) utilizado em aplicações de rede

de computadores, no transporte de sinais de aparelhos de medição de altas frequências

(osciloscópios por exemplo) e no transporte de sinais de vídeo (imagem) em aplicações

profissionais:

Este tipo de conector possui um engate que prende-o firmemente à fêmea (através de

um pino localizado nesta e encaixe do tipo girar/travar), impossibilitando com isso o

desencaixe acidental - cabo tracionado por exemplo. Inventado pelos americanos Paul

Neil e Carl Concelman, possui várias traduções de sua sigla, como Bayonet Neil

Concelman por exemplo, em alusão ao encaixe do engate (do tipo baioneta) e a seus

criadores. Ou então British Naval Connector, em referência à sua utilização na marinha

inglesa.

campo a imagem de vídeo é formada na tela através de linhas horizontais, desenhadas

da esquerda para a direita e de cima para baixo. Alternadamente são desenhadas linhas

de numeração par e linhas de numeração ímpar. Cada um destes conjuntos completos de

linhas (par / ímpar) denomina-se campo. O tempo que cada campo leva para para ser

desenhado na tela varia com o sistema de televisão utilizado e é igual ao inverso da

frequência da corrente alternada utilizada no país.

Assim, por exemplo, no Brasil, onde a frequência da corrente alternada é 60Hz, cada

campo é desenhado em 1/60 seg. e o sistema utilizado é o PAL-M:

Brasil 60Hz 1/60 seg PAL-M

EUA 60Hz 1/60 seg NTSC

França 50Hz 1/50 seg SECAM

Alemanha 50Hz 1/50 seg PAL-G

chart de resolução figura especial contendo linhas horizontais e verticais divergentes,

contendo numeração ao lado das mesmas indicando quantas linhas existem naquela

posição. Utilizada para avaliação da resolução horizontal / resolução vertical de

determinado equipamento de vídeo. No exemplo a seguir, uma câmera foi apontada para

a figura abaixo, tendo a seguir seus controles (foco, abertura, etc...) sido regulados da

melhor maneira possível. Em seguida sua imagem foi observada em um monitor de alta

resolução - sua resolução deve ser maior do que a da câmera, para permitir a medição. É

Page 10: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 10

possível distinguir individualmente as linhas mostradas no terceiro conjunto de linhas

verticais até um pouco abaixo da indicação 500 ; ao lado da indicação 600 as linhas já

não podem mais ser individualmente distinguidas. Assim, pode-se afirmar que a

resolução horizontal da câmera avaliada é de cerca de 550 linhas.

Analogamente, as linhas divergentes horizontais permitem avaliar a resolução vertical

(525 linhas no padrão NTSC).

O desenho original (do qual apenas uma parte é mostrada acima) é denominado

EIA1956, padrão criado pela EIA (Electronic Industries Association - EUA).

A avaliação obtida com o chart é aproximada, pela subjetividade em si (diferentes

observadores podem ter diferentes avaliações) e pela dificuldade em determinar

exatamente o ponto a partir do qual as linhas não podem ser mais distinguidas. Métodos

mais precisos utilizam outros meios, como o emprego do osciloscópio por exemplo.

Existe um número, obtido através de medições práticas, que diz que cada 1 Mhz de

largura de banda pode carregar informações suficientes para produzir cerca de 80 linhas

de resolução horizontal.

Assim, para o exemplo acima, ao ligar-se o sinal de imagem gerado pela câmera em um

osciloscópio, poderia ser lido o valor 7,0 Mhz de largura de banda, que multiplicado por

80 resulta em 560 linhas de resolução horizontal.

A resolução medida tanto pelo método do chart quanto via osciloscópio refere-se à

luminância. A resolução relativa à parte de cor da imagem é sempre bem menor do que

a de brilho (definição de tons claros-escuros), uma vez que o olho humano é menos

sensível a este tipo de informação do que ao outro. Assim, geralmente nas câmeras do

segmento consumidor este tipo de resolução gira em torno de 500 Khz (e não Mhz, ou

seja, metade). Assim, no exemplo a resolução de cor na câmera avaliada seria 280

linhas (560 / 2).

codec (COmpressor / DECompressor) software / hardware que comprime um

determinado sinal de vídeo e também faz o processo inverso, descomprimindo-o.

Dentro de uma câmera de vídeo digital por exemplo, existe um CODEC que efetua a

compressão do sinal analógico lido no(s) CCD(s) para gravá-lo na fita / disco / HD. Por

outro lado, o mesmo CODEC faz a leitura do sinal já gravado na fita para apresentá-lo

no visor LCD ou viewfinder, quando a função PLAY é acionada. Os CODECS estão

presentes também em diversos outros aparelhos e momentos da produção de vídeo.

Assim, programas de edição-não-linear comprimem vídeo utilizando CODECS

Page 11: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 11

específicos para cada tipo de formato, ou então players de DVDs reproduzem o sinal

gravado nos discos também utilizando CODECS.

color bars , conjunto de barras coloridas utilizadas como referência no ajuste de

equipamentos de vídeo. Existem modelos diferentes para cada tipo de sinal de vídeo

(abaixo, modelo para o sinal NTSC, denominado SMPTE color bars, porque foi

padronizado pela entidade SMPTE - Society of Motion Picture and Television

Engineers). Permite efetuar ajustes nos controles de cor e outros de monitores, câmeras,

etc... Algumas câmeras podem gerar opcionalmente este sinal (ou parte dele, sem as

camadas inferiores), assim como dispositivos eletrônicos em ilhas de edição.

Da esquerda para a direita, a figura apresenta as seguintes cores nas barras verticais

superiores: cinza (80%), amarelo, ciano, verde, magenta, vermelho e azul. Nos

segmentos intermediários, da esquerda para a direita, azul, preto, magenta, preto, ciano,

preto, cinza (80%). No segmento inferior, à esquerda um quadrado branco ladeado por

quadrados azuis e à direita, várias tonalidades de preto.

As cores vermelho, verde e azul são as cores primárias do sistema RGB e amarelo,

ciano e magenta a combinação de duas das cores primárias - estas, denominadas cores

secundárias. As cores estão arranjadas em ordem decrescente de brilho total, da

esquerda para a direita.

Para efetuar o ajuste, inicialmente o controle de contraste do monitor deve ser

posicionado em seu ponto médio. A seguir, o controle de cor deve ser totalmente

diminuído, de modo a que todo o quadro seja mostrado sem cores, apenas contendo

faixas cinzas. Observar então o canto inferior direito da imagem: entre duas faixas

pretas existem 3 pequenas faixas - no desenho abaixo, indicadas por A, B e C.

Page 12: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 12

Ajustar então o controle de brilho de modo que a faixa B fique praticamente invisível -

preta. Neste momento a faixa C à direita deve ficar ligeiramente visível. A faixa B

representa a parte mais escura capaz de ser representada na imagem do vídeo; como a

faixa A é mais escura do que ela, deve ter ficado neste momento totalmente invisível, ou

seja, não deve ser notada nenhuma divisão entre as faixas A e B. A única divisão que

deve ser mostrada é entre as faixas B e C.

A seguir é efetuado o ajuste do nível do branco, o que é feito inicialmente aumentando

totalmente o controle de contraste. Neste momento o quadrado branco, no canto inferior

esquerdo, apresentar-se-á sem definição precisa nas bordas e com excesso de

luminosidade. O controle de contraste deve então ser lentamente reduzido até que o

referido quadrado ganhe definição e perca o excesso de luminosidade.

A seguir efetua-se o ajuste de cor, buscando-se um equilíbrio geral nos tons das cores e

observando-se que a cor com maior tendência à saturação é a vermelha, ao lado da

magenta à sua esquerda.

color depth quando um sinal de vídeo analógico (proveniente de um CCD por exemplo)

é digitalizado, sofre um processo de sampling, através do qual é gerada uma imagem

composta por um determinado número fixo de pixels, de acordo com a quantidade de

linhas e a resolução horizontal do formato empregado (no formato NTSC DV por

exemplo, este número é de 720 pixels de largura por 480 pixels de altura, ou seja

345.600 pixels). Cada um destes pixels possui características individuais de brilho e cor.

O sinal analógico de origem da imagem (video componentes) consegue reproduzir as

cores através da combinação das cores básicas do modelo RGB. Adicionalmente, este

sinal possui a indicação de brilho (luminância). Estas duas informações (brilho e cor)

são então combinadas durante o processo de digitalização, gerando 3 sinais, um para

cada cor RGB. Para um determinado pixel, o sinal Red possuirá um determinado valor

de intensidade luminosa, idem para o Green e idem para o Blue. Assim, cada um desses

sinais indica qual cor e que intensidade (brilho) a mesma deve ter para formar a imagem

do pixel.

O sinal cor+brilho recebe o nome de canal (channel); assim pode-se dizer que a imagem

colorida de cada pixel do vídeo digitalizado é representada através de 3 canais, um para

o vermelho, um para o verde e um para o azul. Existe em computação uma grande

diversidade de tipos de formatos de imagens digitais, onde a quantidade de canais

utilizados varia conforme o formato. O formato grayscale (escala de cinza) utilizando

somente 1 canal com 254 variações de tonalidades de cinza e mais o preto e o branco e

o formato CMYK com 4 canais (ciano, magenta, amarelo e preto) e 256 variações de

tonalidade para cada uma das 4 cores são alguns exemplos. No caso do RGB, a forma

mais utilizada emprega também 256 variações possíveis de tonalidade para cada canal.

O desenho abaixo simula essas 256 tonalidades, mostrando que o número total de cores

obtidas, combinando-se os 3 canais, ultrapassa 16 milhões de cores:

Page 13: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 13

Essa quantidade de cores é aproximadamente também o número total de cores

discernidas pelo olho humano, por isso sistemas deste tipo são denominados true color.

Assim, a cor de um determinado pixel poderia ser representada por exemplo por R=41,

G=163 e B=72, que é um dos exemplos na figura abaixo:

Cada canal precisa de 3 dígitos no máximo para ser representado (até "255", mais o "0",

totalizando as 256 variações). Informações digitais são armazenadas na forma de bits

(estados "0" e "1"), que constituem o sistema binário de numeração. O maior número de

tonalidade, "255", necessita de 8 bits para ser representado no sistema binário:

2 = 10 (dois bits)

3 = 11 (dois bits)

4 = 100 (três bits)

5 = 101 (três bits)

...

253 = 11111101 (oito bits)

254 = 11111110 (oito bits)

255 = 11111111 (oito bits)

Como são 3 canais, tem-se um total de 24 bits para representar o aspecto de um

determinado pixel (8+8+8). Aumentando-se a quantidade de bits por pixel é possível

representar mais cores, diminuindo-a, menos cores. A expressão Color Depth é utilizada

para expressar esta variação.

color differencenome dado aos sinais de cor B-Y e R-Y do color space YUV, em alusão

à diferença entre os sinais de cor e luminosidade.

compatibilidade de sinais os sinais PAL, NTSC e SECAM não são compatíveis entre si:

assim por exemplo uma fita gravada no sistema PAL de 50 ciclos com 625 linhas não

apresentará imagem alguma quando reproduzida em um VCR também do sistema PAL,

porém com 60 ciclos e 525 linhas (sistema utilizado no Brasil). No entanto, em algumas

combinações de sistemas é possível obter-se a imagem, porém em preto e branco. O

quadro abaixo mostra as diferentes combinações desses sistemas, indicando onde não é

possível observar nenhuma imagem ( "X" ), onde a imagem aparece em preto e branco (

"P&B" ) e onde a imagem é OK (quando o sistema é o mesmo):

Page 14: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 14

componentes , vídeo componentes; neste tipo de sinal as informações da imagem são

separadas em 3 partes: luminância (a parte que controla o brilho - quantidade de

luminosidade - na imagem) , cromitância-1 e cromitância-2 (partes que controlam as

informações de cor na imagem). Esses 3 componentes referem-se ao sistema de

codificação de cor YUV.

Formatos de vídeo profissionais analógicos gravam o sinal componentes YUV

diretamente nas fitas magnéticas, como por exemplo Betacam SP. Formatos digitais o

digitalizam e a seguir o comprimem, como por exemplo DV.

Este tipo de sinal, por manter as informações de cor separadas, possui uma melhor

definição de cores do que a de outros sinais, como o Y/C, o composto e o rf (nessa

ordem, ordenados da maior para a menor qualidade).

Um outro exemplo de utilização é o DVD-Vídeo: material gravado nesses discos

(filmes, shows, etc...) costumam ser codificados em MPEG2 a partir do sinal video

componentes - ao contrário do sinal composto, empregado na gravação de fitas no

formato VHS. É por este motivo que players de DVD mais elaborados podem

apresentar saídas RCA do tipo YPbPr.

composto, sinal ao contrário do Y/C, neste tipo de sinal as informações de cor e

luminosidade são combinadas gerando um único sinal. Posteriormente (no momento da

exibição por exemplo) estes sinais são novamente separados. A transformação acaba

acarretando perda de qualidade devido a interferências e distorções geradas no processo,

onde os sinais recuperados na separação não são exatamente idênticos ao que eram na

fase de codificação em sinal único. Este tipo de sinal é utilizado no formato VHS por

exemplo e na transmissão de TV a cabo.

compressão o sinal de vídeo armazenado na quase totalidade dos formatos digitais sofre

compressão antes de ser armazenado no meio magnético (fita, disco). Neste processo,

partes de informação da imagem são descartadas, de maneira que o resultado final

ocupe menos espaço para ser armazenado. Existem duas formas de se comprimir dados

de imagens digitais, com perda de qualidade (processos conhecidos como 'lossy', onde

há perda de detalhes) e sem perda ('lossless'). A maioria dos processos utilizados em

vídeo é do primeiro tipo, porém com perda mínima observável na qualidade da imagem.

Page 15: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 15

Existem diversos algoritmos de compressão, a maioria deles extremamente complexa,

porém executados de forma extremamente rápida por microprocessadores embutidos no

interior das câmeras e outros dispositivos manipuladores de imagem de vídeo. Um

pequeno exemplo conceitual de processo de compressão seria guardar a informação

contida no número abaixo ocupando menos caracteres do que os 30 utilizados:

13487777770000031111111111111111118 (35 caracteres)

algoritmo: indicar entre parênteses a quantidade de algarismos repetidos e o algarismo a

ser repetido a seguir; sequência obtida:

1348(6/7)(5/0)3(18/1)8 (22 caracteres)

a sequencia assim obtida seria gravada no meio magnético; no momento da recuperação

das informações (play) um microprocessador decodificaria a mesma obtendo o sinal

reconstruído:

13487777770000031111111111111111118 (35 caracteres)

o número acima poderia ser o resultado do processo de digitalização de parte de uma

imagem, e a parte repetitiva (série de '1's por exemplo) estar representando um trecho de

céu azul. O exemplo mostra um processo rudimentar de compressão sem perdas, mas

nos algoritmos reais a perda acaba ocorrendo devido à necessidade de altas taxas de

redução do tamanho ocupado pela informação. No exemplo, o algoritmo poderia decidir

que o trecho '000003' poderia ser trocado na imagem por '111111' de maneira

praticamente imperceptível. Assim, a sequência comprimida passaria a ser:

1348(6/7)(24/1)8 (16 caracteres)

ilustrando um processo de compressão com perdas. Os processos de compressão

empregados em vídeo são normalmente do tipo que envolve perdas, porém estas são

geralmente minimizadas intervindo-se em outros fatores do processo, como por

exemplo aumentando-se a qualidade do original capturado.

Quanto maior a taxa de compressão empregada maiores serão estas perdas de qualidade,

gerando artefatos de compressão observáveis na imagem final.

compressão inter-frame o mesmo que compressão multi-frame.

compressão intra-frame tipo de compressão na qual cada quadro do sinal de vídeo

depende somente das informações contidas no mesmo para ser comprimido, ao

contrário da compressão multi-frame. No processo intra-frame cada quadro é

comprimido individualmente; para recuperar a imagem comprimida, é necessário

somente descomprimir este quadro que foi comprimido: todas as informações

necessárias à reconstrução da imagem estarão ali. A técnica empregada para realizar o

processo é relativamente simples, o que varia de formato para formato é somente a taxa

de compressão utilizada. A família de formatos DV e os formatos DVCPRO50,

DVCPRO 100HD e HDCAM são exemplos de formatos que utilizam este tipo de

compressão.

Page 16: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 16

Quanto menor a taxa de compressão, mais dados são trafegados: com compressão de

5:1 por exemplo, a família DV trafega 25Mbps (taxa bit rate) e com 3,3:1 a DVCPRO50

trafega 50Mbps por exemplo. Outros formatos utilizam taxas ainda menores de

compressão e por isso possuem bit rates maiores, como o DVCPRO HD com 100Mbps

e o HDCAM com 140Mbps. Em outras palavras, a qualidade da imagem é medida pela

taxa de compressão utilizada: quando menor a compressão, melhor a imagem. Em

relação ao componente cor do sinal, taxas mais baixas permitem somente o sampling a

4:1:1 e as mais altas, sampling a taxas mais altas.

Os formatos que empregam compressão intra-frame são gravados em fita, o que exige

taxas fixas de bit-rate (25 Mbps, 50Mbps por exemplo, conforme o formato). Duas fitas

gravadas no mesmo formato a partir do mesmo original terão sempre a mesma

qualidade de imagem.

Basicamente o que ocorre durante a edição-não-linear de um formato do tipo intra-

frame é a descompressão, apresentação na tela, aplicação de cortes / efeitos e

recompressão.

compressão multi-frame tipo de compressão na qual cada quadro é comparado com o

anterior e as modificações anotadas entre um e outro constituem a informação a ser

digitalizada. Neste tipo de compressão, ao contrário do tipo intra-frame, a tecnologia

envolvida é bem mais complexa.

Em primeiro lugar, porque a compressão e descompressão de um quadro

individualmente envolve o armazenamento temporário em memória de um conjunto de

quadros anteriores e posteriores. Depois, porque os quadros são agrupados e

armazenados em conjuntos, para os quais aplicam-se regras diferentes a cada elemento

(quadro) do conjunto, alguns servindo somente para referência, outros para armazenar

somente determinados parâmetros da imagem, etc.. E por fim, porque o movimento dos

elementos dentro da imagem é calculado através de vetores analisados ao longo de todo

o conjunto de quadros.

Uma determinada imagem pode ser mais "simples" ou mais "complexa" em termos de

compressão: a imagem de uma estátua sobre o fundo azul do céu é mais fácil de ser

comprimida do que sobre o fundo cheio de detalhes de uma floresta. A uniformidade do

céu permite o armazenamento de poucos dados para que o mesmo possa ser

reproduzido, como se houvesse um "carimbo" de pixels azuis que pudesse ser utilizado

ao longo da maior parte do céu. O mesmo já não é possível para reproduzir os detalhes e

nuances particulares de cada folha das árvores no segundo exemplo, cujas informações

tem que ser individualmente armazenadas.

Enquanto os formatos que empregam compressão intra-frame são gravados em fita com

taxas fixas de bit rate, o mesmo não ocorre nos formatos que utilizam compressão

multi-frame. Estes formatos foram desenvolvidos originalmente para uso em discos

ópticos (como DVD-Vídeo por exemplo): esse tipo de mídia pode ser gravada com

diferentes taxas de bit-rate, resultando em imagens com qualidade diferente.

A compressão multi-frame utiliza o conceito de GOP (Group Of Pictures) no trabalho

de redução do volume de informações.

Page 17: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 17

Control-L o mesmo que LANC.

Control-M (ou protocolo Panasonic de 5 pinos) protocolo de comunicação para edição-

linear desenvolvido pela Panasonic, utilizado em vídeoprodução para controle remoto,

através de um cabo, de determinados dispositivos, como por exemplo VCRs e câmeras.

Recebeu esse nome ("5 pinos") por utilizar como conector uma tomada do tipo DIN de

5 pinos. Foi, juntamente com o Control-L ou LANC, um dos protocolos mais populares

utilizados em edição linear voltada para o segmento semi-profissional, permitindo o

controle de câmeras da Panasonic através de um aparelho denominado controlador de

edição. Sua comunicação é efetuada em duas vias (bidirecional), ou seja, permite tanto

operações do controlador para a câmera ou VCR (PLAY, PAUSE, etc...) como a

transmissão de informações no sentido contrário (posição do tape counter da câmera ou

VCR lida pelo controlador).

Control-S protocolo de comunicação para edição-linear desenvolvido pela Sony,

permite controlar remotamente câmeras e VCRs transmitindo para os mesmos as

operações básicas de manuseio de fitas, como PLAY, PAUSE, REC, FF, RW e STOP.

Sua comunicação é efetuada via única, ou seja, permite enviar comandos para câmera

ou VCR mas não receber informações dos mesmos. Trata-se basicamente da

implementação dos mesmos comandos do controle remoto sobre fios, ao invés de

utilizar o infravermelho. Passou com o tempo a ser substituído pelo protocolo Control-

L.

controlador de edição dispositivo empregado em edição-linear. Trata-se de um aparelho

que, conectado a um VCR ou câmera contendo uma fita a ser editada, permite efetuar as

operações de PLAY, FF, RW, etc... e com isso escolher pontos de entrada e saída (IN /

OUT) em diversas cenas selecionadas pelo operador. Esses pontos são gravados em

uma memória existente no aparelho, formando o que se chama Edit Decision List

(EDL). Terminada a operação, através de um comando o controlador efetua a cópia

seletiva dessas cenas, sequencialmente (daí o nome edição linear) para o VCR destino.

Alguns softwares foram também desenvolvidos para efetuar a mesma função do

controlador de edição, só que através do computador. Abaixo, o controlador de edição

Videonics AB-1:

Todo o controle de PLAY, PAUSE, FF, etc... necessário sobre os VCRs é efetuado

através de cabos de controle remoto conectando o controlador aos VCRs. Conforme o

equipamento utilizado, diferentes tipos de sinais de controle (protocolos de edição)

podem ser empregados, desde os mais simples, de uma única via, como o infravermelho

(que não utiliza cabo e comanda as funções básicas do controle remoto da mesma

maneira que este) até os de duas vias, como o Control-L (LANC) ou o Control-M que

conseguem, além dessas funções, receber informações de retorno sobre o

Page 18: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 18

posicionamento da fita no VCR ou câmera e o modo em que o aparelho está (REC,

PAUSE, etc...). Mesmo no entanto utilizando protocolos de duas vias, como os acima

citados, a simples leitura do contador de frames dos VCRs / câmeras envolvidos limita a

precisão na edição a cerca de 6 quadros, para mais ou para menos. Para ter-se precisão

maior, alguns tipos de controladores (os que trabalhavam com LANC) passaram a

utilizar informações de Timecode - quando disponíveis na fita origem - permitindo

assim a precisão de corte no nível de quadro individual. O controlador de edição pode

também estar integrado a outros aparelhos na cadeia do sinal de vídeo a ser gravado no

VCR destino, como aparelhos geradores de efeitos especiais (SEG - Special Effects

Generator)e aparelhos geradores de títulos (tituladores). Além disso, através do mesmo,

efeitos de transição podem ser acrescidos na mudança de uma cena para outra. Toda

essa estrutura e equipamentos foram substituídos, com vantagens, com o surgimento da

edição-não-linear e o uso da conexão FireWire para efetuar através de um único cabo, o

controle da câmera e a passagem dos dados de áudio e vídeo.

corretor de cor (Color Corrector ou Proc Amp) este equipamento permite efetuar ajustes

nas tonalidades de cor da imagem. Alguns TBCs possuem esta função embutida nos

mesmos.

cromitância cor, medida da parte de cor da imagem.

DCT (Discrete Cosine Transform) algoritmo utilizado para preparar para compressão

um sinal de vídeo já digitalizado no formato vídeo componentes para posterior gravação

em fita em formatos digitais, como DV ou Digital Betacam por exemplo. O algoritmo

DCT em si não reduz a quantidade de dados do arquivo digital, mas reorganiza os

componentes das imagens de forma a reduzir a presença de detalhes não percebidos

com tanta acuidade pelo olho humano, como os detalhes das cores por exemplo.

Nesses formatos (como o citado DV), após tratado pelo DCT, o arquivo entra

efetivamente na etapa de redução de tamanho (compressão) através da técnica intra-

frame, onde os valores gerados pelo DCT são reduzidos em um processo denominado

quantização. O conjunto DCT + compressão intra-frame supera o algoritmo MJPEG em

qualidade de imagem por utlizar processos mais sofisticados para comprimir as

informações. A forma de compressão também difere em um e outro algoritmo: enquanto

o MJPEG utiliza compressão do tipo multi-frame, aqui a compressão é do tipo intra-

frame. Os dois algoritmos (DCT + intraframe) e MJPEG são incompatíveis, isto é, não é

possível decodificar via DV algo gravado em MJPEG e vice-versa. O processo de

decodificação é rápido nos dois algoritmos, porém o de codificação é mais lento no

MJPEG quando comparado ao DCT + intra-frame.

degradação da imagem o sinal de vídeo no formato analógico sofre degradação de cor e

de detalhes de brilho ( luminância ) cada vez que é copiado. Estas distorções

introduzidas no sinal tornam-se parte do mesmo, não podem ser corrigidas (alguns

equipamentos tentam atenuá-las). Algumas providências podem atenuar um pouco -

porém não impedir - este processo: uso de cabos de conexão entre o aparelho reprodutor

e o gravador de boa qualidade, idem para suas conexões, uso de cabos com pequeno

comprimento, cabeças de reprodução / gravação limpas e desmagnetizadas, fitas de boa

qualidade, alta qualidade na imagem capturada pela câmera, etc...

digital , sinal ver analógico, sinal - para comparação.

Page 19: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 19

Digital Component nome dado ao sistema de gravação de sinais de vídeo que digitaliza

sinais no formato vídeo componentes, comprimindos-os em seguida para gravar em fita.

DivX novo nome do padrão DivX;-) criado pelo hacker francês Jereme Rota.

DivX;-) padrão para compressão de imagens baseado em uma versão do MPEG4

desenvolvida em 1998 pela Microsoft. A intenção da Microsoft era a criação de um

sistema para copiar conteúdo de áudio e vídeo gravado em discos (DVDs por exemplo)

e gravar em arquivos do tipo ASF do Windows Media para permitir a realização de

streamming a partir desses dados. O padrão foi copiado na época pelo hacker francês

Jerome Rota e alterado a seguir para permitir a gravação em arquivos do tipo .avi,

possibilitando assim a gravação de clones dos discos originais a partir da autoração de

DVDs graváveis no micro.

O nome "DivX" faz referência ao fracassado sistema DIVX (Digital Video Express)

tentado nos EUA, um sistema de aluguel de vídeos onde um disco semelhante a um

DVD comum (denominado "DIVX") podia ser alugado e ser visto nas primeiras 48

horas após o início do aluguel. A seguir, poderia ser visto novamente através do

pagamento de uma taxa ao provedor do serviço. O disco funcionava somente em players

especiais, conectados via telefone com o provedor. O emoticon em "DivX;-)" faz

referência ao insucesso desse sistema. Em 2000 Rota criou a companhia DivX Inc para

melhorar e desenvolver o padrão, mudando seu nome para DivX (sem o emoticon no

final). O DivX é baseado no MPEG4 Part 2 (padrão original de vídeo do MPEG4, antes

do desenvolvimento do AVC - MPEG4 Part 10).

DSS (Digital Satellite system) sistema em que os sinais de vídeo e som são

comprimidos utilizando o algoritmo MJPEG, enviados a seguir a um satélite e

posteriormente direcionados à Terra, onde aparelhos nas residências os captam e fazem

a decodificação. Ao contrário dos sistemas de recepção de TV via antena mini-

parabólica, que também recebem sinal diretamente de um satélite, é possível selecionar

no momento em que se quiser o programa a ser visto / gravado. No caso de gravação, o

sinal é gravado sem decodificação, ou seja, em MJPEG, em um formato denominado D-

VHS. Somente no momento da reprodução é que o sinal é decodificado.

DSP (Digital Signal Processing) Circuito eletrônico existente em algumas câmeras

analógicas, que converte para digital o sinal obtido na leitura do CCD, efetua

processamentos de correção e melhoria no mesmo e o reconverte novamente para

analógico para ser gravado na fita. Muitas vezes este circuito exerce também

opcionalmente outras funções, como gerar efeitos especiais (strobe, still, p.ex.) que são

adicionados à imagem neste momento.

DTVLink nome padronizado pelo CEA (Consumer Electronics Association) para a

interface IEEE-1394.

DVI (Digital Visual Interface) conexão para áudio e vídeo em alta definição (HD), do

tipo digital sem compressão; assim como a conexão HDMI, é voltada para o segmento

consumidor, conectando televisores HD, DVD players, dispositivos com sinais HDTV e

outros, principalmente em home theaters. Proposta em 1999 por um consórcio de

empresas (Compaq, Fujitsu, HP, IBM, Intel, Silicon e NEC) denominado Digital

Display Working Group (DDWG). A conexão DVI prevê o uso de um ou dois links

Page 20: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 20

(conjuntos independentes de fios), o que se reflete em seu conector, que possui espaço

para os dois conjuntos de links, mas pode usar somente um deles. Se for necessário o

uso de maior largura de banda (bandwidth) para transmissão das informações (como nos

formatos HD por exemplo) os dois conjuntos são utilizados. Este esquema foi pensado

com a idéia de que o conector DVI pudesse ter utilização a mais abrangente possível,

possibilitando seu uso para ligação de aparelhos tanto SD como HD. A abrangência de

seu uso é ainda maior ao possibilitar também a transmissão de sinal analógico para

monitores de vídeo tradicionais do tipo VGA, o que é feito através de pinos adicionais

incluídos no conector. A figura abaixo mostra os 5 tipos possíveis de plugs DVI:

A figura abaixo mostra um cabo com plug DVI e uma entrada para o mesmo em um

painel:

Este tipo de conexão também permite ligar monitores a computadores, servindo como

alternativa à tradicional conexão do tipo VGA, porém com qualidade bem melhor de

imagem. Para isso, o computador deve possuir uma placa gráfica com este tipo de saída

e o monitor uma entrada DVI.

EDH Error Sistema de verificação de erros na transmissão de sinais de vídeo digitais

através de conexões do tipo SDI. A transmissão de informações entre duas fontes,

quando feita através de um sinal analógico, está sempre sujeita a perdas durante o

processo. Na realidade, a rigor qualquer transmissão entre duas fontes, sejam elas

analógicas ou digitais, está sujeita à perdas. Seja por deficiências na condução elétrica

(cabos e conectores), mau contato, interferências eletromagnéticas (campos produzidos

por motores ligados, alto-falantes, telefones celulares etc...) e outras causas ela

invariavelmente cedo ou tarde acaba ocorrendo.

Não é possível corrigir um sinal analógico que chegou defeituoso no destino, pois

inexiste forma de se saber como era o sinal quando saiu da origem, daí os conhecidos

Page 21: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 21

problemas de perda em gerações (loss generation) criadas através do processo analógico

de edição linear.

Já com os sinais digitais normalmente este problema não acontece, pois juntamente com

o envio do sinal, a fonte origem envia também junto com ele informações codificadas

que permitem que o receptor, no destino, efetue alguns cálculos matemáticos com essas

informações e descubra se algo ocorreu no caminho. Um exemplo simples que pode dar

a idéia do que ocorre é o cálculo dos dígitos de controle do número do CPF; o cálculo é

feito com os números anteriores aos dígitos de controle (o número de fato do CPF, o

principal), obtendo-se assim um número - o primeiro algarismo de controle. A seguir,

juntando-se o número principal com esse primeiro dígito de controle e re-efetuando o

cálculo, obtém-se o segundo dígito de controle. Quanto o computador tem que verificar

a validade da informação, refaz os cálculos com o número fornecido - qualquer

mudança em um dos algarismos, tornando-o diferente do número original, fará com que

o cálculo resulte em dígitos de controle diferentes, indicando assim ao sistema que

aquele número é um número de CPF inválido.

Com o sinal de vídeo, tudo se passa como se fosse efetuado um cálculo com trechos da

informação do sinal, obtendo-se "números de controle", que são enviados juntamente

com esse sinal. No destino, o cálculo é refeito, para verificar se houve algum problema

durante a transmissão. Dependendo do que ocorreu, o próprio sistema no destino pode

corrigir o erro, através de diferentes algoritmos matemáticos. Caso contrário, ele solicita

novamente à origem que efetue uma retransmissão do trecho da informação com

problema.

No caso da maioria dos sinais digitais de vídeo acontece a mesma coisa, no entanto,

para o SDI (e não o HD-SDI por exemplo), não há geração desses controles na emissão

(origem). Assim, um eventual problema durante a transmissão não seria detectado.

Desta forma, os sistemas que fazem a emissão desses sinais podem eles próprios

acrescentar seus dispositivos de controle particulares de integridade do sinal. E para não

alterar o conteúdo transmitido (os quadros de imagem), só existe um local onde o

mesmo pode ser colocado: o intervalo de controle vertical (vertical sync pulse) que fica

entre os quadros. Nos formatos digitais esse intervalo, próprio dos sistemas analógicos,

não existe - não é necessário para controlar as informações de desenho da imagem na

tela. No entanto, em estúdios é comum a comunicação de sinais entre equipamentos, e

em determinadas situações este sinal deve estar preparado para a forma padrão de

transmissão de TV - analógica, contendo portanto elementos como este intervalo.

Nesse local há uma área deixada vazia originalmente no projeto NTSC (ou pelo menos

não utilizada na quase totalidade das situações). É nessa áreas que é gravado por

exemplo o Timecode VITC (Vertical Interval Timecode) nos sistemas analógicos, e

também é nessa área que os sistemas que trabalham com SDI gravam o conteúdo de

controle chamado EDH (Error Detection and Handling).

Ao contrário dos procedimentos padrão existentes nos sinais digitais, que como

ilustrado acima permitem muitas vezes corrigir o defeito do sinal que chegou no

destino, ou então pedir sua retransmissão, no caso do EDH nada disso é feito: a

tecnologia utilizada é muito simples, pois no destino somente é refeito o cálculo e

verificado se a informação está correta. Se estiver, o sinal chegou sem problemas pelo

caminho. Se não estiver, isso indica que houve problemas e que o que está chegando no

Page 22: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 22

destino não é idêntico ao que está sendo transmitido. Isso fará por exemplo acender uma

luz de alerta no hardware de destino, indicando a necessidade de procedimentos de

correção que, como visto, nesse caso não são automáticos.

Sua finalidade assim é permitir identificar equipamentos no sistema que estejam

apresentando eventuais falhas.

FireWire protocolo desenvolvido pela Apple Computer, que originou o IEEE-1394.

FireWire, conector o mesmo que IEEE-1394 conector.

frame rate quantidade de quadros exibidos por segundo em um vídeo ou filme. O

cinema, que é anterior à televisão, consolidou-se exibindo 16 qps (quadros por segundo)

na época do cinema mudo. Esta taxa permitia exibir os movimentos das cenas sem

utilizar quantidade demasiada de película, muito cara na época. Quando surgiu o cinema

sonoro, a velocidade de passagem do filme no projetor teve que ser aumentada para

garantir uma qualidade mínima ao som: a trilha sonora passou a fazer parte da película.

E a velocidade de 24 qps foi a menor encontrada que podia garantir esta qualidade

mínima ao som, sempre levando-se em conta o objetivo de economia de película. Mais

tarde, algumas experiências foram feitas em diferentes valores de frame rate, porém

permaneceu em uso o valor 24 qps.

A televisão, assim como o cinema, passou pelo uso de diferentes valores de frame rate.

No entanto, ao contrário deste, que usou durante um certo tempo 16qps antes de passar

para 24qps, a televisão consolidou-se com a criação do padrão NTSC, na década de 40,

exibindo, ainda em preto e branco, 30 qps. O sistema utilizado, em uso até hoje, é o

interlaced, onde um quadro é formado por 2 campos. Como cada campo representa uma

leitura da imagem de alto a baixo em um determinado intervalo de tempo, é usual

indicar seu frame rate como 60i (60 campos por segundo, no modo interlaced). Nos

sistemas PAL, existem 2 valores de frame rate em uso: 60i (sistema PAL-M) e 50i (nos

demais). No sistema SECAM o valor do frame rate é 50i.

O valor escolhido para frame rate nestes sistemas (60 e 50) tem ligação direta com a

ciclagem da corrente elétrica utilizada no país. Nos EUA, onde o sistema NTSC foi

criado, a corrente elétrica funciona em 60 ciclos; na maioria dos países europeus (onde

SECAM e sistemas PAL foram criados) a corrente elétrica funciona em 50 ciclos e no

Brasil (onde o sistema usado é o PAL-M) a corrente elétrica funciona em 60 ciclos.

A associação entre ciclagem e frame rate para televisão tem origem em várias questões

técnicas. Na época, o isolamento dos circuitos eletrônicos dos aparelhos de TV da rede

elétrica não era ainda muito desenvolvido: nos primeiros sistemas de TV criados, eram

comuns instabilidades na imagem causadas por interferências de frequência da rede

sobre o circuito de imagem. Pensou-se assim em minimizar estas interferências fazendo

com que a frequência de montagem da imagem fosse a mesma do sinal elétrico e

estivesse associada (em fase) com ela.

Outro problema era a questão incômoda para o expectador da imagem piscando,

fenômeno denominado flicker, bastante acentuado para o olho humano quando uma luz

pisca menos de 40 vezes por segundo. No cinema este problema já havia sido

enfrentado e contornado: apesar de serem mostrados 24qps, o obturador do projetor de

Page 23: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 23

cinema (dispositivo com lâminas metálicas que abrem e fecham a passagem de luz) na

realidade abre e fecha duas vezes para cada quadro exposto. Assim, a película é

avançada e um quadro é posicionado em frente à objetiva. O obturador abre e fecha. A

seguir, abre novamente e fecha e só então o quadro seguinte é posicionado. Com isso, a

luz projetada pisca 48 vezes por segundo (frequência de 48Hz), o que é tolerável para o

expectador.

Na televisão, não era possível na época a transmissão de 48 quadros completos por

segundo para as antenas dos receptores: haviam limitações na largura de banda

(bandwidth) disponível. A solução foi o sistema interlaced, que transmitia somente

metade da imagem (linhas pares / ímpares) a cada vez. Ao mesmo tempo, a camada de

fósforo que recobria internamente os tubos de imagem não era suficientemente

desenvolvida para permitir taxas muito maiores de frequência no desenho de imagens.

Os primeiros sistemas experimentais de TV empregavam 48Hz, mas, ao mesmo tempo

em que era proposta a adoção do sistema 60i, novos tubos de imagem, mais luminosos,

acabavam de ser desenvolvidos. O aumento da frequência de 48Hz para 60Hz permitiria

assim também o uso desses novos tubos, reduzindo bastante a ocorrência de flicker

(neste caso beneficiando bem mais os sistemas de 60qps do que os de 50qps), sem

comprometer os requisitos de bandwidth.

Alem do modo interlaced, imagens em vídeo podem ser gravadas e exibidas no modo

progressive. No sistema NTSC, no modo progressive os principais valores de frame rate

utilizados são 24 e 30, indicados por 24p / 30p (24 ou 30 qps, no modo progressive). Os

sistemas PAL também possuem a opção do modo progressive, utilizando frame rate de

25 qps, ou, 25p.

O quadro abaixo mostra alguns valores de frame rate utilizados em cinema e vídeo:

Quando foi iniciado o desenvolvimento do sistema NTSC colorido, a grande base de

televisores P&B já instalada colocou aos especialistas um dilema: desenvolver um

sistema completamente novo faria com que todos esses aparelhos se tornassem

obsoletos, exigindo sua troca, e a coexistência de 2 sistemas não era prática. A solução

Page 24: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 24

encontrada foi embutir os sinais de cores dentro do sinal já existente P&B, de modo que

televisores antigos conseguissem interpretar como P&B imagens transmitidas em cores.

Esta modificação exigiu algumas alterações, no entanto; assim, diversos requisitos

técnicos fizeram com que o frame rate tivesse que ser alterado ligeiramente, de 30 qps

para 29,97 qps (uma diferença de 0,1%).

Consequentemente, passaram a ser exibidos 59,94 campos por segundo neste sistema.

Este é o valor preciso utilizado até hoje, embora para facilidade de comunicação seja

usual a referência simplificada de "30" e "60". Esta diferença, que não ocorre em outros

sistemas, onde os valores são exatos (sistemas PAL (exceto PAL-M) e SECAM com 25

e 50), afeta a contagem e numeração dos quadros (processo denominado Timecode),

gerando os tipos drop e non-drop Timecode.

Apesar desta diferença, o frame rate para o sistema NTSC é indicado como 60i (e a

quantidade de quadros como 30qps) para facilidade de documentação e comunicação.

full HD termo aplicado a imagens com resolução vertical de 1080 pixels e resolução

horizontal de 1920 pixels (resolução de imagens digitais). Existem diversos sistemas

que propiciam imagens HD, com diversos níveis de resolução. Dentre estas, a resolução

1080x1920 pixels é a maior disponível em vários equipamentos de vídeo

comercializados e utilizados em diferentes aplicações, com exceção de alguns sistemas

experimentais e do cinema digital, que utiliza padrões de resolução acima destes, como

por exemplo 2K / 4K. Por este motivo, esta resolução (1080x1920) tornou-se conhecida

como full HD. O termo engloba ainda outras 2 características dessas imagens: o modo

progressive scan e o aspect ratio 16:9.

GOP (Group Of Pictures) técnica de agrupamento de imagens empregada na

compressão do tipo multi-frame, como por exemplo no formato MPEG2. Os quadros

que compõem a imagem de vídeo são trabalhados em conjuntos, dentro dos quais ocorre

o processo de compressão.

O primeiro quadro dentro de cada conjunto chama-se "I-frame" (abreviação de intra-

frame) e é comprimido isoladamente, utilizando não o modo multi-frame e sim o intra-

frame - daí seu nome. A partir deste quadro inicial, dois tipos de quadros são gerados:

os quadros "B" e os quadros "P". Quadros "P" ("P-frame", de predicted-frame) são

quadros que carregam as diferenças entre o primeiro quadro ("I-frame") do conjunto e

os demais.

Assim, o conjunto de quadros que compõem a cena de um avião cruzando o céu azul é

dividida em diversos sub-conjuntos. Para cada um desses subconjuntos, o primeiro

quadro é comprimido no modo intra-frame e a seguir armazenado: é o "I-frame". A

seguir, os quadros subsequentes ("P-frames") irão armazenar somente as diferenças em

relação ao "I-frame", ou seja, as diferentes posições ocupadas pelos pixels

Page 25: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 25

correspondentes à imagem do avião em relação à suas posições no "I-frame". Com isso,

na maioria dos casos (dependendo da "complexidade" da imagem), o espaço ocupado

pelas informações do quadro será bem menor do que o ocupado pelo quadro completo

"I-frame". Com isso, por exemplo 10 quadros comprimidos e armazenados no modo

intra-frame irão ocupar mais espaço do que 10 quadros armazenados no modo multi-

frame, porque aqui somente o primeiro (comprimido) é armazenado e os demais

registram somente as diferenças em relação ao primeiro.

Para analisar as diferenças entre um quadro e outro, a imagem do primeiro quadro é

dividida em pequenas áreas de somente 16x16 pixels cada, chamadas macroblocos. O

processador procura cada macrobloco na segunda imagem, nas mesmas coordenadas

X,Y. Se encontrá-lo e o mesmo for idêntico ao da primeira imagem, um vetor de

mobilidade é marcado com o valor zero. Se não for idêntico, é porque ocorreu alguma

modificação deste trecho da primeira imagem para a segunda.

Esta modificação pode ser devida a algum movimento ocorrido nos elementos da cena

ou então porque uma nova cena completamente diferente da primeira apareceu. O

processador tenta verificar a primeira hipótese, procurando o macrobloco a um pixel de

distância à direita, à esquerda, acima e depois abaixo. Caso ainda não encontre

correspondência, aumenta a distância da procura em 1 pixel, passando agora a procurar

o macrobloco a 2 pixels de distância em todas as 4 direções. Se não houver

correspondência, o processador vai aumentando a distância da procura, e se não

encontrá-lo em nenhum local conclui que houve mudança de cena.

O processo é repetido para cada macrobloco (16x16 pixels) da primeira imagem,

permitindo com isso gerar uma tabela de vetores indicando as mudanças de posição dos

macroblocos entre uma imagem e outra, ou, em outras palavras, gerando as anotações

do que mudou entre uma imagem e outra. Esta tabela de vetores chama-se Motion

Compensation Block.

A seguir, com base nessa tabela de vetores e na imagem do "I-frame", o processador

constrói um novo quadro de imagem, considerando somente os vetores iguais a zero, ou

seja, somente os macroblocos que não se moveram da primeira imagem para a segunda

são copiados do "I-frame" e montados neste novo quadro. Este quadro assim montado,

como exemplifica a figura abaixo, será a base para a montagem do predicted-frame (

"P-frame"):

No exemplo, o quadro montado tem somente os pixels do céu, menos os do avião e

menos os do trecho de céu antes encoberto pelo mesmo (o avião moveu-se para frente -

no exemplo da figura acima foi considerado um deslocamento maior do que o que

ocorreria na realidade entre um aquadro e outro para demonstrar com mais clareza o

efeito). Em outras palavras, ele contém somente o que não mudou do primeiro para o

segundo quadro.

Page 26: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 26

A seguir este quadro montado é subtraído da segunda imagem: como ele contém o que

ficou igual entre a primeira e a segunda imagem, o resultado desta subtração é

exatamente a diferença entre as imagens. Este conteúdo então será o conteúdo do

predicted-frame , como mostra a figura abaixo:

Ou seja, o "P-frame" contém somente os pixels correspondentes à imagem do avião e do

pequeno trecho de céu atrás dele correspondente ao seu movimento.

Juntamente com cada "P-frame" gerado é armazenada sua tabela de vetores de

deslocamento (gerada na primeira tarefa descrita acima, durante a comparação entre o

"I-frame" e o quadro seguinte). Esta tabela recebe o nome de Motion Compensation

Block. Armazenar somente os pixels que são diferentes entre uma e outra imagem e uma

tabela de vetores para montagem das áreas que não sofreram alteração ocupa

normalmente muito menos espaço do que se todos os pixels da segunda imagem fossem

armazenados, daí a grande economia de espaço proporcionada por este método de

compressão.

No momento da reprodução (play do vídeo gravado ou descompressão para permitir a

edição-não-linear), o quadro de imagem correspondente ao "P-frame" é reconstruído da

seguinte forma: o Motion Compensation Block é aplicado ao "I-frame" e com isso

permite gerar um quadro com o que não mudou do "I-frame" para o quadro a ser

regerado. A este quadro é então somado o conteúdo do "P-frame", permitindo assim a

reconstrução da imagem completa.

Existe no entanto ainda outro tipo de quadro utilizado na compressão multi-frame: o "B-

frame" (de bi-directionally frame). Após gerar sequências IPPPP ("I-frame" seguido de

vários "P-frames"), ou seja, IPPPPIPPPP, e armazená-las na memória, o processador

analisa as diferenças entre o primeiro "P" da sequência e o segundo "P" a seguir.

Registra então estas informações, que ocupam menos espaço do que o primeiro "P-

frame" isoladamente da sequência, e o substitui. Ou seja, a sequência torna-se

IBPPPIPPPP. O segundo quadro é portanto representado com base nas informações do

"I-frame" anterior e do "P-frame" posterior, ou seja, um processo nas duas direções (daí

o nome bi-directionally frame).

O processo de substituição de "P-frames" por "B-frames" continua, comparando-se "I-

frames" ou "P-frames" anteriores com "I-frames" ou "P-frames" posteriores, gerando a

sequência IBBBPIBBBP, que ocupa ainda menos espaço do que a original IPPPPIPPPP.

Os quadros assim reduzidos em volume de informação (alguns completos, como os "I-

frames", outros somente com diferenças e tabelas de vetores, como os "P-frames" e "B-

frames") são tratados individualmente através do algoritmo DCT e a seguir

comprimidos um a um através da compressão intra-frame.

Page 27: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 27

O processo intra-frame permite o ajuste do nível de compressão a ser aplicado e é neste

estágio do processo que diferentes taxas de compressão podem ser escolhidas, gerando

vídeos comprimidos em MPEG2 com diferentes tamanhos, com diferentes bit rates

(VBR, Variable Bit Rate).

Cada um dos conjuntos IBBBBP chama-se "GOP", abreviação de Group of Images. A

maioria dos GOPs contém geralmente cerca de 15 quadros, podendo variar para menos

quando alterações bruscas na imagem (cenas de ação por exemplo) acontecem. GOPs

longos (15 quadros) são mais eficientes na compressão (ocupam menos espaço). No

entanto, introduzem maiores problemas para a edição-não-linear (é necessário mais

processamento para recuperar os quadros ao fazer-se por exemplo um simples corte:

mais quadros são necessários para a reconstrução do que no GOP menor).

O formato HDV tem sua edição facilitada em relação à edição de formatos MPEG2

tradicionais por utilizar GOPs menores, com 6 quadros.

Existem dois tipos de GOPs, os abertos e os fechados. Supondo-se o exemplo acima

que mostra dois GOPs; se as informações codificadas no "B-frame" indicado acima, no

final do primeiro GOP, forem dependentes do "P-frame" anterior a ele no mesmo GOP

e do "I-frame" do GOP seguinte, como indicado abaixo

diz-se que este tipo de GOP é um GOP aberto. Caso contrário, se forem só dependentes

de informações existentes dentro do próprio GOP, como mostrado abaixo

diz-se que este tipo de GOP é um GOP fechado. Um vídeo codificado com GOPs

abertos introduz problemas na edição: se em algum corte for deletado o GOP da direita,

no exemplo acima de GOPs abertos, será impossível o "B-frame" do GOP da esquerda

conseguir reconstruir o último quadro da imagem correspondente a esse GOP. Para

evitar este problema, os arquivos gerados no computador para edição MPEG2 codificam

suas informações através de GOPs fechados e não abertos. Mesmo assim, problemas

podem ocorrer se o corte for efetuado por exemplo no "P-frame" do primeiro GOP:

Page 28: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 28

o primeiro GOP ficou incompleto, seus "B-frames" não podem mais reconstruir os

quadros porque dependem da informação do "P-frame" eliminado. Assim, mesmo cortar

dentro de um GOP fechado pode ser problemático.

Para alguns softwares de edição-não-linear estes problemas traduzem-se na falta de

precisão na edição de conteúdos codificados em MPEG2. Outros softwares,

notadamente os que trabalham com o formato HDV conseguem contornar estes

problemas decodificando os GOPs de determinado trecho do vídeo para recriar todos os

quadros do mesmo, efetuando o corte especificado e depois recodificando novamente

toda a sequência para gerar novos GOPs. Isso exige no entanto muito mais

processamento por parte do computador do que na edição de conteúdo comprimido no

modo intra-frame, como na família DV de formatos.

Não existe um padrão para montagem dos quadros dentro dos GOPs, diferentes

fabricantes adotam diferentes métodos, efetuando a codificação utilizando todos os tipos

de frames (I, B e P), utilizando somente alguns deles (somente I e P) ou até mesmo

somente (I). Neste último caso o conteúdo comprimido torna-se essencialmente

semelhante ao comprimido com o modo intra-frame. No caso do MPEG2 por exemplo,

se comprimido nesta forma, torna-se de alta qualidade e de fácil manipulação em

edição-não-linear, porém perde bastante em economia de espaço.

Os GOPs gravados com somente um frame/GOP acima referidos (do tipo I),

denominam-se short GOPs e os que contém mais de um frame (combinando os tipos I

e/ou B e P) denominam-se long GOPs.

H.262 o mesmo que MPEG2.

H.264 o mesmo que AVC.

HD (High Definition) termo genérico que descreve qualquer formato de vídeo que

possua vertical maior do que 480 linhas (definição válida para o padrão NTSC, para

outros padrões, o número de linhas da resolução HD excede a quantidade de linhas

utilizada em SD). A maior qualidade de seu conteúdo só pode ser observada em

aparelhos (TVs, monitores, etc...) especiais, de alta resolução. Quando exibidos em

aparelhos convencionais não apresentam diferença perceptível em relação aos sistemas

e formatos SD.

Uma das diferenças com os padrões de resolução SD é o aspecto da imagem. Enquanto

em SD este aspecto tem a proporção 4:3 (proporção entre largura e altura da imagem,

respectivamente), também representado por 1,33:1 (divisão de 4 por 3), em HD a

proporção é 16:9 (da mesma forma, também 1,77:1), formato este conhecido como

widescreen.

Existem dois tipos de resolução para imagens HD:

720 x 1280 (imagem progressiva)

1080 x 1920 (imagem entrelaçada)

HD-SDI (High Definition Serial Digital Interface) conexão para áudio e vídeo utilizada

no segmento profissional em estúdios, conectando câmeras e VCRs entre si ou com

Page 29: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 29

sistemas de edição-não-linear. Utiliza sinal digital de alta definição (HD) sem

compressão que trafega através de cabos com conectores BNC. Existe em duas versões,

as mesmas utilizadas pelos formatos HDV HD1 e HD2.

HDMI (High-Definition Multimedia Interface) conexão para áudio e vídeo em alta

definição (HD), do tipo digital sem compressão, proposta em 2002 por um consórcio de

empresas (Hitachi, Panasonic, Philips, Silicon Image, Sony, Thomson e Toshiba) para

ser utilizada no segmento consumidor entre televisores HD, DVD players, dispositivos

com sinais HDTV e outros, principalmente em home theaters. Além de trabalhar com

sinais HD, a conexão HDMI também suporta conteúdo de áudio e vídeo tradicional

(SD), além de diversos padrões de áudio, como os multi-canal do tipo surround por

exemplo. Cabos HDMI não sofrem interferências (devido ao seu sinal ser digital) e

podem ainda ser construídos com considerável extensão (até 15m). A figura abaixo

mostra um plug HDMI e sua conexão no painel de um aparelho que suporta este tipo de

sinal:

HDTV (High Definition TeleVision) padrão de sistema de televisão de alta definição.

Proporciona avanços significativos na qualidade da imagem (grande resolução

horizontal e vertical). Uma modificação também significativa neste sistema em relação

ao sistema tradicional é o formato da imagem, que segue proporções parecidas com as

utilizadas no cinema, ou seja, imagem bem maior em largura do que em altura (16:9 ao

invés de 4:3).

Sistemas atuais de HDTV: ATSC (Advanced Television Systems Commitee)

americano, DVB-T (europeu) e ISDB-T (japonês). A China desenvolve seu próprio

padrão. O Brasil adota o sistema japonês, com algumas modificações como o uso do

H.264 no lugar do MPEG2 no padrão de codificação. O padrão de codificação é um dos

quatro elementos que compõem um sistema de TV digital. Os outros são o padrão de

modulação (ISDB-T no Brasil), o middleware (sistema operacional de controle geral do

sistema digital de TV) e o padrão de retorno (o que permite a interatividade entre o

público e a emissora). No Brasil o sistema de TV digital denomina-se SBTVD-T

(Sistema Brasileiro de TV Digital Terrestre), adotando tanto a transmissão em alta

definição (HD) como em baixa definição (SD).

helical scan processo de leitura / gravação de fitas de vídeo (e alguns tipos de áudio,

como por exemplo o DAT), onde as cabeças de leitura / gravação são fixas em um

cilindro giratório inclinado em relação ao plano de deslocamento da fita, fazendo com

que as trilhas nela registradas fiquem também inclinadas.

horizontal sync pulse (H-sync) código (denominado pulso) inserido em um sinal de

vídeo para indicar ao canhão de elétrons que desenha linha a linha as imagens na tela de

um CRT (ou ao circuito que carrega as linhas da imagem em uma tela do tipo LCD ou

Page 30: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 30

plasma) que o desenho de uma determinada linha terminou. Juntamente com o vertical

sync pulse, é um dos pulsos utilizados para efetuar o sincronismo da imagem do vídeo.

i.Link nome para a interface baseada no protocolo IEEE-1394 utilizada pela Sony.

I-frame (intra-frame) tipo de quadro utilizado na montagem dos GOPs de compressões

multi-frame como a MPEG2 por exemplo. Sistemas que trabalham em MPEG2 e usam

somente este tipo de quadro possuem maior qualidade de imagem, por dispensarem os

processos de reconstrução dos demais tipos de quadro (B-frames e P-frames), sujeitos a

determinadas falhas.

IEEE units o nome "unidades IEEE" (abreviação de Institute of Electrical and

Electronics Engineers (EUA)) substituiu oficialmente o anterior "unidades I.R.E." na

indicação do brilho da imagem na tela, porém ambos são aceitos na terminologia usual.

IEEE-1394 (também chamado i.Link, FireWire ou DTVLink) protocolo padrão para

transmissão digital de áudio, vídeo e dados a curta distância. Desenvolvido

originalmente pela Apple Computer, foi proposto à organização IEEE - Institute of

Electrical and Electronics Engineers (EUA) e por ela tornado padrão em 1995.

FireWire é o nome utilizado pela Apple para sua versão do IEEE-1394 e por diversas

empresas que o empregam em seus produtos, i.Link é o nome criado pela Sony para a

mesma interface e DTVLink o nome padronizado pelo CEA (Consumer Electronics

Association) também para a mesma interface.

O formato DV foi a primeira aplicação a utilizar esta tecnologia, sendo parte opcional

do mesmo - pode ou não ser implementada, conforme o fabricante. Deverá no futuro ser

o substituto de protocolos como IDE, SCSI, etc...

O IEEE-1394 é um sistema de comunicação serial, bi-direcional de alta velocidade,

proposto para simplificar as conexões entre produtos digitais, como câmeras,

computadores, drives DVD, etc... Algumas características: sinais de áudio & vídeo &

outros trafegam por um único cabo/conector, sinais simultâneos podem trafegar nas

duas direções, pode conectar até 63 periféricos em uma única cadeia, os periféricos

podem ser conectados /desconectados ligados à cadeia (hot pluggable). Sinais digitais

de vídeo quando copiados de um equipamento para outro através deste tipo de conexão

não sofrem degradação da imagem.

Existem dois tipos de conectores usados: com 4 e com 6 pinos (unpowered e powered).

IEEE-1394, conector o padrão definido para o sinal IEEE-1394 possibilita a existência

de dois tipos de conectores (plugs macho / fêmea): com 4 pinos ou com 6 pinos. Quatro

conectores (pinos) são sempre utilizados para o sinal FireWire propriamente dito. Os

outros 2 são opcionais: o padrão IEEE-1394 prevê como opção que o mesmo cabo

utilizado para o sinal digital possa também fornecer energia para um equipamento

(periférico) conectado ao mesmo. Assim, um par de fios (energia e terra) é

opcionalmente adicionado ao cabo para esta finalidade, derivando daí a existência de

plugs com 4 e plugs com 6 pinos (unpowered e powered):

Page 31: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 31

O desenho mostra o plug de 4 pinos (à esquerda) e o de 6 pinos (à direita). Os

equipamentos do segmento consumidor e semi-profissional utilizam a opção de 4 pinos:

como estes equipamentos são geralmente menores, os plugs de tamanho menor

adaptam-se melhor à eles. No entanto, existem placas de edição por exemplo com os

dois tipos de plugs / conectores, assim como conversores de plugs 4/6 pinos (onde na

realidade os pinos de energia não são conectados no lado 4 pinos). Existem cabos com

plugs iguais e com plugs diferentes em suas extremidades (em relação ao número de

pinos): 4-4, 4-6 e 6-6 .

O desenho abaixo mostra o interior de um cabo FireWire de 6 fios:

O desenho abaixo mostra o interior de um cabo FireWire de 4 fios, utilizado em

conexões de câmeras digitais:

IEEE-1394a (FireWire 400) especificação proposta pelo 1394 Trade Association

(organização mundial dedicada a pesquisar melhorias para o padrão IEEE-1394) em

2000 para melhorar a performance do tráfego de informações do protocolo FireWire

(IEEE-1394) tradicional de 1995, além de melhorar também o seu gerenciamento de

energia (existem dois tipos de conectores FireWire, um deles, o de 6 pinos, transporta

energia e dados). Nesta especificação 3 velocidades de transferência de dados foram

estabelecidas, 100 Mbps - (Mega = 1 milhão), 100 milhões de bits por segundo, 200

Mbps e a tradicional 400 Mbps. O protocolo IEEE-1394a é totalmente compatível com

o protocolo IEEE-1394 original.

IEEE-1394b (FireWire 800) especificação proposta pelo 1394 Trade Association

(organização mundial dedicada a pesquisar melhorias para o padrão IEEE-1394) em

2002 para aumentar a capacidade da conexão FireWire (IEEE-1394a) tradicional. O

Page 32: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 32

volume de dados máximo possível de ser transportado aumentou de 400 Mbps - (Mega

= 1 milhão), 400 milhões de bits por segundo, para 3 níveis, o primeiro com 800Mbps,

o segundo com 1,6Gbps (Giga = 1 bilhão) e o terceiro com 3,2Gbps.

O comprimento máximo do cabo FireWire nesta especificação passou a ser de 100

metros (cabo de fibra óptica plástica) ou mais (cabo de fibra óptica de vidro), extensões

muito maiores quando comparadas aos 4,5 metros do cabo Fire Wire tradicional de fio

de cobre ou os 5 metros do cabo USB 2.0 sem reforço de sinal (o comprimento máximo

depende também do volume de dados transportado por segundo, quanto menor, maior a

extensão possível para o cabo).

Seus conectores utilizam 9 pinos (ao invés dos 4 ou 6 utilizados nos conectores do

protocolo FireWire tradicional). E assim como ocorre no FireWire tradicional, também

aqui existem conversores de plugs, de 9 pinos para 6 ou para 4 pinos. Assim, uma

câmera digital de vídeo, que normalmente possui encaixe para plugs de 4 pinos, pode

com um cabo conversor 4-9 pinos ser conectada a um periférico de computador que

trabalhe com FireWire 800. Dos 9 pinos utilizados, 2 são utilizados para transporte de

energia, da mesma forma que ocorre na versão 6 pinos do protocolo tradicional,

servindo para acionar determinados periféricos de computadores, como câmeras

utilizadas em vídeoconferência e HDs portáteis. Um outro exemplo de uso desta

tecnologia (dados & energia no mesmo cabo) são tocadores de mp3 que conectam-se ao

computador recebendo músicas e carga para suas baterias através de um único cabo

FireWire.

O protocolo IEEE-1394b é totalmente compatível com o protocolo IEEE-1394 proposto

originariamente em 1995 e com sua implementação IEEE-1394a. Sua utilização inicial

restringe-se a equipamentos de informática e algumas aplicações como redes em

estúdios de vídeo por exemplo.

image enhancer equipamento semelhante ao TBC, porém menos preciso e com menor

possibilidade de ajustes.

interlace de imagem quando as linhas exibidas na tela são desenhadas de maneira

alternada, primeiro as pares, depois as ímpares e assim por diante. O sistema de TV

tradicional mostra as linhas neste modo. Já os sistemas de computadores utilizam a

forma non-interlace, onde as linhas são desenhadas na sequência, uma a uma, sem

alternância.

I.R.E. (Institute of Radio Engineers) unidade utilizada para medir o brilho da imagem

na tela. A escuridão total recebe o valor 0 IRE e o branco total, 100 IRE. Um sinal ideal

de vídeo não deve nunca ter intensidade de brilho inferior a 7,5 IRE e nunca superior a

100 IRE - fora destes limites, haverá distorção na reprodução da imagem no monitor.

JPEG (Joint Photographic Experts Group) padrão de codificação / decodificação de

dados utilizado para comprimr / descomprimir imagens fotográficas estáticas. Neste

padrão, a imagem é dividida em quadrados de 8x8 pixels, e através de complexos

cálculos matemáticos é calculada uma cor 'média' para estes 64 pixels. Com isso ocorre

perda de detalhes na compressão. Processos em que isto ocorre são conhecidos como

'lossy'. Existem processos onde não ocorrem perdas ('lossless'), utilizados por exemplo

no padrão GIF (Graphic InterFace, desenvolvido pela Compuserve) de compressão de

Page 33: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 33

imagens fotográficas. No entanto padrões como o GIF são apropriados para gráficos por

exemplo e não imagens fotográficas, por que o conjunto de cores tratados por eles (256

cores) é muito menor do o utilizado em padrões como o JPEG.

O tipo de compressão utilizado no padrão JPEG é o intraframe. Quando utilizado

individualmente sobre cada quadro de uma sequencia de imagens de vídeo recebe o

nome MJPEG (Motion JPEG).

LANC (ou Control-L) (Local Application Control) protocolo de comunicação para

edição-linear desenvolvido pela Sony, utilizado em vídeoprodução para controle

remoto, através de um cabo, de determinados dispositivos, como por exemplo VCRs e

câmeras. Introduzido pela Sony juntamente com suas câmeras analógicas de 8 mm (e

mais tarde Hi8), foi um dos protocolos mais populares utilizados em edição linear

voltada para o segmento consumidor e semi-profissional, permitindo que um aparelho

denominado controlador de edição pudesse comandar câmeras não só da Sony como

também da Canon. Sua comunicação é efetuada em duas vias (bidirecional), ou seja,

permite tanto operações do controlador para a câmera ou VCR (PLAY, PAUSE, etc...)

como a transmissão de informações no sentido contrário (posição do tape counter da

câmera ou VCR lida pelo controlador). Utiliza o mesmo conector mini-plug estéreo

usado em aplicações de áudio.

Com o domínio da edição-não-linear deixou de se utilizado nesta função, mas sua

capacidade de controlar remotamente não só as funções básicas de transporte de fita em

uma câmera, mas, principalmente outras como foco e zoom, despertou seu uso para

situações onde esse controle é necessário, como por exemplo em câmeras fixadas na

ponta de gruas. Ainda outra aplicação é em controles de zoom e foco instalados em

alavancas de pan, para câmeras montadas em tripés, como mostra a ilustração abaixo (o

cabo que conecta o dispositivo à entrada LANC da câmera não aparece):

Serviços especializados de assistência técnica usam também essa conexão para obter

dados específicos da câmera, como por exemplo a leitura do contador de giros do

cilindro das cabeças de vídeo da mesma.

linhas (imagem de vídeo) a imagem de vídeo é formada através de uma sequência de

linhas horizontais. Estas linhas são geradas por um dispositivo sensível à luz colocado

dentro das câmeras. Antigamente este dispositivo era um tubo de imagem denominado

vidicon; hoje é um chip denominado CCD. O resultado da leitura do CCD é um sinal

Page 34: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 34

analógico que pode, opcionalmente, ser digitalizado logo em seguida ou não, resultando

nos formatos analógicos (VHS por exemplo) e digitais (MiniDV por exemplo).

As figuras abaixo mostram o sinal de vídeo para o padrão NTSC, como é desenhado na

tela de um tubo de imagens (CRT):

A primeira das 3 figuras, à esquerda, mostra a formação das linhas ímpares e o segunda

a formação das linhas pares. O sinal de vídeo trabalha com o processo de alternância

tanto na leitura como na apresentação das linhas porque, quando foi patenteado pela

RCA, em 1929, a camada de fósforo que recobria internamente o CRT possuía tempo

de resposta muito lento (tempo para um determinado ponto da tela ficar luminoso e em

seguida apagar-se) para trabalhar com um novo desenho de linha a intervalos muito

curtos; este fato, associado a outras limitações técnicas época, como restrição na largura

de banda (bandwidth) disponível para efetuar a transmissão do sinal até as residências

levou à criação desse sistema, onde o desenho das linhas é dividido em duas etapas,

linhas ímpares e linhas pares.

Na figura das linhas ímpares, a palavra "início" em azul mostra o ponto de partida da

trajetória do canhão no desenho da imagem no tubo. Ao chegar ao término da primeira

linha, o canhão tem que retornar seu feixe de elétrons para desenhar a segunda linha.

Neste momento o feixe é desligado, enquanto o canhão retorna para iniciar o desenho da

segunda linha, parte da trajetória denominada retrace horizontal, indicada na figura por

uma linha pontilhada. A trajetória do desenho das linhas não é perfeitamente horizontal,

como mostra a figura, sendo ligeiramente inclinada para baixo, ao contrário da trajetória

do retrace horizontal. Na figura, para facilidade de comunicação a inclinação das linhas

foi bastante exagerada. No tubo de imagem de um televisor comum a inclinação não é

percebida devido ao ajuste do mesmo na estrutura do aparelho (inclinação contrária para

compensar). A figura ilustra o que acontece em um tubo de imagem P&B; em um tubo

colorido existem algumas diferenças como a presença de uma máscara de pontos

coloridos e a existência de 3 canhões, mas a forma de desenhar as linhas é a mesma.

São desenhadas 262 linhas e meia (conforme a figura da esquerda); a última linha, de

número 525, é desenhada somente até a metade. A linha verde na figura mostra o

Page 35: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 35

movimento de retrace vertical do canhão (com o feixe desligado) até atingir o topo

novamente, porém desta vez no meio da imagem ("fim" em azul na figura). O conjunto

todo destas linhas (incluindo os retraces) leva 1/60 seg. para ser desenhado e recebe o

nome de campo. Neste caso, trata-se portanto do campo ímpar (odd field).

O sinal de vídeo possui, embutido dentro do mesmo, indicações para o canhão de que

uma linha horizontal chegou ao fim ou de que um campo teve seu desenho completado.

Estas informações, denominadas pulsos de sincronismo, permitem que os retraces

sejam efetuados quando necessário.

A figura do meio mostra o desenho do campo par (even field), e a linha vermelha a

trajetória do retrace vertical até a posição de início do campo ímpar. São desenhadas

também 262 linhas e meia, sendo que a primeira linha tem início na metade da tela e

não é contada na numeração das linhas: a primeira do campo par é a linha 2 ("L2" no

desenho). A última linha deste campo é a de número 524. O processo todo também leva

1/60 seg. para ocorrer.

A soma dos dois campos, ilustrado na figura mais à direita recebe o nome de quadro,

sendo portanto desenhado em 1/30 seg. (1/60 + 1/60). Em outras palavras, a cadência de

apresentação das imagens (frame rate) é de 30 quadros por segundo (30qps). Ao término

deste tempo todas as linhas foram desenhadas na tela e o processo reinicia-se

novamente. Neste momento, as linhas do primeiro campo já estão-se tornando quase

que totalmente apagadas (o fósforo vai perdendo luminosidade gradativamente). Com a

criação do processo de alternância no desenho das linhas foi possível atender as

limitações de banda da época e ao mesmo tempo obter-se uma boa resolução na

imagem. Daí originou-se o nome interlaced para este tipo de sinal: o desenho das linhas

é entrelaçado, ou seja, ímpares / pares / ímpares e assim por diante.

Nem todas as 525 linhas disponíveis no sistema NTSC no entanto são visíveis na tela.

Das 262 linhas e meia de cada campo, as últimas 21 linhas são sempre reservadas para

armazenar diversas informações de controle do próprio sinal e outras mais. Assim, tem-

se um total de 483 linhas visíveis, 241 linhas e meia em cada campo (241,5 + 21 =

262,5 para cada campo):

As 9 primeiras linhas do conjunto de 21 armazenam, entre outras informações, os pulsos

de sincronismo vertical (V-Sync) e sinais de equalização. As 12 demais linhas podem

ser utilizadas para o armazenamento de diversas informações, como por exemplo close

caption e Timecode do tipo VITC (Vertical Interval Timecode). São essas linhas não

Page 36: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 36

visíveis, sem imagem, que formam a faixa preta que pode ser vista quando o ajuste

vertical do monitor está fora da posição correta, como mostra a figura abaixo:

Em monitores de vídeo é possível visualizar estas 12 últimas linhas através do

acionamento de um botão denominado underscan. Em aparelhos de TVs comuns, não

só as 21 linhas como algumas a mais são escondidas pela máscara que forma a estrutura

do aparelho. Devido à persistência de imagens na retina, o olho humano não percebe

somente 241 linhas e meia na imagem (quando um campo está sendo desenhado o

anterior já está-se apagando) mas sim as 483. Com isso é possível manter-se uma

resolução vertical aparente de 483 linhas que na realidade é de somente 241 linhas.

Os sinais analógicos de vídeo podem ser digitalizados e convertidos para um formato

digital de vídeo, como o DV por exemplo. No formato NTSC DV são desconsideradas 1

linha e meia de cada campo do formato NTSC analógico, resultando em um total de 480

linhas ao invés de 483. As diversas informações de controle existentes nas 21 linhas não

mostradas são mantidas, sendo codificadas e digitalizadas de modo que os

equipamentos que tratam este tipo de sinal digital as entendam. O inverso também pode

ocorrer, quando um sinal digital é convertido para analógico: neste caso as informações

de controle são reconstruídas para entendimento dos equipamentos que tratam sinais

analógicos. Os sistemas PAL e SECAM funcionam de forma semelhante, porém com

número diferente de linhas em cada quadro.

Para facilidade de comunicação, a frequência de apresentação dos quadros no sistema

NTSC é considerada como sendo de 30 quadros por segundo. No entanto o frame rate

preciso é 29,97 e não 30.

uminância brilho, medida da luminosidade total da imagem.

MJPEG algoritmo de compressão / descompressão de dados JPEG utilizado em imagens

fotográficas, porém aplicado ao vídeo, onde cada quadro é comprimido

individualmente.

monitor de forma de onda (waveform monitor) utilizando como fonte geralmente uma

imagem do tipo color bars permite identificar e corrigir problemas referentes ao brilho,

cores e estabilidade da mesma. Analisa a variação de voltagem no sinal de vídeo (1V de

um extremo a outro) exibindo-a graficamente. Aparelhos deste tipo geralmente são

capazes de exibir diversos tipos diferentes de gráficos, propiciando a visualização e

análise de vários aspectos do sinal.

No exemplo abaixo, um monitor de forma de onda exibe o sinal gerado pela imagem

color bars. O tipo de gráfico selecionado exibe metade das linhas do sinal à esquerda e

metade à direita (desenho repetido). No eixo vertical, a intensidade do sinal é medida

em unidades I.R.E.. O pico máximo do branco (o gráfico mostra um sinal corretamente

ajustado) situa-se em 100 I.R.E.. A menor intensidade do sinal (cor preta) é ajustada em

Page 37: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 37

7,5 I.R.E.. O eixo horizontal mostra informações de timing do sinal. As faixas cinza

claro verticais (7 em cada lado) representam a intensidade total do sinal ao longo do

eixo horizontal da imagem do color bars.

Diversos usos são possíveis com o aparelho: setup e sincronização de equipamentos em

estúdio, ajustes e verificação de problemas, etc...

O ajuste pode ser efetuado diretamente no equipamento a ser calibrado - conectando-se

sua saída ao monitor de forma de onda - ou ser utilizada a comparação - comparar o

sinal gerado pela fonte com o obtido após a gravação / reprodução em determinado

equipamento. Nesta comparação, também pode ser observado que quanto melhor o

formato de vídeo, mais os dois resultados se aproximarão. Alguns problemas apontados

na análise podem ser corrigidos pelo TBC .

MP@HL um dos tipos de profile@level empregados para classificar tipos de

compressão MPEG2.

MP@LL um dos tipos de profile@level empregados para classificar tipos de

compressão MPEG2.

MPEG (Motion Picture Experts Group) grupo de trabalho formado em janeiro de 1988

para criar padrões internacionais de CODECs (esquemas de compressão /

descompressão - COmpression / DECompression) de áudio e vídeo. Em 1989 era

formalizado o padrão MPEG1, tendo sido aprovado como padrão internacional em

1992. Em 1990 começava a ser concebido um novo padrão para substituí-lo,

denominado MPEG2, tendo sido aprovado em 1994. Novas melhorias, que levariam ao

padrão MPEG3, acabaram por ser incorporadas ao já existente MPEG2, fazendo com

que a sigla MPEG3 não fosse utilizada. Assim, em 1993 começou a ser estruturado o

padrão MPEG4, aprovado em 1998. O grupo ainda desenvolveu a partir de 1997 o

padrão MPEG7, voltado para técnicas facilitadoras de pesquisa de conteúdo de áudio e

vídeo (aprovado em 2002) e atualmente desenvolve o padrão MPEG21, denominado

multimedia framework. Trabalha ainda com outros padrões relacionados ao uso na

prática dos padrões de áudio e vídeo acima mencionados, como o IPMP (Intellectual

Property Management and Protection). O grupo MPEG faz parte da organização ISO -

International Standards Organization.

MPEG1 (Motion Picture Experts Group-1) primeiro padrão criado pelo grupo MPEG

para compressão de imagens de áudio e vídeo previamente digitalizadas. O padrão

MPEG1 começou a ser concebido em julho de 1989, tendo sido aprovado como padrão

Page 38: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 38

internacional em 1992. Pequenos vídeos disponibilizados na Internet, discos do tipo

VCD e vídeo distribuído em discos do tipo CD-ROM, todos utilizam este padrão. O

padrão de compressão de áudio MP3 também é MPEG1 (na verdade trata-se do layer 3

do MPEG1, daí seu nome MP3). A taxa de compressão é variável (um mesmo padrão,

como o MPEG1, pode ser utilizado para comprimir mais ou comprimir menos o

conteúdo original), podendo atingir algo em torno de 200:1 (o original comprimido fica

com tamanho 200 vezes menor). No entanto, com esta taxa máxima as imagens

dificilmente podem ser assistidas: toda compressão introduz no resultado final pequenas

distorções na imagem (denominadas artefatos de compressão), presentes em maior ou

menor número, dependendo da qualidade do algoritmo de compressão utilizado (ex. o

algoritmo MPEG2 é melhor do que o MPEG1) e da taxa de compressão utilizada (maior

ou menor compressão). Assim, a maioria dos vídeos comprimidos com MPEG1 utiliza

compressão menor do que 50:1 . Mesmo com essa taxa, a resolução horizontal obtida

após a compressão é baixa: cerca de 320 linhas - semelhante à do formato VHS. A

compressão utilizada é do tipo multi-frame.

MPEG2 (Motion Picture Experts Group-2) segundo padrão criado pelo grupo MPEG

para compressão de imagens de áudio e vídeo previamente digitalizadas. O padrão

MPEG2 começou a ser concebido em julho de 1990, pelo grupo MPEG, em conjunto

com o grupo Video Coding Experts do ITU-T (International Telecommunication

Union), tendo sido aprovado como padrão internacional em 1994. É conhecido dentro

da comunidade ITU-T também como H.262, o nome do projeto dentro desse grupo.

Discos do tipo DVD e transmissão digital de TV utilizam este padrão. É um padrão

mais avançado do que o MPEG1 produzindo uma imagem de melhor qualidade do que

este. A taxa de compressão, assim como no MPEG1 também é variável (um mesmo

padrão, como o MPEG2, pode ser utilizado para comprimir mais ou comprimir menos o

conteúdo original); normalmente utilizam-se valores em torno de 40:1 (o original

comprimido fica com tamanho 40 vezes menor). Essa taxa é um pouco maior do que a

utilizada geralmente com MPEG1 (valores menores do que 50:1), no entanto o que

diferencia a qualidade da imagem obtida não é somente a taxa de compressão e sim o

processo (algoritmos) utilizado. No caso, o padrão MPEG2 é muito mais eficiente em

comprimir sem perda aparente de qualidade do que o MPEG1. Por outro lado, isso

exige um esforço computacional bem mais intensivo no processo, exigindo um

hardware mais potente do que o exigido no uso do MPEG1. A resolução horizontal

obtida após a compressão é superior à do formato VHS. A compressão utilizada é do

tipo multi-frame. Devido ao processo de montagem dos GOPs utilizados pela técnica

multi-frame, é muito mais trabalhoso comprimir um conteúdo MPEG2 do que

descomprimí-lo.

MPEG2-TS (MPEG2 Transport Stream) no formato HDV, é o tipo de sinal gravado

pela câmera na fita. Da mesma forma que no formato DV, onde o sinal gravado nas fitas

(tipo "DV") não pode ser editado diretamente na edição-não-linear, tendo que ser

convertido na fase de captura (para o tipo " .avi " por exemplo) para poder ser

manipulado no computador, o mesmo ocorre no formato HDV. Neste caso, o sinal

MPEG2-TS é convertido para a forma MPEG2 Program Stream ou então para um

arquivo do tipo " .avi ".

MPEG4 (Motion Picture Experts Group-4) padrão criado pelo grupo MPEG para

compressão de imagens de áudio e vídeo previamente digitalizadas. O padrão MPEG4

começou a ser concebido em julho de 1993, tendo sido aprovado como padrão

Page 39: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 39

internacional em 2000. Vários vídeos transmitidos pela Internet fazem uso deste padrão,

assim como telefones celulares que utilizam imagens. Também é utilizado em diversos

padrões de transmissão de TV digital, especialmente os de alta definição (HDTV) em

sua versão AVC, como visto adiante. Assim como o padrão MPEG1 e MPEG2, o

MPEG4 permite o uso de diferentes "profiles", estabelecendo valores diversos de taxas

de compressão, conforme a aplicação a ser efetuada (em outras palavras, tem-se um

mesmo padrão sendo utilizado para comprimir mais ou comprimir menos o conteúdo

original). No entanto, ao contrário do MPEG2, cuja qualidade é mais ou menos fixa em

torno do padrão DVD-Vídeo de qualidade, para o MPEG4 essa variação é bem maior:

uma gama muito grande de valores pode ser utilizada, permitindo a visualização das

imagens do vídeo não importando a capacidade do meio de transmissão (Internet de

banda larga ou linha discada por exemplo). É por este motivo, entre outros, que sistemas

de transmissão de HDTV o tem escolhido como padrão de codificação, como alternativa

ao MPEG2.

O esforço computacional despendido na manipulação de vídeos no formato MPEG4 é

ainda maior do que o exigido no formato MPEG2, o que exige um hardware também

mais potente. O MPEG4 é um padrão mais avançado do que o MPEG2: além da

melhoria nos processos de compressão, que se traduzem em arquivos comprimidos com

tamanho muito menor sem perda aparente de qualidade, permite também o uso de

outros tipos de mídia interagindo com o vídeo (como textos e fotos digitais por

exemplo), acionados através de menus inteligentes. Estes menus, ao contrário dos

menus de DVDs de filmes por exemplo, que ao serem acionados são sempre mostrados

ocupando toda a tela com o aparelho retornando ao início do disco, podem ser exibidos

da forma que o criador do vídeo quiser - embutido dentro da tela de um laptop que surge

durante o filme por exemplo. Isso porque a interatividade não é dependente do aparelho

reprodutor do vídeo, e sim faz parte do próprio vídeo, seus comandos são codificados

juntamente com as imagens e não em um capítulo separado dedicado ao menu.

MPEG4, assim como MPEG1 e MPEG2, são na verdade nomes dados a um conjunto de

diversos tópicos denominados "parts". Cada parte aborda um aspecto diferente do

padrão. Assim por exemplo, no MPEG4 a parte 1 descreve a sincronização de áudio e

vídeo, a parte 2 o processo de compressão das imagens, a parte 3 o processo de

compressão do áudio, a parte 4 procedimentos para verificar a conformidade de

determinada amostra com outras partes do padrão, a parte 5 software para demonstrar e

ilustrar determinadas partes do padrão e assim por diante. A parte 10 do padrão foi

incluída quando uma versão mais otimizada da parte 2 (compressão de vídeo) foi

desenvolvida. Esta parte recebeu o nome AVC (Advanced Video Coding). Também

ficou conhecida como H.264, porque este foi o nome dado pelo grupo Video Coding

Experts do ITU-T (International Telecommunication Union), que o desenvolveu

conjuntamente com o grupo MPEG.

A organização ISO (International Standards Organization) definiu em 2002 o programa

QuickTime da Apple como padrão para distribuição de conteúdo de vídeo em MPEG4.

A resolução horizontal obtida após a compressão é variável, podendo ser ajustada para

diversos níveis de qualidade, desde ligeiramente inferior à do formato VHS até

equivalente à do formato DVD. A compressão utilizada é do tipo multi-frame.

MPEG4 Part-10 o mesmo que AVC.

Page 40: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 40

non-interlace o oposto de interlace de imagem.

NTSC (National Televison Standards Committee) padrão definido por uma associação

entre um comitê com este nome, emissoras de TV e fabricantes de receptores, nos EUA,

no início dos anos 50, originalmente especificando como imagens em preto e branco

deveriam ser transmitidas analogicamente de um ponto a outro. O espectro de altas

frequências VHF havia sido dividido em 13 canais em 1945 pelo US Federal

Communications Commission, determinando com isso um tamanho máximo de banda

para cada um. Os engenheiros deste comitê tiveram então de criar especificações que

fizessem com que a quantidade de informação transmitida coubesse no espaço destinado

a cada canal.

Assim, foi estabelecido que a frequência de troca de quadros na imagem seria de 60/seg,

igual aos 60 Hz (ciclos/seg) utilizados na corrente elétrica nos EUA, a quantidade de

linhas na tela 525, a resolução horizontal 330 linhas e o sinal monoaural. Como a

largura de banda disponível não era suficiente para transmitir uma imagem completa,

com todas as linhas, 60 vezes por segundo, optou-se por dividi-la em 2 partes, uma com

as linhas pares e outra com as ímpares, mostradas alternadamente, a cada 1/60 seg -

conceito denominado interlace de imagem - fato para o olho humano imperceptível.

No início da década de 60 o padrão NTSC foi implementado, tendo sido acrescentadas

as especificações para imagens coloridas. Como não havia espaço para aumentar a

banda disponível para acrescentar as informações de cor, os engenheiros do comitê

criaram um segundo sinal, específico para cor, misturado de forma codificada ao

primeiro, destinado à luminância, criando assim um sinal composto. O requisito básico

era que o sinal de luminância deveria permanecer inalterado com esta modificação, para

permitir que antigos televisores em preto e branco continuassem a captar a mesma

imagem de antes.

Além disso, o frame rate utilizado teve que ser modificado de 30qps para 29,97qps por

uma série de questões de engenharia exigidas na mistura dos sinais de cor no de

luminância acima descrita. Enquanto a mudança não afetava de maneira perceptível a

imagem dos televisores P&B, era exigida para os novos aparelhos coloridos. Isso fazia

com que o ajuste da frequência de desenho das imagens na tela baseada no sincronismo

com a corrente elétrica que entrava pelo fio do aparelho conectado à tomada não era

mais possível, exigindo técnicas mais elaboradas e dispendiciosas para ser realizado.

Mas então a eletrônica já estava bem mais desenvolvida e avançada do que na época do

surgimento da TV P&B, o que possibilitou a realização desta mudança.

A forma como os sinais foram misturados apresentava no entanto muitas vezes falhas

nas cores, como enfraquecimento em determinados pontos, mistura com partes de outra

cor e supersaturação de determinadas cores - principalmente o vermelho. A ausência de

indicação de referência absoluta no sinal de cor ( x % de azul, mas em relação a qual

padrão de azul?) deixava os aparelhos livres para reproduzir as cores conforme seus

ajustes individuais (receptores colocados lado a lado mostravam a mesma cor com tons

diferentes); para ajustá-los eram necessários recursos como color bars e vetorscópios

por exemplo. Como melhoria deste padrão, foi proposto o padrão PAL, no final dos

anos 60. Mais tarde, dentro do possível permitido pelas restrições já estabelecidas nas

especificações de engenharia do sinal, diversas modificações foram feitas, propiciando a

minimização dos defeitos acima descritos.

Page 41: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 41

Posteriormente, em 1986, o padrão NTSC foi novamente implementado, com o som

estéreo, as legendas para surdos embutidas no sinal e o sinal de som multi-língue SAP.

Alguns países que utilizam NTSC: Bahamas, Barbados, Bermudas, Bolívia, Cambodja,

Canadá, Chile, Colômbia, Coréia, Costa Rica, Cuba, El Salvador, Equador, Estados

Unidos, Filipinas, Guatemala, Honduras, Japão, México, Panamá, Peru, Porto Rico,

República Dominicana, Suriname, Trinidade e Tobago, Venezuela.

(Obs. em alguns poucos países há mais de um padrão em uso, geralmente um oficial e

outro introduzido por novos serviços de TV a cabo ou utilizado para recepção de sinal

proveniente de países vizinhos, em locais próximos às fronteiras. Ainda em outros

países existe diferença de padrão quando a transmissão / recepção é feita em VHF ou

UHF; no Brasil em ambos sistemas o padrão é o mesmo, PAL-M).

O sinal de um sistema geralmente não é compatível com outro: dependendo do sistema,

uma fita gravada em PAL por exemplo pode não apresentar imagem alguma em um

VCR do sistema SECAM por exemplo, ou mostrar imagens em preto e branco.

osciloscópio equipamento que mostra em uma tela um gráfico representando a variação

de voltagem de um sinal elétrico em função de um determinado intervalo de tempo.

Pode ser utilizado em vídeo produção para avaliar e calibrar equipamentos. Existem no

entanto osciloscópios construídos especificamente para este fim, como o monitor de

forma de onda (waveform monitor) - estes sim, comumente utilizados.

P-frame (predicted frame) tipo de quadro utilizado na montagem dos GOPs de

compressões multi-frame como a MPEG2 por exemplo.

PAL (Phase Alternate Lines) padrão criado na Alemanha no final dos anos 60, para

eliminar vários problemas existentes no padrão NTSC referentes à reprodução de cor,

invertendo-se a fase do sinal de cor para linhas alternadas na tela. A reprodução de cores

resultou mais precisa do que no padrão NTSC e o sistema foi adotado em vários países

do mundo, exceto os já comprometidos com investimentos no sistema NTSC.

Neste países a corrente elétrica alternada era gerada em 50 ciclos/seg (ao invés de 60,

como nos EUA), por isso a frequência de mudança de campos foi especificada como 50

e não 60, sendo as imagens transmitidas a 25 quadros/seg ao invés de 30/qps (frame

rate). Esta redução na cadência de mudança das imagens faz com que as mudanças

sejam um pouco mais 'visíveis' do que no padrão NTSC - a imagem 'pisca' mais.

Há um único país onde este problema não ocorre, o Brasil, porque a corrente utilizada é

de 60 ciclos/seg - e portanto as imagens são transmitidas com frequência de 30

quadros/seg.

Nos sistemas PAL de 50 ciclos, para compensar a perda na qualidade visual ao mostrar-

se 25 quadros/seg a quantidade de linhas na tela foi ampliada: estes sistemas mostram

625 linhas ao invés das 525 do sistema NTSC - a imagem aparenta-se mais nítida e

definida. Há outros fatores também no sinal PAL que o tornam superior ao NTSC:

maior contraste obtido nas imagens (a parte do sinal que controla esta característica é

mais abrangente) e maior detalhamento geral, por sobrar mais espaço de banda para a

Page 42: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 42

luminância uma vez que o sinal de cor ocupa menos espaço por utilizar frequência

maior do que no NTSC.

A alternância de fase no sinal de cor exige mais campos para completar-se o ciclo

completo de cor, limitando ligeiramente a precisão dos equipamentos de edição neste

sistema em relação ao NTSC. Também em relação ao NTSC os sistemas PAL de 625

linhas ficam mais sujeitos a interferências em transmissões de um equipamento a outro,

devido a requerer maior banda. Outro problema frequente é a saturação das cores,

muitas vezes fugindo do original. Na mesma época em que o padrão PAL era

desenvolvido, também era criado o padrão SECAM.

O padrão PAL não é exatamente idêntico nos diversos países onde é adotado: ligeiras

variações em suas características básicas diferenciam um padrão de outro e para

identificá-los são adotados sufixos conforme o subtipo de PAL: PAL-M, PAL-N, PAL-

D, PAL-I, PAL-B, PAL-G e PAL-H.

Destes, PAL-D, PAL-I, PAL-B, PAL-G e PAL-H são todos todos essencialmente o

mesmo PAL, com as mesmas especificações (resolução vertical de 625 linhas, frame

rate de 50qps, etc..); o que os diferencia é o modo como o sinal é modulado para ser

transmitido para as residências. Desta forma, televisores de países que utilizam esses

padrôes devem estar preparados para receberem um (ou mais de um, como é comum em

televisores do continente europeu) desses tipos de sinais para poderem exibir as

imagens. Os sinais de vídeo desses padrões são gravados de forma idêntica em uma fita

/ disco (diz-se abreviadamente que o conteúdo está gravado em PAL). Assim, não

necessitam conversão de um padrão para outro (não existem aparelhos conversores de

padrão PAL-G para PAL-H por exemplo). No entanto, é necessária a conversão para os

padrões PAL onde as características de resolução vertical e frame rate sejam diferentes,

como o PAL-N e o PAL-M. Desta forma, pode-se dividir os padrões PAL em 3 tipos

(PAL / PAL-N / PAL-M), sendo que no caso do PAL, existem subdivisões utilizadas

somente para broadcast (transmissão). Um VCR ao gravar um sinal recebido da TV

aberta em PAL-B gravará conteúdo idêntico a outro fazendo o mesmo a partir de um

sinal PAL-G: ambos serão gravados em PAL. Já um VCR gravando sinal PAL-N e um

gravando sinal PAL-M gravarão sinais diferentes, PAL-N e PAL-M respectivamente.

Alguns países que utilizam PAL: Açores, Afeganistão, África do Sul, Albânia,

Alemanha, Algéria, Angola, Argentina, Austrália, Áustria, Bangladesh, Bélgica,

Botswana, Camarões, China, Dinamarca, Emirados Árabes, Espanha, Etiópia,

Finlândia, Gâmbia, Gibraltar, Grécia, Hong Kong, Ilhas Canárias, Índia, Indonésia,

Irlanda, Itália, Iugoslávia, Jordânia, Israel, Kuwait, Libéria, Luxenburgo, Madeira,

Malásia, Malta, Namíbia, Nepal, Nova Zelândia, Paquistão, Paraguai, Portugal, Reino

Unido, República Tcheca, Romênia, Serra Leoa, Singapura, Somália, Sudão, Suécia,

Suíça , Tailândia, Tanzânia, Turquia, Uganda, Uruguai, Vietnam, Yemen, Zâmbia,

Zimbabwe.

(Obs. em alguns poucos países há mais de um padrão em uso, geralmente um oficial e

outro introduzido por novos serviços de TV a cabo ou utilizado para recepção de sinal

proveniente de países vizinhos, em locais próximos às fronteiras. Ainda em outros

países existe diferença de padrão quando a transmissão / recepção é feita em VHF ou

UHF; no Brasil em ambos sistemas o padrão é o mesmo, PAL-M).

Page 43: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 43

O sinal de um sistema geralmente não é compatível com outro: dependendo do sistema,

uma fita gravada em PAL por exemplo pode não apresentar imagem alguma em um

VCR do sistema SECAM por exemplo, ou mostrar imagens em preto e branco.

PAL-B variação do padrão PAL, utilizando 5,0 Mhz como largura de banda ; muito

semelhante ao PAL-G e PAL-H ; alguns países que o utilizam: Alemanha, Açores,

Albânia, Algéria, Austrália, Áustria, Bangladesh, Bélgica, Camarões, Dinamarca,

Espanha, Etiópia, Finlândia, Índia, Indonésia, Israel, Itália, Jordânia, Kuwait, Libéria,

Madeira, Malásia, Malta, Nepal, Nigéria, Nova Zelândia, Paquistão, Portugal,

Singapura, Sudão, Suécia, Suíça, Tailândia, Tanzânia, Turquia, Uganda, Vietnam,

Zâmbia, Zimbabwe.

PAL-D variação do padrão PAL, utilizando 6,0 Mhz como largura de banda (em alguns

tipos como PAL-M e PAL-N a largura é menor); alguns países que o utilizam: China,

Romênia.

PAL-G variação do padrão PAL, utilizando 5,0 Mhz como largura de banda ; muito

semelhante ao PAL-B e PAL-H ; alguns países que o utilizam: República Tcheca,

Suécia e Suíça (em UHF).

PAL-H variação do padrão PAL, utilizando 5,0 Mhz como largura de banda ; muito

semelhante ao PAL-B e PAL-G ; alguns países que o utilizam, em UHF: Gibraltar,

Libéria, Malta.

PAL-I variação do padrão PAL, utilizando 5,5 Mhz como largura de banda ; alguns

países que o utilizam: África do Sul, Angola, Botswana, Gâmbia, Irlanda, Namíbia,

Reino Unido (em UHF).

PAL-M variação do padrão PAL, utilizando 30 quadros por segundo ao invés de 25 e

525 linhas ao invés de 625; utilizado somente no Brasil.

PAL-N variação do padrão PAL, utilizando 4,2 Mhz como largura de banda (a mesma

do PAL-M): nos demais tipos a largura é maior; alguns países que o utilizam:

Argentina, Paraguai.

PAL60 (Pseudo-PAL ou Quasi-PAL) Televisores do sistema PAL não podem

reproduzir imagens do sistema NTSC; para contornar o problema, foi criado um sistema

híbrido denominado PAL60. Diferente do sistema PAL-M, embora com as mesmas

características de frame rate (60 campos entrelaçados por segundo, formando 30

quadros) e resolução vertical (525 linhas), o sinal para este sistema é gerado através de

um circuito eletrônico colocado no interior de VCRs ou DVD players, no momento em

que reproduzem uma fita ou DVD gravados no sistema NTSC. Os aparelhos (VCRs /

DVDs players) que geram sinal no modo PAL60 foram desenvolvidos para uso em

locais onde o sistema utilizado é um dos sistemas PAL. Como os televisores em uso

nesses países não aceitam sinal no modo NTSC, esta é uma forma de se permitir a

visualização de fitas e discos gravados neste sistema. É necessário que o aparelho de TV

aceite no entanto o modo PAL60, mas como a maioria dos televisores dos sistemas PAL

mais recentes aceita também este tipo de sinal, é possível haver neste caso uma certa

padronização entre os diversos tipos de PAL existentes. O padrão de formatos

Page 44: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 44

estabelecidos para DVD players prevê a geração de sinais nos sistemas NTSC e PAL60.

O PAL60 é utilizado sobretudo nos países europeus.

Uma alternativa ao modo PAL60 é o uso de VCRs e DVD players que convertem o

sinal de fitas e discos NTSC para um dos sistemas PAL (como um VCR que lê uma fita

NTSC e converte o sinal de saída para o sistema PAL-M, permitindo a conexão com um

televisor neste sistema).

Outra alternativa é o uso de VCRs e DVD players emitindo o sinal de vídeo no sistema

NTSC, conectados a televisores que também aceitem sinais neste sistema.

profile@level o padrão de compressão de áudio/vídeo MPEG2 foi concebido para

abranger uma gama muito grande de aplicações: assim, um mesmo conteúdo pode ser

codificado em MPEG2 de diferentes maneiras. Um exemplo é a taxa variável de

compressão que pode ser utilizada durante a fase de geração do arquivo, resultando em

vídeos com qualidade diferente de imagem. Para organizar as diversas características

das formas de implementação do MPEG2 foi criada uma representação hierárquica,

empregando os termos "profile" e "level", cujos valores são separados por "@", na

forma "aaa@bbb".

Assim por exemplo, a profile "SP" (Simple Profile) estabelece que o conteúdo seja

comprimido utilizando somente os P-frames e os I-frames dos GOPs do string MPEG2

e que a taxa de sampling do sinal seja 4:2:0. Já a profile "MP" (Main Profile) estabelece

que o conteúdo seja comprimido utilizando todos os frames (P-frames , I-frames e

B-frames) e que a taxa de sampling seja também 4:2:0. Existem outras profiles

intermediárias, e a profile de maior qualidade é a "HP" (High Profile), que utiliza todos

os frames com sampling 4:2:2.

Os levels estabelecem outras características, como a quantidade de pixels por linha, a

quantidade de linhas por quadro e o bit rate do sinal comprimido. Assim por exemplo, o

level "LL" (Low Level) estabelece 352 pixels/linha (em uma resolução horizontal

semelhante à do formato analógico VHS, o que mostra que não necessariamente

"MPEG2" significa conteúdo com excelente resolução), com 288 linhas/quadro e bit

rate de 4 Mhz. Já o level "ML" (Main Level) estabelece 720 pixels/linha com 576

linhas/quadro e bit rate de 15 MHz. O maior é o "HL" (High Level), com 1920

pixels/linha e 1152 linhas/quadro (características de imagens HD), com 80 MHz de bit

rate.

Desta forma, encontram-se diversas combinações de "profile@level" em aplicações que

empregam imagem com compressão MPEG2, e o quadro a seguir exemplifica algumas

aplicações mais comuns:

proporção da imagem o formato (aspect ratio) tradicional da tela da TV é 4:3

(proporção das dimensões horizontal x vertical, também referida como 1,33:1) . No

Page 45: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 45

novo padrão HDTV a proporção é mais parecida com as utilizadas em cinema, (16:9) .

Para exibição de filmes na proporção original com que foram captados (OAR - Original

Aspect Ratio) no sistema atual de TV utiliza-se um processo denominado widescreen

(ou letterbox).

quadro conjunto formato por 2 campos, um constituído pelas linhas pares e outro pelas

ímpares. A cadência de quadros/segundo gravada/mostrada na tela varia conforme o

padrão de transmissão utilizado: PAL, NTSC, SECAM.

RCA (imagem) (Recording Corporation of America) tipo de conector utilizado

normalmente em cabos que transmitem sinal de vídeo do tipo composto. Existe uma

convenção de cor para este tipo de plug - amarelo - para diferenciá-lo dos plugs do

mesmo tipo utilizados com sinal de som:

RGB (Red, Green, Blue) tipo de sinal em que as informações de cor são transmitidas de

modo separado, em 3 componentes, vermelho, verde e azul (o cabo que carrega este

sinal possui um fio exclusivo para cada uma destas cores básicas). Estas cores são as

cores básicas do modelo de cor RGB.

resoluçao (geradores de caracteres) a resolução horizontal medida em linhas não é

utilizada em equipamentos do tipo geradores de caracteres. Ao invés deste tipo de

medida, é analisado quantas vezes por segundo o aparelho é capaz de alternar o seu

sinal de saída de luminância.

Imaginando-se uma linha sendo desenhada na tela da TV, da esquerda para a direita,

com a imagem de uma cerca (alternância de linhas verticais claras e escuras), durante o

tempo em que a mesma leva para ser desenhada na tela, se a cerca tiver 100 estacas

haverá 100 alternâncias claro-escuro no sinal correspondente ao desenho desta linha. Se

forem 300 estacas, a frequência de alternância naquele mesmo tempo será maior.

Quanto mais linhas, melhor a resolução horizontal. Como o padrão NTSC desenha cada

quadro de 525 linhas em 1/30 seg. e portanto cada campo de 262 linhas e meia em 1/60

seg., temos que 1/60 = 0,016666 seg. (tempo que 262 linhas e meia levam para serem

desenhadas) e então 0,016666 / 262,5 = 0,000063 seg. (tempo que cada linha leva para

ser desenhada na tela). Isto equivale a 63 seg. / 1 milhão, ou seja, 63 milhonésimos de

segundo.

A resolução horizontal de geradores de caracteres é expressa em nanosegundos, ou seja,

1 seg. / 1 bilhão. Assim, se determinado equipamento possui como especificação 35

nanosegundos de resolução, quantas vezes mais rápido do que o tempo de desenho de

uma linha ele conseguir alternar a imagem de claro para escuro será o número máximo

de linhas verticais desenhadas. Multiplicando-se 63 por 1000 tem-se o tempo de

desenho de cada linha expresso também em bilhonésimos de segundo. Assim, fazendo-

se 63000 / 35 = 1800 linhas, que é a resolução horizontal do gerador de caracteres.

resolução horizontal medida em linhas. Se a câmera estiver apontada para uma cerca,

quanto mais estacas verticais próximas umas das outras a cerca possuir, mais estacas

Page 46: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 46

aparecerão na tela do monitor de vídeo / aparelho de TV. No entanto, aumentando a

quantidade de estacas, cada vez ficará mais difícil distinguí-las umas das outras - isto

depende da capacidade maior ou menor do equipamento mostrar individualmente finos

traços verticais na imagem. A resolução horizontal mede o número máximo de 'estacas' ,

ou seja, de traços verticais que é possível distinguir em uma dada imagem. Em outras

palavras, quanto maior a capacidade de um dado sistema de imagem de representar

linhas verticais distintas, maior será sua resolução horizontal (e portanto melhor a

qualidade da imagem) .

A resolução horizontal depende também do formato de vídeo utilizado. Diferentes

formatos de vídeo oferecem resoluções máximas horizontais distintas (ex.: VHS - 240

linhas, SVHS - 400 linhas, etc...) ocorrendo o mesmo com diferentes equipamentos

dentro de um mesmo formato (câmeras profissionais variam de 500 a 700 linhas no

formato SVHS p.ex.). A resolução horizontal de imagens transmitidas por estações de

TV é de cerca de 330 linhas. Embora uma fita VHS comum seja capaz de exibir

somente 240 linhas e a programação da TV somente 330, imagens capturadas com

câmeras com maior número de linhas (700 por exemplo) apresentam resultado final em

240 / 330 linhas muito melhor do que as capturadas com câmeras com menor resolução,

isto porque no processo de edição (sucessivas cópias para montagem final) há também

sucessivas perdas na qualidade da imagem (degradação de imagem). Assim, iniciando-

se com um original melhor o resultado final também será melhor.

A avaliação (contagem) do número de linhas horizontais mostradas pode ser obtida

apontando-se a câmera para uma figura especial denominada chart de resolução.

A resolução horizontal é um tipo de resolução aplicado à imagens digitais

correspondente à etapa de armazenamento das informações captadas pela câmera.

resolução média medida em linhas: estudos mostram que na prática a resolução real

observada no monitor / aparelho de TV é menor do que a obtida nas medições (

resolução horizontal / resolução vertical ) porque na maioria das vezes a imagem

observada está em movimento.

Assim, para resolução vertical, supondo a imagem de uma escada sendo vista através

das lâminas de uma persiana (linhas verticais da imagem) podemos imaginar que os

degraus desta escada coincidam exatamente com as frestas da persiana; deste modo, o

número máximo de degraus observáveis coincide com o número de frestas, que é igual

ao número de linhas na tela. Porém, se o observador mover sua cabeça ao longo de um

eixo vertical para cima ou para baixo, passará em uma dada posição a não enxergar mais

os degraus, encobertos que estarão pelas lâminas da persiana. Na imagem da TV ocorre

processo parecido, pois a mesma é formada por linhas horizontais, ou seja, entre elas há

espaços sem imagem - as palhetas da persiana - intercalados com espaços com imagem -

as frestas da persiana - e quem se move não é a cabeça do expectador e sim a própria

imagem. Matemáticos concluiram, após cálculos estatísticos, que na persiana hipotética,

em média 70% dos degraus da escada observada sempre seriam vistos,

independentemente da posição do observador. Transpondo este cálculo para a TV, as

483 linhas do padrão NTSC poderiam mostrar na realidade uma resolução real de 483 x

0,7 = 338 linhas.

Page 47: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 47

Para resolução horizontal ocorre situação análoga: supondo a imagem de uma cerca

sendo vista pela câmera, se esta cerca possuir dentro da área exibida tantas estacas

quanto o número de pixels existentes em cada linha do CCD, só será possível contá-las

se estas coincidirem exatamente com os mesmos. Assim, o mesmo fator 0,7 se aplica.

Porém, para resolução horizontal, após ter sido a mesma multiplicada pelo fator 0,7

deve ser o resultado obtido multiplicado ainda a seguir por 0,75 . Isto porque

convenciona-se medir a resolução em um quadrado de imagem (mesmas dimensões de

altura / largura), e a imagem na TV possui proporção 4:3 .

Existe uma regra prática para calcular-se a resolução média horizontal de um CCD .

Dada a quantidade de pixels no mesmo (ex. 380.000), subtrai-se 8% deste total a título

de perdas (imagem situada fora das bordas do monitor), logo tem-se 304.000 pixels.

Dividindo-se por 483 linhas (resolução vertical), obtém-se 629 pixels por linha.

Multiplicando-se pelo fator 0,7 obtém-se 440 linhas, que multiplicadas a seguir por 0,75

resultam 330 linhas. Esta é uma resolução teórica, porque o resultado final não depende

somente do CCD e sim também de vários outros fatores ( lentes, circuito eletrônico,

etc...) .

resolução vertical medida em linhas. A imagem em vídeo é exibida como se olhássemos

a cena de uma rua através de uma persiana ajustada para abertura quase total de suas

lâminas horizontais, ou seja, numa sequencia de faixas horizontais, denominadas linhas.

Nos sistemas NTSC e PAL-M tem-se um total de 525 linhas (outros sistemas possuem

números diferentes: SECAM e PAL-G possuem 625 por exemplo). Esta quantidade de

linhas é portanto fixa dentro de um mesmo sistema/país, não variando com a qualidade

do equipamento utilizado. No entanto, nem todas estas linhas são exibidas na tela do

monitor / aparelho de TV: no sistema NTSC por exemplo, 42 linhas são reservadas para

conter informações que orientam o desenho das imagens na tela, como por exemplo a

que diz que o feixe de elétrons do monitor deve retornar à parte superior esquerda da

mesma para iniciar o desenho de uma nova imagem. Estas linhas especiais, não exibidas

normalmente, compõem um bloco negro (faixa horizontal) que pode ser visto rolando

verticalmente pela tela quando o ajuste vertical do monitor não está correto. Assim,

restam 483 linhas, que é o número máximo que um aparelho de TV pode exibir no

sistema NTSC.

rf, sinal ao contrário do sinal do tipo composto, neste tipo de sinal as informações de

imagem, já reunidas em um único sinal, são combinadas com o sinal de som, gerando

um novo único sinal. Posteriormente (no momento da exibição por exemplo) estes

sinais são novamente separados. A transformação acaba acarretando bastante perda de

qualidade devido a interferências e distorções geradas no processo, onde os sinais

recuperados na separação não são exatamente idênticos ao que eram na fase de

codificação em sinal único. Este tipo de sinal é enviado às torres transmissoras de TV e

captado por antenas comuns nas residências. Opcionalmente, além de ser enviado à

torres transmissoras terrestres é também enviado a satélites retransmissores, podendo

então ser captado por antenas parabólicas.

S/N (vídeo) (Signal-To-Noise Ratio ou SNR) indicação do quanto de 'ruído' (imagem

granulada) uma imagem de vídeo possui, expressa em decibéis (dB). Esta indicação é

calculada através do valor da voltagem máxima atingida pelo sinal dividido pelo valor

residual da voltagem que permanece quando o sinal é removido - ou seja, a quantidade

de ruído no mesmo.

Page 48: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 48

A escala dB é uma escala logaritmica; em termos práticos diz-se que o valor de S/N

dobra a cada 3dB de diferença entre o valor da voltagem do sinal e o valor da voltagem

do ruído. Assim, se o valor da voltagem do ruído for, em um dado sistema, igual a 0dB

e a do sinal for 3dB, a intensidade do sinal será 2x maior do que a do ruído. No mesmo

exemplo, se o sinal for 6dB, ele será 4x mais intenso que o ruído. E assim por diante:

9dB, 8x mais intenso, 12dB, 16x mais intenso, etc...

A indicação do valor de S/N é exibida (significando a mesma coisa) tanto na forma "-

dB" (sinal negativo na frente) como na forma "dB"

Geralmente os valores produzidos situam-se em torno de 38dB a 42dB. De maneira

geral, quanto maior esse valor, melhor a imagem. Sinais considerados como de

excelente qualidade geralmente situam-se acima de 54dB.

Este tipo de indicação é utilizado para medir e comparar a qualidade do sinal produzido

pelas câmeras de vídeo.

sampling no processo de digitalização, um sinal analógico é convertido para digital

através de um processo denominado 'sampleamento' , do inglês 'sample', amostra. O

sinal analógico é composto basicamente por uma onda, cuja variação de amplitude

traduz as informações nela contidas. O processo de sampleamento consiste em obter

medidas - amostras - em intervalos regulares, do valor da amplitude da onda. Se uma

sucessão de montanhas de diversas alturas representasse a parte superior da onda, se

tomássemos medidas sucessivas a cada 10 metros ao longo da extensão da cadeia de

montanhas da altura da montanha em relação a sua base e posteriormente marcássemos

em um papel quadriculado estes valores, teríamos a representação aproximada do

contorno das montanhas.

Assim, é possível representar em números (informação digital) uma onda (informação

analógica). Como as medidas foram tomadas em intervalos de 10 metros, teremos na

representação em papel o contorno desenhado parecido com degraus sucessivos, para

cima e para baixo. Se diminuirmos o intervalo entre as medidas para 5 metros, o

contorno ficará mais fiel ao original. Diminuindo ainda mais a aproximação com a

realidade será maior. Desta forma, quanto maior for a quantidade de amostras, melhor:

diz-se, quanto maior for a taxa de sampleamento, melhor a qualidade do resultado

digitalizado.

As lentes da câmera projetam sobre a superfície do CCD uma determinada imagem, que

é segmentada em uma quantidade imensa de pixels: quanto maior esta quantidade,

maior a resolução da imagem. A seguir, o processo de sampling analisa o sinal

analógico proveniente da leitura dos pixels e o digitaliza, gerando o sinal no formato

digital. O desenho abaixo ilustra esse processo, onde a linha azul representa o contorno

da imagem projetada sobre o CCD, a linha verde como o CCD enxerga esse contorno,

através de seus pixels e a linha rosa como fica o sinal após o sampleamento.

Normalmente a quantidade de pixels por linha horizontal no CCD é maior do que a que

terá o formato digital final, justamente para melhorar a qualidade da imagem capturada.

Esta diferença pode ser percebida no desenho, onde apesar da perda de resolução em

relação à imagem lida no CCD (e mais ainda em relação à imagem original) ainda assim

para o olho humano a imagem, quando vista à distância, aparentará bastante nitidez e

precisão.

Page 49: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 49

Após a digitalização é gerada uma imagem composta por um determinado número fixo

de pixels, de acordo com o formato empregado. No formato NTSC DV por exemplo,

este número é de 720 pixels de largura por 480 pixels de altura, ou seja 345.600 pixels.

Para o padrão NTSC, que é do tipo entrelaçado, existirão 2 campos (linhas pares e

ímpares) formando cada quadro da imagem; assim, metade desses pixels estará

representando as linhas pares e a outra metade as linhas ímpares. Em softwares de

edição normalmente a menor unidade de imagem exibida na tela é um quadro (frame),

que contém os 2 campos. Assim, ao visualizar-se determinado quadro na tela do

microcomputador estarão sendo visualizadas todas as linhas que compõem a imagem

(os 2 campos juntos), ou seja, todos os 345.600 pixels. Esta forma de visualização

(todas as linhas) combina com o modo de exibição utilizado nas telas dos

microcomputadores, que é do tipo progressive scan ao invés de entrelaçado (como nas

TVs e monitores).

O sinal analógico lido do CCD contém as informações de luminosidade e ao mesmo

tempo também as de cor, seja através de lentes coloridas que recobrem os pixels em

forma de mosaico (RGB) ou através do uso de 3 CCDs separados, um para cada cor.

Este sinal gerado é do tipo RGB; a seguir, o mesmo é convertido para sinal outro sinal

ainda analógico, o YUV . A seguir, o sinal YUV é então digitalizado.

Na digitalização para o formato DV por exemplo, o componente luminância é

sampleado a uma taxa de 13,5 Mhz (frequência com que as amostras (medidas) são

tomadas por segundo). Os componentes U e V são sampleados a uma taxa menor, 3,37

Mhz - a informação de cor não é tão importante na formação da imagem para o olho

humano quanto a de luminosidade (tons claros-escuros). Este processo de redução de

cor na amostragem recebe o nome de chroma subsampling. Assim, pode-se dizer que a

taxa de sampleamento do sinal de luminosidade no formato de vídeo DV é quatro vezes

maior do que a do sinal de cor (3,37MHz contra 13,5MHz), o que é representado por

4:1:1

porque esta é a proporção de sampleamento (amostragem) entre os 3 componentes. Já

nos formatos Digital Betacam, DVCPRO50, DVCPRO HD e Digital-S por exemplo,

esta taxa é de

4:2:2

Page 50: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 50

resultando em melhor qualidade de imagem (melhor resolução de cor). O algoritmo de

compressão MPEG2 também pode opcionalmente comprimir dados utilizando esta taxa.

Já o mesmo algoritmo quando utilizado em DVD-Video, as imagens em MPEG1, JPEG,

MJPEG , o formato DV no padrão PAL europeu e o formato HD HDV empregam a

mesma taxa 4:2:2 porém alternando-se a presença dos componentes "U" e "V" linha a

linha. Para representar este processo, utiliza-se a notação (menos intuitiva que as

demais)

4:2:0

e se durante a digitalização o sinal original RGB não sofrer redução de resolução de

seus componentes de cor, diz-se que o sinal é do tipo

4:4:4

por outro lado, a comparação direta de formatos utilizando somente estes números, se

não interpretados corretamente, leva a resultados falsos. Assim, por exemplo, o formato

HDCAM de alta definição (HD) emprega taxa de sampling de

3:1:1

o que significa que o componente luminância possui sampling 3 vezes maior do que a

dos componentes "U" e "V". Este formato no entanto possui imagem muito melhor do

que a do formato Digital Betacam, com 4:2:2. O que ocorre é que o valor "3" ou "4" na

indicação da taxa não tem valor absoluto, significando apenas a proporção de sampling

entre luminância e cor. De fato, enquanto a taxa de sampling de luminosidade (não de

cor) no DV é de 13,5Mhz, no HDCAM (idem) é de 74,5Mhz, muito maior portanto.

Formatos com pouca amostragem de cor, como os da família DV, apresentam maior

dificuldade para cromakey do que os com melhor amostragem, como por exemplo o

Digital Betacam. No desenho abaixo, a linha central corresponde à imagem original. A

linha de cima, corresponde à imagem obtida por um formato de vídeo com amostragem

4:1:1 e a linha de baixo, a um formato de vídeo com amostragem 4:2:2:

Page 51: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 51

Pode-se perceber que, em relação à linha central, a linha superior reproduz as cores com

menor fidelidade em relação à linha inferior. Isso porque os programas de amostragem

na verdade lêem a informação de cor para todos os pixels, mas a seguir calculam a

média dos componentes RGB para um determinado grupo de pixels (p.ex. para grupos

de 4 no sistema 4:1:1), obtendo assim a "cor média" do trecho. A seguir, essa cor é

considerada como a cor dos pixels, aplicando-se sobre ela a seguir somente o

componente luminosidade, ou seja, se essa mesma cor possui uma tonalidade mais

escura ou mais clara em determinado pixel.

O fato aparentemente pode encerrar uma contradição, pois quando se observa no

monitor a imagem de um determinado conteúdo gravado em DV, as cores parecem

geralmente nítidas e precisas. O que acontece é que 4 pixels em uma linha de vídeo tem

um tamanho muito pequeno para um observador olhando para a tela toda. Por outro

lado, as cores na realidade na natureza dificilmente possuem variação muito brusca de

uma cor para outra completamente diferente, pixel a pixel. São normalmente trechos

maiores, como uma blusa rosa que teria início na linha central da figura acima, na parte

da direita. Ou uma camisa azul, na esquerda. E o verde da vegetação ao fundo, no meio.

Percebe-se que a falta de precisão de cor ocorre nos limites desses trechos maiores

dominados por uma única cor, ou, em outras palavras, nos contornos de determinada

figura, justamente onde o efeito cromakey vai buscar seu recorte.

Por esse motivo, quanto mais precisa for a representação das cores, mais fiel será o

recorte de cromakey. No entanto, tem-se por outro lado o desenvolvimento de inúmeras

ferramentas de composição (programas que fazem cromakey) que oferecem recursos

eletrônicos para corrigir essas falhas. A diferença que fica é que um é um processo

eletrônico de correção, enquanto outro (utilizar um formato com maior amostragem de

cor) tem nativamente um melhor recorte.

Em termos de custo, benefício e exigência de qualidade, os dois sistemas são

equivalentes, porém cada qual dentro de seu nicho de aplicação (profissionais e usuários

de aplicações gráficas poderão preferir, dependendo da qualidade necessária para

determinado tipo de trabalho, a captação nativa com maior resolução de cor).

Page 52: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 52

SD (Standard Definition) nome dado ao grupo de formatos de vídeo e sistemas de

transmissão de imagem cuja definição de imagem (resolução horizontal / vertical) é

convencional, como os tradicionais VHS, S-VHS, Mini-DV, DVCAM e outros. Seu

conteúdo pode ser exibido em aparelhos (TVs, monitores, etc...) comuns.

SDI (Serial Digital Interface) conexão para áudio e vídeo utilizada no segmento

profissional em estúdios, conectando câmeras e VCRs entre si ou com sistemas de

edição-não-linear. Também utilizada em alguns modelos de mixers de vídeo. Utiliza

sinal digital SD sem compressão que trafega através de cabos com conectores BNC.

Cabos com este tipo de sinal não sofrem interferências (devido ao sinal ser digital),

podendo ser construídos com considerável extensão (100 metros por exemplo). Cabos

SDI podem transportar também, juntamente com o áudio e o vídeo, informações de

Timecode, o que permite sincronizar diversos equipamentos conectados entre si.

SDTV (Standard Definition Television) nome dado em contraposição aos sistemas

HDTV de alta-definição. Sistemas SDTV são os sistemas de vídeo e transmissão

tradicionais.

SECAM (Systeme Electronique Couleur Avec Memoire) padrão desenvolvido na

França no final dos anos 60, assemelha-se em alguns aspectos ao PAL. A maioria dos

países que o adotam utiliza 50 ciclos/seg em sua corrente elétrica, resultando em

imagens exibidas a 25 quadros/seg. - a Colômbia e a Jamaica são os dois únicos que

possuem o sistema em 60 ciclos - 30 quadros/seg.

As diferenças entre o padrão PAL e SECAM são tão pequenas que a conversão entre os

mesmos pode ser feita por um simples decodificador e a maioria dos receptores PAL é

capaz de exibir imagens (em preto e branco) transmitidas em SECAM. Alguns video

cassetes no formato SECAM chegam a traduzir o sinal SECAM para PAL, gravá-lo

desta forma e re-traduzí-lo para SECAM na reprodução. É impossível sincronizar dois

sinais SECAM a fim de mixá-los, devido a suas características. Para contornar este

problema, a maioria dos estúdios em emissoras costumam gerar os programas em PAL,

editá-los deste modo e só então convertê-los para SECAM no momento da transmissão.

A quantidade de linhas no sistema SECAM é sempre 625.

Os sistemas SECAM que utilizam 25 quadros/seg sofrem com a redução na cadência de

mudança das imagens: isto faz com que as mesmas sejam um pouco mais 'visíveis' do

que no padrão NTSC - a imagem 'pisca' mais. Também em relação ao NTSC são

desvantagens: menor resolução e brilho excessivo em desenhos compostos por linhas

muito próximas entre sí (moiré paterns) mais frequente. Por outro lado a saturação de

cores é bem mais estável do que no padrão NTSC.

O padrão SECAM não é exatamente idêntico nos diversos países onde é adotado:

ligeiras variações em suas características básicas diferenciam um padrão de outro e para

identificá-los são adotados sufixos conforme o subtipo de SECAM: SECAM-B,

SECAM-G, SECAM-H, SECAM-D, SECAM-K, SECAMK1 e SECAM-L.

Alguns países que utilizam SECAM: Afeganistão, Arábia Saudita, Bulgária, Burundi,

Chad, Colômbia, Coréia (Norte), Egito, Estônia, França, Gabão, Guadalupe, Guiana

Francesa, Grécia, Hungria, Irã, Iraque, Jamaica, Líbano, Líbia,

Page 53: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 53

Luxenburgo,Madagascar, Mali, Marrocos, Martinica, Mauritânia, Mônaco, Mongólia,

Nigéria, Polônia, Polinésia, Ruanda, Rússia, Senegal, Síria, Tahiti, Tunísia, Zaire.

(Obs. em alguns poucos países há mais de um padrão em uso, geralmente um oficial e

outro introduzido por novos serviços de TV a cabo ou utilizado para recepção de sinal

proveniente de países vizinhos, em locais próximos às fronteiras. Ainda em outros

países existe diferença de padrão quando a transmissão / recepção é feita em VHF ou

UHF; no Brasil em ambos sistemas o padrão é o mesmo, PAL-M).

O sinal de um sistema geralmente não é compatível com outro: dependendo do sistema,

uma fita gravada em PAL por exemplo pode não apresentar imagem alguma em um

VCR do sistema SECAM por exemplo, ou mostrar imagens em preto e branco.

SECAM-B variação do padrão SECAM, utilizando 5,0 Mhz como largura de banda ;

muito semelhante ao SECAM-G e SECAM-H ; alguns países que o utilizam:

Afeganistão, Arábia Saudita, Irã, Iraque, Líbano, Líbia, Marrocos, Mauritânia, Síria,

Tunísia.

SECAM-G variação do padrão SECAM, utilizando 5,0 Mhz como largura de banda ;

muito semelhante ao SECAM-B e SECAM-H ; alguns países que o utilizam: Arábia

Saudita, Egito, Irã, Líbano, Líbia (todos em UHF)

SECAM-H variação do padrão SECAM, utilizando 5,0 Mhz como largura de banda ;

muito semelhante ao SECAM-B e SECAM-G .

SECAM-D variação do padrão SECAM, utilizando 6,0 Mhz como largura de banda ;

muito semelhante ao SECAM-D, SECAM-K, SECAM-K1 e SECAM-L ; alguns países

que o utilizam: Bulgária, Coréia (Norte), Hungria, Mongólia, Polônia, Rússia.

SECAM-K variação do padrão SECAM, utilizando 6,0 Mhz como largura de banda ;

muito semelhante ao SECAM-D, SECAM-K, SECAM-K1 e SECAM-L ; alguns países

que o utilizam: Bulgária, Estônia, Hungria, Polônia, Rússia (todos em UHF).

SECAM-K1 variação do padrão SECAM, utilizando 6,0 Mhz como largura de banda ;

muito semelhante ao SECAM-D, SECAM-K, SECAM-K1 e SECAM-L ; alguns países

que o utilizam: Burundi, Chad, Polinésia, Gabão, Guadalupe, Guiana Francesa,

Madagascar, Mali, Martinica.

SECAM-L variação do padrão SECAM, utilizando 6,0 Mhz como largura de banda ;

muito semelhante ao SECAM-D, SECAM-K, SECAM-K1 e SECAM-L ; alguns países

que o utilizam: França, Luxemburgo, Mônaco.

sincronismo da imagem , pulsos quando o sinal que resultará no desenho das linhas na

tela é enviado ao CRT, é preciso informar ao mesmo onde começa e termina cada linha.

Isto porque o sinal é linear, do tipo "aaaaabbbbb..." , onde "aaaaa" representa uma das

linhas e "bbbbb" a linha seguinte. É necessário informar ao canhão que emite o feixe de

elétrons que determinada linha acabou e tem que ser efetuado o retrace horizontal para

que a linha seguinte seja desenhada. Desta forma o sinal é acrescido de uma instrução

especial tornando-se do tipo "aaaaaHbbbbbH...", onde "H" representa a indicação de

término da linha, chamada pulso horizontal de sincronismo (horizontal pulse sync ou H-

Page 54: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 54

sync). Quando o desenho de todas as linhas horizontais de determinado campo termina,

é necessário informar ao canhão que deve ser efetuado o retrace vertical para o desenho

do campo seguinte. Assim, representando por "V" o pulso vertical de sincronismo

(vertical sync pulse ou V-sync) o sinal de vídeo teria a seguinte configuração:

"...aaaaaHbbbbb...HcccccVaaaaaHbbbbbH..." ou, graficamente:

A figura acima está simplificada para melhor visualização; na realidade, o pulso V-Sync

localiza-se dentro das últimas 21 linhas de cada campo (mais precisamente no conjunto

das 9 primeiras linhas). Estas 21 linhas do final de cada campo são invisíveis na tela.

Apesar disso, são entendidas pelo circuito eletrônico do CRT. Em dispositivos de

exibição que não utilizam canhão de elétrons, como LCD e plasma, não há retrace, mas

ainda assim os mesmos pulsos são utilizados para orientação no desenho das linhas e

campos (início / término). No pulso V-Sync pode ser opcionalmente codificado o

Timecode do tipo VITC (Vertical Interval Timecode).

SP@LL um dos tipos de profile@level empregados para classificar tipos de compressão

MPEG2.

SP@ML um dos tipos de profile@level empregados para classificar tipos de

compressão MPEG2.

TBC (Time Base Corrector) este equipamento restaura os pulsos de sincronismo da

imagem eventualmente danificados, permitindo também ajustar o brilho da imagem

(aumentar ou diminuir). Alguns TBCs possuem corretor de cores embutido.

Menos preciso, o image enhancer é outro equipamento que também permite restaurar o

sincronismo e melhorar a qualidade da imagem.

track pitch é a distância entre o centro de duas trilhas adjacentes. Track pitchs maiores

dão maior garantia de que uma determinada fita será adequadamente reproduzida em

diferentes equipamentos do mesmo formato (câmeras / VCRs), independente de

eventuais diferenças microscópicas de alinhamento e montagem do jogo de cabeças e do

sistema de tracionamento e direcionamento da fita. O formato DV por exemplo

apresenta track pitch de 10 microns (cerca de 1/6 do diâmetro de um fio de cabelo

humano), enquanto que o formato DVCAM apresenta track pitch de 15 microns e o

formato DVCPRO 18 microns.

transcodificação processo de conversão do vídeo de um formato e/ou padrão para outro.

trilhas Os sinais de som e imagem são gravados de diferentes formas ao longo da fita de

vídeo, dispostos em trilhas na maioria das vezes diferentes uma das outras, tanto em sua

forma como na disposição ao longo da área disponível para gravação.

Page 55: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 55

Na fita de vídeo VHS a trilha da imagem é gravada de forma descontinuada, ao

contrário das trilhas de uma fita cassete comum de som. Isto porque as informações de

imagem são muito mais volumosas do que as de som, e a fita precisaria correr a uma

velocidade enorme pela cabeça de leitura/gravação se a trilha fosse contínua. Isso é o

que de fato ocorria no primeiro gravador de áudio/vídeo construído na década de 50: a

fita era tracionada a uma velocidade de 5,08 m/seg. Para solucionar o problema, que

acarretava tempos muito curtos de gravação por fita, optou-se por fazer com que a

cabeça de gravação/leitura, que antes era estacionária (como nas fitas de áudio) passasse

a girar em um cilindro em contato com a fita. Como este cilindro era disposto de forma

inclinada em relação ao comprimento da fita, a trilha gravada deixava de ser contínua,

passando a ser um conjunto de segmentos ligeiramente inclinados, algo parecido como

hachuriar um retângulo. O desenho abaixo esquematiza as trilhas de som em uma fita

cassete comum (esquerda) e as de imagem em uma fita de vídeo (direita):

Embora houvessem quebras na continuidade da trilha (passou a ser um conjunto de

segmentos), o mecanismo, se bem ajustado e calibrado, conseguiria "emendar"

corretamente as mesmas no momento da leitura. E, com isso, a velocidade de

deslocamento da fita poderia ser bastante reduzida, aumentando o tempo de gravação. O

primeiro gravador a funcionar deste modo foi o Quad, desenvolvido pela Ampex em

1956. O nome "Quad" derivava do fato de terem sido colocadas não uma e sim 4

cabeças nas bordas do cilindro. Posteriormente, na década de 60, o processo foi

simplificado, em uma técnica denominada helical scan, passando a utilizar somente 2

cabeças, diametralmente opostas nas bordas do cilindro, com a fita passando a envolver

boa parte da cabeça. O formato VHS foi criado utilizando essa técnica, com velocidade

de deslocamento da fita de 33,35 mm/seg. no modo SP (Standard Play) mantida até

hoje. No entanto o formato VHS permite também outras velocidades menores, como a

LP (Long Play), com 16,7 mm/seg e a EP (Extended Play), com 11,4 mm/seg. O

desenho abaixo mostra o cilindro inclinado com uma das cabeças (a outra está atrás) e

em azul, na fita, os segmentos inclinados gravados / lidos por ela (as trilhas de imagem):

O desenho seguinte, abaixo, mostra o conjunto visto de cima e como a fita é envolvida

na superfície do cilindro das cabeças. A presença das duas cabeças garante que uma

delas esteja sempre em contato com a fita. O desenho mostra essas duas cabeças opostas

no cilindro e a indicação do percurso da fita / sentido de rotação do cilindro (no desenho

não aparece a inclinação do cilindro, por ser uma vista superior):

Page 56: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 56

Além da fita ter que envolver boa parte do cilindro das cabeças, este tem diâmetro de

cerca de 1/3 do comprimento do cassete, ou seja, é grande. Por este motivo, ao contrário

das fitas cassete comuns de som, em um VCR a fita tem que sair para fora do cartucho

para poder ser esticada ao redor do cilindro. Esta tarefa é executada por pequenos pinos

e roletes-guia, que se movem para puxar a fita para fora do mesmo e posicioná-la

corretamente, o que explica o tempo de alguns segundos entre a introdução da fita no

aparelho e o início da reprodução / gravação. Entre estes roletes e pinos, um deles,

giratório, encarrega-se de tracionar a fita, ao pressioná-la contra um pequeno cilindro de

borracha.

No formato VHS, que até hoje utiliza este processo, a cada rotação completa do cilindro

das cabeças são gravadas 2 trilhas inclinadas, cada qual contendo um campo completo

do sinal de vídeo (cada cabeça grava um campo). No padrão NTSC e no padrão PAL-M

(60 ciclos) o cilindro gira 30 vezes por segundo, gravando assim 30 quadros (60

campos) por segundo, ou, em outras palavras, sua velocidade de rotação é 1.800 rpm

(rotações por minuto). Nos padrões PAL de 50 ciclos, onde são gravados 25 quadros

por segundo, a velocidade de rotação é 1.500 rpm.

O sinal de som, gravado em sincronismo com o de imagem na fita, por conter muito

menos informação não necessitava todo esse processo para poder ser gravado

corretamente. Assim, no formato VHS foi criada inicialmente para o som uma trilha

longitudinal, disposta em uma das bordas da fita, ao lado das trilhas inclinadas de vídeo.

A princípio mono, com o passar do tempo passou a ser estéreo, sofrendo ligeiro

estreitamento para que pudesse ser acrescentada outra trilha, paralela à mesma (canais

esquerdo e direito). Porém, vários anos mais tarde, outro problema surgiu, com o

advento da gravação de alta fidelidade (Hi-Fi): essas trilhas longitudinais eram trilhas de

baixa-fidelidade (Lo-Fi), devido à baixa velocidade de deslocamento da fita em relação

à cabeça estacionária de áudio (na velocidade maior, SP, a frequência máxima do som

dessas trilhas é de 9.000 Hz, cerca da metade da obtida com um bom gravador cassete

de som e na velocidade menor, EP, somente 5.000 Hz, similar à obtida em telefonia).

Para solucionar o problema, o som Hi-Fi passou a ser gravado juntamente com o de

vídeo, nas mesmas trilhas: 2 cabeças de áudio foram acrescentadas ao cilindro das

cabeças de vídeo. Mas, como gravar dois sinais na mesma trilha sem que um deles

interferisse no outro? Através de um processo denominado depth multiplexing.

Imaginando-se uma calha de água de chuva de telhado, pode-se enchê-la com areia

colorida (verde por exemplo) até a metade, e depois completar o enchimento até a borda

com areia vermelha. Se a calha é a fita de vídeo, ampliada milhares de vezes, os grãos

de areia são as partículas magnéticas da fita. A cabeça de áudio passa pela fita e

magnetiza com tal intensidade as partículas que consegue atingir a camada verde e a

vermelha. A seguir, vem a cabeça de vídeo, com intensidade menor para remagnetizar

somente a camada superficial vermelha. Assim, tem-se dois sinais gravados, som e

Page 57: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 57

imagem, na mesma trilha, mas em profundidades diferentes ("depth"): na fita

propriamente dita, o áudio é gravado a 4 microns da superfície e o vídeo a 0,7 microns

(1 micron = 1 mm / 1000) . Essa trilha de som é lida em velocidade bem maior do que a

longitudinal devido ao movimento das cabeças, daí o som ter qualidade próxima a do

som de CD (Hi-Fi, onde a frequência varia de 20 a 20000 (Hertz, abreviado como hz

(vibrações por seg)). E são, na verdade duas trilhas, ou seja, este som também é estéreo.

Existem no entanto outras diferenças entre essas trilhas de som: se apagarmos a trilha de

som Hi-Fi, a trilha de imagem também é apagada (para desmagnetizar a "areia" verde

tem-se que passar pela vermelha). É por isso que não é possível fazer-se audio-dub

(substituição do som preservando a imagem) nessas trilhas. Em VHS, isso é possível

somente nas trilhas de baixa fidelidade, que podem ser substituídas sem afetar a

imagem. Durante a gravação, normalmente os dois tipos de trilhas são gravados.

O desenho abaixo esquematiza a disposição das trilhas de imagem e som na fita VHS:

Existe ainda outra trilha na fita: a Control Track. A cada volta completa do cilindro das

cabeças giratórias um pulso é gravado nessa trilha. Na realidade esses pulsos servem

para orientar o mecanismo no sincronismo da gravação/leitura das trilhas inclinadas de

imagem, para que iniciem a leitura/gravação no ponto exato da fita. Existe uma cabeça

estacionária de leitura e gravação somente para esta trilha, e é essa informação que

aciona o contador luminoso do painel do vídeo do VCR (horas, minutos, segundos).

A largura de cada trilha inclinada no formato VHS varia de acordo com alguns fatores.

Equipamentos profissionais gravam essas trilhas com 0,058mm de largura, no modo SP.

No mesmo modo SP no entanto, os equipamentos do segmento consumidor / semi-

profissional gravam as mesmas trilhas com 0,040mm de largura. Ainda, no primeiro

caso, a maior largura das trilhas acarreta ligeira sobreposição das mesmas (0,002mm),

enquanto que no segundo caso existe um espacejamento das mesmas (0,02mm). A

maior largura das trilhas nos equipamentos profissionais faz com que aumente a

tolerância a pequenos erros de deslocamento fita-cabeças durante a leitura. Esta

característica, entre outras, faz com que fitas gravadas por estes equipamentos sejam

bem reproduzidas mesmo em equipamentos com alguns desajustes, e explica porque as

de modo geral as fitas disponíveis em locadoras apresentam boa reprodução na maioria

dos VCRs. O desenho abaixo ilustra a diferença nas trilhas gravadas pelos dois tipos de

equipamentos:

Page 58: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 58

Outro fator que influencia a disposição e dimensão (largura) das trilhas é a velocidade

de deslocamento da fita. Esta situação, que aplica-se somente aos VCRs do segmento

consumidor / semi-profissional faz com que, quanto menor a velocidade da fita, mais

próximas as trilhas fiquem umas das outras e mais estreitas elas sejam. Assim, enquanto

que para esse tipo de equipamento a largura de cada trilha é de 0,040mm no modo SP,

passa a ser de 0,030mm no modo LP e 0,020mm no modo EP. Nos modos LP / EP

também passa a ocorrer sobreposição das mesmas, 0,01mm nos dois casos. Trilhas mais

estreitas armazenam menos informação, acarretando imagem ruim. E a sobreposição, ao

contrário do que ocorre nos equipamentos profissionais, onde é uma "sobra", aqui faz

com que qualquer imprecisão no deslocamento fita-cabeça cause distúrbios na imagem.

O desenho abaixo ilustra a disposição e tamanho das trilhas nos 3 modos de gravação:

Com o passar dos anos, outras variações do formato VHS foram surgindo, como o

SVHS, VHS-C e SVHS-C. Porém para todos eles a disposição das trilhas na fita é a

mesma.

No entanto, em outros formatos esta disposição muda.

Na fita de 8 mm as trilhas de imagem também são compostas por segmentos inclinados,

como na VHS. A velocidade de rotação do cilindro é a mesma da do formato VHS,

1500 / 1800 rpm, e a velocidade de deslocamento da fita 14,4 mm/seg.. A largura de

cada trilha inclinada é de 20,5 microns. No entanto, não existe nenhuma trilha

longitudinal neste formato: o áudio é gravado juntamente com o vídeo, em um processo

parecido com o utilizado no VHS, aqui denominado AFM (Audio Frequency

Modulation). Apesar de ser um som Hi-Fi, geralmente não é estéreo: a maioria dos

equipamentos grava apenas uma única trilha. Assim, também que não é possível fazer-

se audio-dub nessa trilha, sem prejudicar a imagem. E junto com a informação de vídeo

também é gravada a informação de controle do mecanismo das cabeças (papel

desempenhado pela Control track no VHS).

O desenho abaixo esquematiza a disposição das trilhas de imagem e som na fita 8mm:

Page 59: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 59

Embora as características de rotação do cilindro, dimensão das trilhas inclinadas e

deslocamento da fita sejam as mesmas do formato 8mm, na fita Hi8 surgem algumas

diferenças, com o aparecimento de duas novas trilhas: uma delas, destinada ao som, a

PCM (Pulse Code Modulation). Como está localizada na sequência, logo após a trilha

de imagem, a cabeça percorre a fita em velocidade alta: é uma trilha Hi-Fi (20Hz a

15.000Hz), aliás, duas, porque é estéreo. Neste caso é possível fazer-se audio-dub sem

perturbar o sinal de imagem. No entanto, poucas câmeras - geralmente as mais

sofisticadas - aproveitam o sinal de som PCM. E também nem todas as câmeras utilizam

a outra trilha própria do formato Hi8: a trilha de Timecode.

O desenho abaixo esquematiza a disposição das trilhas de imagem e som na fita Hi-8:

As fitas do formato DV também mantém o processo de gravação de segmentos

inclinados, porém com outros tipos de trilhas e disposição. No entanto, como a

quantidade de informação a ser gravada é muito maior, a velocidade de rotação do

cilindro das cabeças também é bem maior do que os 1.500 / 1.800 rpm dos formatos

VHS/8mm: 9.000 rpm. A velocidade de deslocamento da fita é de 18,9 mm/seg. e a

largura de cada trilha inclinada é 10 microns. Apesar da alta velocidade de rotação da

cabeça a fita não se desloca muito mais rapidamente do que uma fita de 8mm por

exemplo, porque aqui as trilhas somente tem que gravar informações digitais (zeros e

uns) e não um range imenso de variação de voltagens, como no sistema analógico, por

isso elas podem ser mais estreitas. E aqui estas trilhas dividem-se em quatro setores:

áudio e vídeo separadas, Subcode e ITI. Separando estes setores, minúsculos espaços

com informações para sincronismo do mecanismo todo, fazendo o papel da trilha de

Tracking no formato VHS.

O áudio neste formato (PCM (Pulse Code Modulation)) possui duas opções de

utilização: um par de trilhas estéreo de 16 bits de resolução sonora ou então dois pares

de trilhas estéreo de 12 bits de resolução cada. Ao ser efetuada uma determinada

amostra do som em um determinado instante, obtém-se um valor ' x ' para a frequência

desse som. Em um instante seguinte, obtém-se um valor ' y '. Quanto mais valores

diferentes forem possíveis de serem armazenados, melhor a qualidade sonora.

Utilizando-se 16 bits para armazenamento, podem-se ter até 65.536 valores diferentes

de frequências (é o maior número que é possível armazenar no sistema decimal quando

Page 60: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 60

converte-se para este sistema os 16 bits do sistema binário). Para efeito de comparação,

a resolução de 16 bits é considerada semelhante á qualidade do som de um CD (o que

também acontece com as trilhas Hi-Fi do VHS e do Hi8). Utilizando-se 12 bits tem-se

4.096 valores possíveis. Por outro lado a opção de se gravar dois pares ao invés de um

permite a opção de audio-dub. Como há menos informação a ser armazenada, sobra

espaço físico para a utilização de 2 trilhas ao invés de uma.

Para a opção 16 bits, a taxa de sampleamento utilizada pode ser de 48 KHz, 44 KHz ou

32 KHz (48.000 amostras por segundo, 44.000 ou 32.000). Quanto mais amostras são

feitas por segundo, mais fiel e preciso é o som gravado em relação ao original. Nem

todas as câmeras oferecem essas 3 opções. Para efeito de comparação, a taxa de

sampleamento utilizada em um gravador DAT (Digital Audio Tape) é de 48 KHz e em

CDs comuns, de 44,1 KHz.

Para a opção 12 bits, a taxa de sampleamento é sempre 32KHz.

A trilha Subcode armazena dados do Timecode, a data, hora, numeração da trilha e

informações sobre o modo foto (still), entre outros.

A trilha ITI (Insert and Track Information) armazena informações para orientar o

circuito eletrônico de leitura / gravação, registrando que tipo de informação está

gravado em que trecho de cada trilha. As informações de insert consistem em um mapa

mostrando onde a imagem e o som estão gravados, para permitir a inserção de novos

sinais corretamente na fita. Ao contrário do sinal de imagem, o sinal destas trilhas

auxiliares não é comprimido.

O desenho abaixo esquematiza a disposição das trilhas de imagem e som na fita DV:

O padrão do formato DV é utilizado nas fitas DV tamanho standard, assim como nas

fitas Mini-DV e também nas do formato Digital-8. Há no entanto uma restrição com

relação às trilhas de som: as câmeras Digital8 não gravam trilhas de 16 bits, somente a

versão de 2 pares de 12 bits. E uma outra em relação à operação de audio-dub, não

possibilitada por estas câmeras.

tristímulus teoria que mostra que é possível reproduzir todas as cores através da

estimulação de somente 3 tipos de células sensíveis a cor no olho humano, em

diferentes proporções: as sensíveis ao vermelho, as sensíveis ao verde e as sensíveis ao

azul (RGB).

USB (Universal Serial Bus 1.1 ou Full-Speed USB) tipo de conexão disponível em

computadores do tipo PC, permitindo a conexão dos mesmos a diversos dispositivos

periféricos, como scanners por exemplo. Disponível desde o final da década de 90, é

Page 61: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 61

uma conexão de baixa velocidade (12 Mbps - (Mega = 1 milhão), 12 milhões de bits por

segundo), não permitindo a conexão de câmeras de vídeo digitais do tipo Mini-DV por

exemplo, que geram uma enorme quantidade de informação / segundo. Permite no

entanto a conexão ao computador de câmeras digitais fotográficas e de vídeo que

trabalham com baixa resolução (MPEG1 por exemplo), gerando imagens pequenas (no

caso do vídeo) que podem ser trafegadas via Internet.

A conexão ao computador de câmeras do tipo Mini-DV e outras, com maior largura de

banda (quantidade de informação trafegada) pode ser efetuada através da conexão

FireWire, disponível em alguns computadores ou em placas de edição e/ou dispositivos

externos de captura. Com velocidade e capacidade ligeiramente superior ao Fire Wire,

existe um tipo de conexão USB que permite maior tráfego de informações, a conexão

USB 2.0 . No entanto, esta conexão está presente em equipamentos de informática e não

em câmeras de vídeo, porque o seu modo de funcionamento, onde é necessária a

presença do computador para controlar a tranferência de dados, impede por exemplo a

conexão de uma câmera digital a um VCR digital, o que é possível através do FireWire.

A conexão USB tradicional foi proposta em 1993 pela DEC, Microsoft, Compac e

NEC, aprovada em 1996 pelo USB Implements Forum e tornada padrão em 1998.

Apesar de baixa, sua velocidade de transmissão de dados era superior às opções

disponíveis à época (100 vezes mais rápida do que a conexão serial e 10 vezes mais

rápida do que a conexão paralela, existentes em computadores). Cabos USB podem ter

no máximo 3 metros de comprimento.

USB 2.0 (Universal Serial Bus 2.0 ou Hi-Speed USB) implementação efetuada na

conexão tipo USB tradicional, permite tráfego de informação semelhante ao

disponibilizado pela conexão FireWire tradicional. Enquanto a conexão USB tradicional

transporta no máximo 12 Mbps - (Mega = 1 milhão), 12 milhões de bits por segundo, a

conexão USB 2.0 permite transportar até 480 Mbps e a conexão FireWire até 400 Mbps.

Esta conexão está presente em equipamentos de informática e não em câmeras de vídeo,

porque o seu modo de funcionamento, onde é necessária a presença do computador para

controlar a tranferência de dados, impede implementações como por exemplo a conexão

de uma câmera digital a um VCR digital, o que é possível através do FireWire. Por

outro lado, a conexão Fire Wire também é utilizada em equipamentos de informática,

porém em menor escala, devido ao seu maior custo em comparação com a conexão

USB 2.0 . Em computadores permite aumentar em muito a velocidade de comunicação

com periféricos, como gravadores de discos ópticos (CDs, DVDs) por exemplo,

possibilitando a redução do tempo de gravação destes discos.

A conexão USB 2.0 foi proposta em 1999 (pelo mesmo grupo que havia antes

desenvolvido a conexão USB) tendo sido aprovada em 2000. Cabos USB 2.0 podem ter

até 5 metros de comprimento. Três velocidades de transmissão são possíveis, 1,5 Mbps,

12 Mbps e 480 Mbps, permitindo o trabalho tanto com periféricos de baixa velocidade

(como mouses e teclados) como de alta (webcams por exemplo). A conexão USB 2.0

totalmente compatível com a USB 1.1 .

vertical sync pulse (V-sync) código (denominado pulso) inserido em um sinal de vídeo

para indicar ao canhão de elétrons que desenha linha a linha as imagens na tela de um

CRT (ou ao circuito que carrega as linhas da imagem em uma tela do tipo LCD ou

Page 62: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 62

plasma) que o desenho do quadro de imagem terminou. Juntamente com o horizontal

sync pulse, é um dos pulsos utilizados para efetuar o sincronismo da imagem do vídeo.

vetorscópio utilizando como fonte uma imagem do tipo color bars permite identificar e

corrigir problemas com a mesma, relacionados a cores. Cada cor presente na imagem do

color bars (amarelo, ciano, verde, magenta, vermelho e azul) é mostrada através de um

ponto luminoso distribuído ao longo de uma circunferência, como o apontado por 'A' na

figura abaixo. Quando as cores da imagem do vídeo estão corretamente ajustadas, estes

pontos devem-se situar dentro dos quadrados distribuídos ao longo da circunferência.

Na figura abaixo, 'B' mostra um destes quadrados, com seus cantos delimitados.

Quanto maior a intensidade de determinado componente de cor, mais distante do centro

da imagem estará o ponto luminoso, até atingir o ponto correto, dentro da área do

quadrado correspondente. A variação na forma do desenho permite medir e calibrar a

reprodução de cores e efetuar diversas aferições e testes sobre o sinal de vídeo, assim

como efetuar comparações (o sinal obtido diretamente da fonte e o obtido após ter sido

gravado / reproduzido por determinado equipamento). Nesta comparação, também pode

ser observado que quanto melhor o formato de vídeo, mais os dois resultados se

aproximarão.

Alguns problemas apontados na análise podem ser corrigidos pelo TBC e pelo corretor

de cores.

A parte de brilho da imagem é ajustada com outro aparelho, o monitor de forma de

onda.

waveform o mesmo que monitor de forma de onda.

WFM o mesmo que monitor de forma de onda.

Y/C, conector é o conector padrão para transportar o sinal de vídeo do tipo Y/C :

Page 63: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 63

Este conector é composto por 4 pinos condutores e um em forma de barra guia

(retângulo preto no desenho). O sinal Y/C carrega as informações de cor (cromitância) e

luminosidade (luminância) separadamente. Cada uma delas é transportada por um cabo

isolado independente. Assim, o sinal de luminância é conectado ao pino "a" enquanto

que o de cromitância é conectado ao pino "c". O cabo que transmite a luminância é

revestido por uma blindagem (malha de fios de cobre), que é conectada ao pino "b". Da

mesma forma, o cabo que transmite a cromitância tem a sua blindagem conectada ao

pino "d". Os dois cabos internos são por sua vez revestidos também por uma blindagem

(terra), a qual é conectada à parte metálica externa do plug (círculo amarelo-escuro no

desenho).

Y/C, sinal ao contrário do componentes, neste tipo de sinal as informações de cor são

combinadas gerando um único sinal, ao passo que as informações de luminosidade

constituem um sinal independente. Posteriormente (no momento da exibição por

exemplo) os sinais de cor são novamente separados. A transformação acaba acarretando

pequena perda de qualidade devido a interferências e distorções geradas no processo,

onde os sinais de cor recuperados na separação não são exatamente idênticos ao que

eram na fase de codificação em sinal único. Este tipo de sinal é utilizado no formato

SVHS por exemplo.

YCbCr representação utilizada para indicar os sinais digitalizados a partir do color

space YUV.

YIQrepresentação dos três componentes do tipo de sinal video componentes, um para

luminosidade e outros dois para informação de cor. O YIQ é utilizado em aplicações

broadcast, no padrão NTSC, ao invés do YUV. Este color space proporciona registro

mais fiel e apurado das cores, utilizando para isso fórmulas matemáticas mais

complexas do que as empregadas no YUV. Por isso mesmo, exige maior complexidade

dos circuitos eletrônicos na codificação e decodificação dos sinais. Equipamentos do

segmento semi-profissional e consumidor empregam, por este motivo, o YUV,

barateando o custo dos mesmos.

YPbPr representação utilizada para indicar os sinais analógicos do color space YUV.

YUV representação dos três componentes do tipo de sinal vídeo componentes, um para

luminosidade e outros dois para informação de cor. O YUV é o sistema de codificação

de cor utlizado pelos padrões analógicos de TV (NTSC, PAL, SECAM). O color space

YUV é diferente do RGB, por trabalhar com componentes separados de luz e cor,

enquanto o RGB, color space através do qual tanto o olho humano como a câmera

enxergam, trabalha com cores básicas, também chamadas primárias.

O color space RGB ocupa muito espaço para ser representado numericamente, uma vez

que são necessárias 3 faixas distintas (intervalos) destinadas a registrar individualmente

os valores de cada de suas cores. Na década de 50, a implantação da TV colorida nos

EUA exigia que o novo sinal fosse compatível com as existentes TVs P&B. Propunha-

se um sinal que pudesse ser exibido na forma colorida pelos novos televisores e ainda

assim continuasse a ser exibido em P&B pelos antigos aparelhos.

Foi então desenvolvido um algoritmo denominado analog encoding, que conseguia,

através da separação da parte de luminosidade (Y) e cor do sinal (U / V - mais detalhes

Page 64: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 64

adiante), codificá-los analogicamente de forma que o sinal resultante ocupasse bem

menos espaço do que o RGB. As TVs P&B decodificam somente a parte (Y) deste

sinal. A seguir, a descrição do que ocorre dentro de uma câmera de vídeo seguindo esse

processo.

O CCD produz um conjunto de 3 sinais analógicos, cada sinal correspondendo a uma

das cores básicas. Este sinal, chamado RGB puro, contém as informações de

luminosidade e ao mesmo tempo também de cor de cada pixel. Para economizar espaço,

tanto nas informações transmitidas como nas geradas, o sinal RGB puro é convertido

para sinal analógico YUV através de um circuito eletrônico no interior da câmera. A

seguir, este sinal pode ser gravado diretamente em uma fita, como ocorre no formato

analógico Betacam por exemplo. Ou ter suas informações de cor e brilho combinadas

para gerar sinais também analógicos como o Y/C do formato SVHS ou o vídeo

composto do formato VHS por exemplo. Por outro lado, pode sofrer um processo de

sampling e ser transformado em sinal digital, para ser gravado em formatos que utilizam

este tipo de sinal, como o Mini-DV por exemplo. Quando as imagens são exibidas em

um aparelho de TV ou de projeção, o sinal YUV é reconvertido para RGB antes de ser

utilizado.

A conversão RGB para YUV chama-se color space conversion e é efetuada através de

fórmulas matemáticas. A parte de luminosidade do sinal YUV, representada pela letra

"Y", é calculada somando-se as luminosidades dos sinais R+G+B, porém de maneira

desigual: a cor verde é a dominante, a que tem maior participação e a azul a menor. O

cálculo é efetuado através da fórmula:

Y = 0.299R + 0.587G + 0.114B

ou, aproximadamente, 30% de vermelho, 59% de verde e 11% de azul. O fator maior

utilizado para a cor verde decorre de experiências que mostraram que ao analisar-se o

brilho de determinada cena através de cada um dos componentes RGB como percebido

pelo olho humano, conclui-se que a cor verde é responsável por 60 a 70% de sua

intensidade. Este fato pode ser comprovado ao comparar-se a luminosidade no sistema

RGB da cor pura verde (RGB = 0,255,0) com a da cor pura azul (RGB = 0,0,255) como

mostra o desenho abaixo:

A luminosidade emitida pelas duas cores é a mesma, porém o olho humano enxerga

mais luz em uma e menos luz na outra. É para criar esse desequilíbrio que os fatores

numéricos são empregados na fórmula do cálculo da luminosidade, permitindo obter-se

assim o balanceamento do brilho entre as 3 cores básicas obtidas a partir da leitura do

CCD da forma como o olho humano as enxerga. É por este motivo também (maior

sensibilidade ao verde) que a implementação de cores utilizando um único CCD, através

do padrão Bayer (descrito no item "CCD") emprega o dobro de filtros coloridos na cor

verde em relação aos das cores vermelha e azul.

A parte de cor do sinal YUV, representada pelas letras "U" e "V" é calculada de modo a

economizar informações: ao invés de registrar as intensidades de cada uma das 3 cores,

Page 65: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 65

são somente registradas as intensidades do vermelho e do azul. A intensidade do verde é

derivada a partir da luminosidade total, levando-se em conta as intensidades anotadas do

vermelho e do azul.

O sinal "U" é calculado subtraindo se "Y" do sinal "B" e multiplicando-o por um fator

igual a 0,492:

U = 0,492 x (B - Y)

O sinal "V" é calculado subtraindo se "Y" do sinal "R" e multiplicando-o por um fator

igual a 0,877:

V = 0,877 x (R - Y)

Esses fatores sâo determinados por normas internacionais estabelecidas pela ITU -

International Telecommunication Union , entidade internacional criada para padronizar

e regular assuntos técnicos relacionados a telecomunicações, a partir de

experimentações e testes práticos visando entre outros aspectos a melhor representação

do color space após a conversão. Não há compressão nem perda de qualidade nessa

conversão, um sinal é o equivalente matemático do outro. A transformação é efetuada

por um circuito eletrônico.

Para simplificação em diversos textos que referenciam-se ao color space YUV, os

componentes "U" e "V" são representados muitas vezes sem os seus fatores de

conversão, na forma:

U = B - Y

V = R - Y

Estes componentes também recebem o nome de canais color difference, em alusão à

subtração da luminosidade dos sinais "B" e "R".

O sinal YUV ocupa menos espaço do que o sinal RGB, porque apesar de conter também

3 sinais como o RGB, neste a luminosidade do pixel é repetida 3 vezes. No YUV ela

está presente somente 1 vez. E além disso o sinal de cor necessita no máximo metade da

informação do de luminosidade, característica conhecida desde que em 1931 uma

organização chamada CIE (Commission Internationale de L'Elairage) investigando a

visão de cores pelo olho humano concluiu através de experimentações que a visão do

olho humano era menos sensível a cores do que à luminosidade. Para economizar ainda

mais espaço, como o sinal verde é o que usa mais informação (59% como visto acima),

os dois outros (vermelho e azul) é que são utilizados para gerar as informações de cor.

Em sistemas analógicos a economia é de largura de banda de transmissão (bandwidth) e

em digitais de data rate (dados transmitidos). E em ambos, de informações

armazenadas, tanto se considerarmos o armazenamento dos 3 sinais componentes

separados (Betacam p.ex.), como os de cor juntos em 1 sinal e o de luminosidade em

outro (S-VHS p.ex.), como os 3 sinais combinados em um único (VHS p.ex.) como os 3

combinados com o de som (sinal RF p.ex.).

Page 66: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 66

Uma das consequências da maior participação da cor verde na formação do sinal de

luminosidade é no cromakey: o recorte das imagens fica melhor em fundo verde do que

em azul e mesmo em vermelho, utilizados em cinema.

Quando os sinais YUV permanecem na forma analógica após a conversão a partir do

original RGB e são nesta forma transmitidos através de cabos de um dispositivo para

outro, os conectores destes cabos recebem uma nomenclatura diferente; ao invés da

notação YUV, os sinais são indicados por Y , B-Y e R-Y, como mostra a figura abaixo:

Dispositivos analógicos que trabalham com sinais do tipo video componentes possuem

entradas / saídas (conectores fêmea do tipo RCA ou BNC) para os 3 sinais:

Por outro lado, se os sinais YUV entram em um equipamento digital e são digitalizados,

ou então estão na forma digital e são convertidos para analógicos, recebem outra

nomenclatura: Y, Pb, Pr. Esta nomenclatura (Y, Pb, Pr) corresponde portanto ao mesmo

sinal Y, B-Y, R-Y, porém é empregada para indicar um sinal analógico deste tipo que

entra ou sai analogicamente de um aparelho digital qualquer. Em outras palavras,

entram ou saem do digital domain, o "domínio digital", espaço onde trabalha-se

digitalmente. Um exemplo é a saída de um player de DVD-Vídeo:

Por outro lado, quando o sinal Y, B-Y, R-Y é convertido para o formato digital, recebe

a nomenclatura Y, Cb, Cr:

Page 67: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 67

Assim, (embora seja comum encontrar-se erros no uso dessas nomenclaturas), os termos

Y, Pb, Pr e Y, Cb, Cr só devem ser utilizados dentro do digital domain (sinais que

entram, trafegam e saem de aparelhos digitais). No analog domain (câmeras e VCRs no

formato Betacam SP por exemplo) a indicação permanece Y, B-Y, R-Y.

Alguns desses aparelhos, geralmente digitais, como players de DVD-Vídeo, exibem em

suas entradas / saídas analógicas a inscrição:

o que é incorreto, pois "Cb" e "Cr" referem-se a sinais digitais, não sinais analógicos. A

incrição correta no caso é somente Y - Pb - Pr, pois normalmente trata-se de um sinal

analógico .

YCbCr é empregado no padrão de compressão MPEG2 (utilizado em DVD-Video por

exemplo); câmeras digitais (no formato MiniDV por exemplo) transmitem sinais

YCbCr através da conexão FireWire.

Embora seja comum encontrar conectores RCA coloridos em entradas do tipo

componentes (como mostra o desenho acima), não são sinais RGB puro, como visto,

que trafegam nessas entradas / saídas e sim sinais com valores matematicamente

equivalentes a RGB. Assim, é incorreto dizer que YPbPr e YCbCr são o mesmo que

RGB: tratam-se de color spaces completamente diferentes. YPbPr e YCbCr são sinais

vídeo componentes e não sinais RGB.

Entradas / saídas para video composto (geralmente conectores RCA amarelos) trafegam

um sinal onde os componentes YUV estão todos combinados em um único sinal.

Entradas / saídas para sinal Y/C (ou S-Video, através de conector próprio) trafegam um

sinal onde somente os componentes "U" e "V" são combinados em um único sinal,

permanecendo "Y" separado dos demais.

Assim como na forma analógica o sinal vídeo componentes pode ter sua porção de cor

reduzida, como visto acima, criando os sinais Y/C e composto, também o sinal

componentes analógico (Y, B-Y, R-Y) pode sofrer opcionalmente uma compressão

Page 68: Informações técnicas - Sinais de Vídeo

Informações técnicas – Sinal de vídeo

www.therebels.com.br Página 68

adicional na parte de cor. Tem-se então diversos tipos de sinal Y, Cb, Cr, comprimidos

em diferentes taxas para cor e luminosidade, como 4:1:1, 4:2:2, etc...

Em aplicações broadcast, emprega-se para o padrão NTSC outro color space, o YIQ, ao

invés do YUV. O color space YIQ proporciona registro mais fiel e apurado das cores,

utilizando para isso fórmulas matemáticas bem mais complexas do que as empregadas

no YUV. Por isso mesmo, exigem maior complexidade dos circuitos eletrônicos na

codificação e decodificação dos sinais. Equipamentos do segmento semi-profissional e

consumidor empregam, por este motivo, o YUV, barateando desta forma o custo dos

mesmos.