124
5/11/2018 Apostila_de_computao_em_msica-slidepdf.com http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 1/124 UNIVERSIDADE DO ESTADO DO RIO GRANDE DO NORTE FACULDADE DE LETRAS E ARTE DEPARTAMENTO DE ARTE Computação em música Apostila geral Prof. Henderson J. Rodrigues 2008.

Apostila_de_computação_em_música

Embed Size (px)

Citation preview

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 1/124

UNIVERSIDADE DO ESTADO DO RIO GRANDE DO NORTEFACULDADE DE LETRAS E ARTE

DEPARTAMENTO DE ARTE

Computação em músicaApostila geral

Prof. Henderson J. Rodrigues

2008.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 2/124

Introdução

Esta apostila foi elaborada tendo em vista facilitar o aprendizado de conceitos relativos àutilização do computador na música. Trata-se de uma compilação de vários textos facilmenteencontrados na Internet ou apostilas técnicas. Obviamente que cada texto de referência foi escolhido

de acordo com sua abrangência e veracidade do conteúdo. Acreditamos que este material constitui-se uma base para aqueles que pretendem se aprofundar mais neste conhecimento. Ao aluno éimprescindível que a partir de agora possa entender que muitas das coisas faladas aqui têm relaçãodireta com áreas de conhecimentos que pouco envolve música, ou seja, envolvem conceitos dasáreas de física, engenharia do som, computação etc.

Breve histórico

Numa época em que a Economia e a Política são sempre matérias de primeira página emquase todos os jornais do planeta, certamente muitas pessoas devem achar que a música é algosupérfluo e de importância secundária para a sociedade. Entretanto, se observarmos a história dahumanidade, perceberemos que, na verdade, a música sempre foi, e muito provavelmentecontinuará sendo, não só um “bem” artístico, mas também um elemento diretamente ligado àevolução dos povos.Não é nossa intenção analisar aqui as implicações sócio-culturais da música, mas vale a penalembrar que nos últimos anos ela foi um fator determinante na globalização cultural, fato que muitaspessoas costumam avaliar como “dominação”. Dentro desse enfoque, a música talvez seja a maisdireta, mais profunda e mais poderosa de todas as artes, uma vez que não precisa necessariamente

de palavras (ultrapassando os idiomas), e também atue como apoio de outras artes, como o cinema eo teatro, por exemplo.Um dos aspectos mais relevantes para o nosso enfoque, entretanto, é no que diz respeito ao

desenvolvimento tecnológico. Enquanto outras artes, como o teatro e a poesia, praticamenteindependem do estágio de evolução tecnológica, quase sempre a música requer algum instrumentopara que possa ser transmitida ao público. Isso criou uma associação muito sólida entre a arte e atecnologia.

Engana-se quem pensa que a música produzida por meios eletrônicos é mais “tecnológica”do que a produzida por instrumentos acústicos. Na verdade, ambas requerem algum tipo detecnologia, sendo a avaliação do grau de sofisticação uma coisa muito relativa. A construção de umpiano acústico, há mais de cem anos, requeria um enorme investimento de tempo e trabalho,

conhecimento de materiais, precisão de fabricação etc. Nos dias atuais, a criação de um sintetizadorvirtual operando por software pode ser feita por um único programador, dispondo apenas de umcomputador e alguns outros recursos modernos. Se pensarmos bem, em ambos os exemplos há umaenorme aplicação de conhecimentos tecnológicos que, se avaliados pelos conceitos de cada época,terão praticamente a mesma complexidade. Mudaram as formas de se trabalhar, em virtude doconhecimento acumulado. Essas diferenças têm sido percebidas em vários outros setores de nossasociedade, como os transportes, as comunicações, e até mesmo o lazer.

Dentro dessa idéia, o que vamos apresentar são os tipos de processos tecnológicos utilizadospara se gerar sons nos instrumentos musicais eletrônicos, o que inclui tanto a tecnologia demateriais e componentes (válvulas, semicondutores, microprocessadores etc) quanto os conceitos deoperação (síntese subtrativa, síntese aditiva, sampler etc). Paralelamente, vamos também abordar os

meios de controle, o que não só envolve a ciência dos materiais como a capacidade criativa dos seusinventores.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 3/124

Nosso artigo fará uma compilação de diversas informações, obtidas em livros, especificações,revistas, Internet e experiências pessoais e, no final da série, apresentaremos uma lista dasprincipais fontes de referência.

A História 

De acordo com alguns historiadores, as primeiras tentativas de se utilizar a eletricidade paracontrolar sons deram-se ainda no século XVIII, através das experiências de Jean-Baptiste de LaBorde que, em 1759, construiu o Clavecin Electrique. Um instrumento de teclado que utilizavacargas eletrostáticas para fazer com que pequenas lâminas metálicas batessem em sinos, produzindoos sons.

Pouco mais de cem anos depois, Alexander Graham Bell inventava o telefone – consideradoum dos grandes marcos da história contemporânea. Em 1874, o também norte-americano ElishaGray desenvolveu um dispositivo onde lâminas de aço vibravam e produziam sons, controladas porum circuito elétrico auto-oscilante. Nascia, então, o Musical Telegraph, que tinha um teclado depiano como meio de controle e podia transmitir os sons através do telefone. Posteriormente, Grayincorporou um alto-falante bastante rudimentar, que permitia ouvir o instrumento fora da linha

telefônica.É importante registrar que, em 1877, Heinrich von Helmholtz publicou o livro “The

Sensation of Tone”, uma primeira discussão sobre a composição do som, usando como base oteorema de Fourier que demonstra matematicamente a formação de um som musical complexo apartir da soma de vários sons (oscilações) mais simples. Helmholtz também apresentou explicaçõessobre as características da percepção do ouvido humano a sons fracos e fortes, e demonstroucientificamente as razões das consonâncias entre sons diferentes, que deram origem às escalasmusicais e à harmonia. A divulgação de tais conceitos foi fundamental para que outras pessoaspudessem partir para empreitadas em busca de novos instrumentos musicais.

Em 1897, o norte-americano Thaddeus Cahill patenteou um instrumento denominadoTelharmonium (também conhecido como "Dynamophone"), cujoprimeiro modelo completo foi apresentado ao público somente em1906. O Telharmonium utilizava um conjunto de dínamos comressaltos em seus eixos que, ao passar na frente de bobinas,produziam sinais de corrente alternada com diferentes freqüências deáudio. Esses sinais eram, então, controlados por teclados de seteoitavas com sensibilidade ao toque, e era possível produzir notasdesde 40 Hz até 4 kHz. O sinal produzido pelos geradores eraconvertido em som e amplificado acusticamente por cornetas, poisnaquela época não existiam amplificadores. A idéia de Cahill eraconectar o Telharmonium à rede telefônica, e oferecer um serviço de

“broadcast” de música a assinantes (restaurantes, hotéis etc.), onde os aparelhos telefônicos seriamacoplados a cornetas acústicas. A aparência do Telharmonium estava mais para uma usina elétricado que para um instrumento musical, pois sua estrutura tinha mais de 18 metros de largura e pesavacerca de 200 toneladas. O custo do empreendimento foi de 200 mil dólares na época. Comoveremos mais adiante, a concepção original do Telharmonium foi aprimorada eutilizada durante muito tempo nos “tonewheels” dos órgãos Hammond.

Desde que foi descoberta, a eletricidade logo causou um fascínio ainúmeros cientistas que, rapidamente, inventaram formas variadas de aplicá-la.Mas foi somente em 1907 que surgiu a “válvula eletrônica” (triodo), criada porLee De Forest, que chamou-a na época de Audion. Com a válvula, deu-se umimpulso sem igual ao desenvolvimento de novos equipamentos utilizando a

eletricidade, com o rádio e uma enorme variedade de aplicações de circuitososciladores e amplificadores. De Forest chegou a colaborar com Tadheus Cahill na transmissão deconcertos do Telharmonium via rádio, o que não foi levado adiante porque Cahill insistia em utilizar

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 4/124

a linha telefônica (o que, provavelmente, foi a principal causa do insucesso doTelharmonium). O próprio De Forest chegou a construir, em 1915, o AudionPiano, um instrumento com teclado, usando um oscilador e a capacitância docorpo para controlar a afinação e o timbre da nota (processo aperfeiçoadodepois por Leon Termen, como veremos a seguir). Surgia, então, a era daeletrônica.

1a fase: Válvulas e Motores 

Consideraremos como primeira fase da eletrônica musical o período que vai do início doséculo XX (invenção da válvula) até o final da década de 1940 (invenção do transistor). Um aspectointeressante dessa fase está no fato de os novos instrumentos terem sido desenvolvidos em váriospaíses diferentes, coisa que não acontece nos dias de hoje, em que os principais lançamentos vêmdos EUA ou do Japão, demonstrando claramente uma concentração deconhecimento tecnológico.

Em 1917, Lev Sergeivitch Termen era ainda um estudante de

engenharia em Moscou quando construiu um instrumento esquisito, quechamou de “Aeterphone” (uma referência ao som que vinha do “éter”). Seufuncionamento era baseado no princípio do batimento de freqüências,descoberto no início da era do rádio: a combinação de duas freqüências altas(de rádio), uma delas variando, pode produzir uma freqüência mais baixa (deáudio). O instrumento de Termen, depois conhecido como Theremin, pareciaum pouco como um gramofone e possuía duas antenas, uma vertical e outracircular, horizontal. Movendo-se uma das mãos nas proximidades da antenavertical podia-se controlar a altura (afinação) da nota, e movendo-se a outramão próximo da antena circular podia-se ajustar o volume do som. Oresultado, portanto, era um som monofônico, em que o músico podia alterar a nota e a intensidade,mas com um timbre fixo (semelhante ao violino). O instrumento foi apresentado a Lênin, que queriadifundir a eletricidade na recém criada União Soviética, e cerca de 600 unidades foram construídase distribuídas por todo o país.

Leon Theremin, como ficou depois conhecido no ocidente, deixou a URSS em 1927 e foipara os EUA, onde patenteou seu instrumento, e conseguiu que a RCA o comercializasse edistribuísse em todo o país, durante a década de 1930. Desde então, muitos artistas o têm usado, evários modelos foram produzidos por diversos fabricantes,entre eles a empresa Big Briar, de Bob Moog.

Em 1928, o violoncelista francês Maurice Martenotpatenteou um instrumento chamado de Ondes-Martenot, que

usava os mesmos princípios do Theremin. O instrumentoconsistia em um oscilador eletrônico a válvula, e o controle dafreqüência do oscilador era feito através de uma aneldeslizando num fio, utilizando um teclado para mover o anelpara posições pré-definidas, onde faziam contato comcapacitâncias diferentes. Um pedal composto de uma esponjaimpregnada de carvão fazia a função de um potenciômetrorudimentar, e permitia controlar o volume. O som era ouvido através de um alto-falante, dotado decavidades e ressonadores.

O engenheiro alemão Freidrich Adolf Trautwein apresentou ao público, em 1930, uminstrumento inovador de nome Trautonium. O modelo original possuía um painel com um fio

resistivo esticado por sobre um trilho metálico, marcado com uma escala cromática e acoplado a umoscilador a válvula. Ao se pressionar o fio, este tocava o trilho e fechava o circuito do oscilador,sendo que a posição do dedo no fio determinava o valor da resistência, que ajustava a freqüência de

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 5/124

oscilação, dando a nota musical desejada. O painel do Trautonium possuía uma extensão de trêsoitavas, mas era possível transpor o som usando uma chave. Circuitos adicionais podiam seracoplados para controlar o timbre da nota por meio de uma filtragem seletiva, e havia um circuitopróprio para amplificar o sinal do oscilador e excitar um alto-falante, dispondo de um pedal paraajuste de volume. A concepção original de filtragem de harmônicos, inexistente nos outrosinstrumentos da época, foi talvez a primeira idéia de síntese subtrativa, e dava ao Trautonium uma

característica singular. Oskar Sala e alguns outros artistas europeus usaram o Trautonium, e aTelefunken chegou a produzir uma versão comercial do instrumento entre 1932 e 1935.Diferentemente dos demais inventores até então, Laurens Hammond, um relojoeiro norte-

americano, foi provavelmente o primeiro a conceber um instrumento musical eletrônico dentro deum conceito mercadológico, que pudesse ser vendido para muitaspessoas. Assim, em 1935, ele construiu o primeiro órgãoHammond, dotado de dois teclados e pedaleira. A geração dosom era feita usando o mesmo princípio do Telharmonium: ummotor acionava um eixo com várias rodas dentadas, cada umagirando próximo a uma bobina magnética, de forma que cada“dente” ao passar pela bobina produzia uma variação de corrente,

gerando assim um sinal oscilante. As várias rodas (chamadas de“tone-wheels”) tinham números de dentes diferentes, gerandofreqüências diferentes, que produziam as diversas notas do órgão.Os sinais gerados por cada roda eram, praticamente, senoidais; 61rodas produziam as fundamentais para as notas dos teclados decinco oitavas, e mais 30 rodas para a geração de harmônicos.Para controlar o timbre, havia um conjunto de barras deslizantes (“drawbars”), que permitiamajustar a intensidade dos harmônicos, pela soma dos sinais de várias rodas, o que fazia com que osom resultante tivesse a oscilação fundamental e vários harmônicos, num engenhoso processo desíntese aditiva (um aprimoramento da idéia do Telharmonium).

Outros recursos interessantes foram incorporados no Hammond, como os efeitos de tremoloe vibrato, além do controle de volume por meio de um pedal de expressão. Além da sua sonoridade,o Hammond também tinha um acabamento impecável, construído num gabinete de madeira do tipo“escrivaninha”, o que dava ao instrumento uma aparência muito bonita dentro dos padrões daépoca. Provavelmente, foi o instrumento eletrônico de maior vida útil, tendo sido produzido de1934 a 1974.

Apesar de toda a sofisticação tecnológica que trazia o som “estático” gerado peloHammond, era considerado um pouco “sem vida” e, assim, logo surgiram idéias para torná-lo maisnatural e agradável. Quem trouxe a melhor solução para isso foi Don Leslie, que inventou umacaixa acústica onde os alto-falantes de graves e agudos giravam, produzindo ao mesmo tempo, e deforma bastante complexa, os efeitos de modulação de amplitude e de freqüência, o que dá ao som

uma sensação envolvente, característica da caixa Leslie.O universo da música eletrônicacomeçou a ficar mais complexo no início dadécada de 1950 quando os engenheiros norte-americanos Harry Olsen e Herbert Belarconcluíram a construção do sintetizador RCAMark I, um sofisticado sistema de síntese desons, que ocupava uma sala inteira dolaboratório da RCA, em Princeton. Era oprimeiro sintetizador desenvolvido paraproduzir “qualquer som”, baseado nos conceitos

de que o som é composto de vários parâmetros:freqüência, amplitude, espectro e envoltória,que podem ser controlados independentemente

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 6/124

em tempo-real. Cada parâmetro era controlado por um módulo eletrônico específico, e ogerenciamento do sistema completo era efetuado por um “programa” contido numa fita de papelperfurado. O equipamento usava válvulas, mas já possuía circuitos sofisticados para geração dosharmônicos, filtragem, geração de envoltória, modulação, mixagem etc.

2a Fase: Transistores e Chips 

Em 1948, depois de exaustivas pesquisas, surgia nos laboratórios Bell (USA) o primeirotransistor. As conseqüências que este novo dispositivo trouxe para o mundo foram de enormeimpacto, pois ele possibilitou significativas reduções de tamanho, de consumo de energia e,sobretudo, de custo nos equipamentos eletrônicos. Obviamente, a indústria musical logo tambémtratou de aproveitá-lo.

Ainda no final da década de 1940, enquanto tocava seu órgão eletrônico em casa, o norte-americano Harry Chamberlin imaginou um instrumento que também pudesse reproduzir sons deoutros instrumentos. O gravador de fita começava a se tornar mais popular, e Chamberlin construiuum equipamento, o Rhythmate 100, com 14 loops de fitas contendo gravações de padrões deacompanhamento de bateria. Anos depois, já na década de 1960, passou a construir o modelo

Chamberlin 600, controlado por um teclado de 35 notas, que usava fitas de 3/8” e continhagravações de instrumentos acústicos. Apesar de ter conseguido algum sucesso, por ser umanovidade, o Chamberlin tinha deficiências graves em sua construção que, freqüentemente,estragavam as fitas. Tentando obter uma solução, Chamberlin pediu ajuda a uma empresa inglesachamada Bradmatic que, em 1966, adquiriu os direitos de usar sua patente, e passou a produzirnovos modelos já com o nome Mellotron. Paralelamente, Chamberlin continuou a produzir seusinstrumentos nos EUA, até a década de 1970.

O Mellotron usava o mesmo princípiooriginal do Chamberlin, mas com váriosaperfeiçoamentos mecânicos. Possuía um tecladode 35 notas e utilizava um loop de fita sem-fimassociado a cada tecla, contendo a gravação doinstrumento naquela nota. As fitas eram de 3/8”,com três pistas, de forma que o músico podiaselecionar um dos três timbres que estavamgravados nas fitas. Jogos de fita eram vendidoscom uma variedade de combinações deinstrumentos diferentes (cordas, corais, flautas,metais, efeitos etc). Obviamente, o Mellotronsofria com as limitações inerentes ao processo de reprodução de som por fita magnética, com umaresposta de freqüência ruim, e muitos problemas mecânicos, desgaste de cabeças magnéticas e

coisas do gênero. É considerado o primeiro “sampler”, e foi muito usado pelos principais grupos derock progressivo da década de 1970.Ainda que as experiências com instrumentos musicais puramente eletrônicos nunca tenham

sido interrompidas (a Yamaha começou a produzir órgãos eletrônicos em 1952), osdesenvolvimentos mais significativos utilizando tecnologia de semicondutores surgiram somente noinício da década de 1960, quando dois norte-americanos começaram a experimentar o uso decircuitos eletrônicos para a síntese de sons.

Na California, Don Buchla construiu seu primeiro sintetizador modular em 1963,encomendado pelo San Francisco Tape Music Center, um centro de pesquisas de “musiqueconcrète” (nome dado à música eletrônica naquela época). O sintetizador de Buchla gerava os sonspor processo subtrativo, possuindo vários módulos, cada qual com uma função específica no

processo de síntese (oscilador, filtro, gerador de envoltória etc). O meio de controle era um tecladofeito com placas sensíveis à pressão do toque, e pouco depois Buchla também desenvolveu umseqüenciador analógico, que era capaz de memorizar algumas notas em loop, acionando o

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 7/124

sintetizador.Quase ao mesmo tempo, em Nova York, Bob

Moog começou a construir seus primeirosequipamentos. Primeiro vieram os Theremins e, logodepois, surgiu algo que daria origem a uma “espécie”que ficou famosa durante muitos anos: o sintetizador

analógico baseado em módulos controlados portensão (“voltage controlled”). Depois de apresentarsua idéia no boletim da Audio Engineering Society,Moog começou a obter sucesso construindo módulossob encomenda. Mas a consagração do sintetizadorMoog e seu merecido reconhecimento como umverdadeiro instrumento musical só aconteceu mesmoem 1968 com o lançamento do belíssimo álbum“Switched-On Bach”, em que Walter Carlos usou somente sintetizadores modulares Moog em seusarranjos eletrônicos para músicas barrocas. Os sintetizadores construídos por Moog erammonofônicos (não podiam fazer acordes), usavam o teclado como meio de controle (sem

sensibilidade ao toque), e a configuração do timbre era feita conforme o tipo de interconexão dosdiversos módulos, efetuada por cabos (“patch-cords”). É daí que vem o nome de “patch”, usadopara designar a programação de timbres nos sintetizadores.

Infelizmente, o trabalho pioneiro de Buchla é pouco comentado, provavelmente, por não terse transformado em produto comercial. Já os instrumentos Moog dispensam qualquer comentário,uma vez que se tornaram um marco na história dos sintetizadores, como o famoso modelo modularusado por Keith Emerson (Emerson, Lake & Palmer) e, sobretudo, o Minimoog, que foi usado pelamaioria dos tecladistas progressivos. Todos esses instrumentos adotavam a mesma tecnologia,

usando processo de síntese subtrativa implementada porcircuitos analógicos transistorizados (alguns deles bastantecomplexos, como o incomparável filtro de Moog). Outraempresa norte-americana também pioneira na produçãocomercial de sintetizadores foi a ARP, fundada peloengenheiro Alan Pearman, que construiu algunsequipamentos marcantes da década de 1970, como o ARP2600, um sintetizador modular (síntese subtrativa) bastantepoderoso, e o ARP Strings, um teclado polifônico quegerava timbres de cordas e metais, sintetizados também porcircuitos analógicos.

Na Europa, dentre vários que apareceram e sumiramdo mercado durante o período de 1960-80, o que mais se

destacou foi o EMS VCS3, desenvolvido pela empresainglesa Electronic Music Studios, de Peter Zinovieff. Era um equipamento bem pequeno e gerava ossons por síntese subtrativa, também com módulos internos (osciladores, filtro etc.) controlados portensão. Não possuía um teclado, mas apenas um joystick e vários botões, e a interligação dosmódulos era feita por pinos enfiados numa matriz no painel (posteriormente, o modelo VCS4incorporou um teclado). Este instrumento foi usado pelo Pink Floyd e por muitos outros artistasdaquela época.

A década de 1970 foi marcada pela forte entrada dos fabricantes japoneses no mercado,onde, desde então, têm se mantido na liderança do mercado de instrumentos musicais eletrônicos,graças ao enorme trabalho de pesquisa e desenvolvimento, aliado às condições peculiares deinvestimento que existem por lá.

A Yamaha, tradicional fabricante de pianos acústicos desde 1887, e que já produzia osórgãos Electone na década de 1970, passou também a fabricar pianos eletrônicos e sintetizadores,com seus pequeninos SY-1 e SY-2, e depois o mais conhecido CS-80. É importante destacar que a

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 8/124

empresa já vinha se aprimorando tecnologicamente, com a produção de circuitos integrados (chips)especiais desde 1971.

A Korg, que já comercializava órgãos eletrônicos (Keio Organ) desde meados da década de1960, em 1973 apresentou seu primeiro sintetizador, o Mini-Korg, que era monofônico, utilizavasíntese subtrativa e possuía um teclado de 3½ oitavas. Em 1975 foi lançado o Maxi-Korg, comcapacidade duofônica e, em 1977, foi lançado o PS-3100, um sintetizador modular polifônico, que

não teve sucesso comercial devido a seu alto custo.Em 1972 foi fundada a Roland, que no mesmo ano lançou o SH-1000, o primeirosintetizador japonês, um teclado utilizando síntese subtrativa analógica. Em 1976 foi lançado oSystem 700, um poderoso sistema modular orientado para estúdios.

O segmento de sintetizadores começou a ficar tão interessante comercialmente na década de1970, com tantos fabricantes surgindo a cada ano, que nos EUA existiam duas fábricas desemicondutores voltadas exclusivamente para a produção de chips com circuitos para síntesesubtrativa, que foram a Curtis (CEM) e a Solid State Micro Technology (SSM). Elas ofereciamchips com módulos controlados por tensão: geradores de forma-de-onda (VCO), filtros (VCF) egeradores de envoltória (VCA). Vários fabricantes, incluindo E-mu, Oberheim e SequentialCircuits, adotaram esses chips em seus instrumentos.

3a Fase: Microprocessadores 

O final da década de 1970 foi marcado pela popularização dos microprocessadores, que saíram dasaplicações militares e encontraram um vasto mercado em diversos outros setores, dentre eles aindústria musical. Logo começaram a surgir empresas cujo perfil estava focado mais na eletrônicadigital, e não mais nos circuitos analógicos das décadas anteriores. Isso causou um desequilíbriomuito grande na situação que estava estabelecida, criando dificuldades para as empresas mais“tradicionais” como Moog e ARP, por exemplo, que não tinham domínio suficiente da novatecnologia. Nessa “nova onda”, surgiram nos EUA algumas empresas marcantes no setor desintetizadores.

A E-mu começou a produzir sintetizadores em 1975, comsistemas modulares semelhantes aos então famosos Moog. Osintetizador E-mu Modular, apesar de monofônico como os seuscontemporâneos, usava no teclado um circuito digital paravarredura da posição das teclas. Essa inovação tornar-se-ia padrãoanos depois, pois foi a solução para a detecção do acionamentodas teclas e respectivo endereçamento aos osciladores das vozesnos sintetizadores polifônicos. A E-mu licenciou o projeto desseteclado para a Oberheim e a Sequential, o que lhe proporcionouuma boa receita durante alguns anos.

Tom Oberheim começou a se envolver com instrumentosmusicais logo no início da década de 1970, quando construiu seusprimeiros pedais de efeito, comercializados pela Maestro. Com a efervescência do mercado desintetizadores, no entanto, direcionou seu trabalho para a produção de um equipamento que pudesseser competitivo em qualidade e recursos e, em 1974, apresentou o SEM (Synthesizer ExpanderModule), um módulo contendo todas as funções de um sintetizador: dois osciladores, dois geradoresde envoltória e um filtro, todos os módulos controlados por sinais de tensão, seguindo os padrõesadotados pelos demais fabricantes. O SEM não possuía teclado e podia ser controlado por qualqueroutro sintetizador que tivesse uma saída CV (“control voltage”) padronizada em 1 volt/oitava. Apartir daí, Oberheim construiu vários sintetizadores que utilizavam dois ou mais módulos SEM,permitindo assim a geração de duas ou mais notas simultâneas. Isso só foi possível porque a

Oberheim utilizava em seus sintetizadores o teclado com varredura digital, fabricado pela E-mu.Surgiram, então, os primeiros sintetizadores polifônicos.Um dos grandes marcos na indústria dos sintetizadores foi o Prophet-5, produzido pela

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 9/124

Sequential Circuits entre 1978 e 1984,que foi o primeiro sintetizador polifônico(5 vozes) programável e capaz dearmazenar as programações de timbresna memória (40 programas).Desenvolvido por John Bowen e Dave

Smith (este último foi um dos principaisidealizadores do MIDI), o Prophet-5estabeleceu de fato um novo conceito emsintetizadores, trazendo definitiva e irreversivelmente a tecnologia digital para a indústria deinstrumentos musicais. Apesar de trabalhar com síntese subtrativa analógica (os primeiros modelosusavam chips da SSM, depois substituídos pelos daCurtis), todo o controle do acionamento de notas egeração de sons era feito digitalmente, sob o comando deum microprocessador Zilog Z-80. Além da memorizaçãointerna de programas, o Prophet-5 também possuía umainterface digital para transferi-los para uma fita de

gravador cassete.A utilização de microprocessadores passou a ser cada vez mais intensa, e os instrumentos

passaram a ter cada vez mais recursos. No início da década de 1980 surgiu então uma novacategoria de instrumentos musicais: o sampler. O primeiro modelo comercial foi apresentado em1980 pela empresa australiana Fairlight, e seu preço era cerca de 30 mil dólares na época. Umamáquina totalmente digital, com oito vozes de polifonia, um teclado de seis oitavas, duas unidadesde disquete de 8” (para armazenamento dos sons digitalizados), e um monitor de vídeo para ediçãomanual na tela, com uma caneta especial. O instrumento, criado por Kim Ryrie e Peter Vogel, eracontrolado por dois microprocessadores Motorola 6800, e além de ser um sampler (gravação ereprodução digital de sons, com resolução de 8 bits), também operava com síntese aditiva. O customuito alto aliado a problemas de comercialização dificultaram o sucesso do Fairlight, que mesmoassim cativou vários artistas na época como, por exemplo, Peter Gabriel, Thomas Dolby, StevieWonder e Kate Bush.

Na mesma onda do Fairlight, surgiram também nosEUA o Synclavier, com um sistema básico também emtorno de 30 mil dólares, e o Emulator, da E-mu, que foi oprimeiro sampler “acessível” (para quem tivesse 9 mildólares no bolso). Todos eles eram digitais e trabalhavamcom samples de 8 bits. Na Alemanha, surgiu o PPG Wave,que custava cerca de 10 mil dólares, e podia reproduziramostras pré-digitalizadas (depois aperfeiçoado para operar

também como sampler).Estava decretado o fim dos sintetizadoresanalógicos, e depois de vários instrumentos “híbridos”(geração do som digital e processamento analógico), o

golpe de misericórdia veio em 1984 com o lançamento do Yamaha DX7 que, além de sertotalmente digital, gerava o som por um processo jamais visto antes. Depois do insucesso obtidocom seu primeiro sintetizador polifônico CS80, a Yamaha foi buscar na Universidade de Stanford atecnologia que causou um dos maiores impactos no mercado dos instrumentos musicais: a sínteseFM, desenvolvida por John Chowning, e que permite a criação de sons de enorme complexidadeatravés da modulação da freqüência de uma senóide por outra senóide de freqüência igual oupróxima. O processo foi aperfeiçoado, e a Yamaha integrou em poucos chips toda a circuitaria

necessária, o que possibilitou uma redução no custo final de fabricação. Além da enorme gama detimbres possíveis, o que mais impressionava era a expressividade, podendo-se ter uma mudançaradical de sonoridade dependendo da força do toque na tecla. Nada de VCOs e filtros! O DX7 ainda

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 10/124

trazia mais inovações impressionantes: polifonia de 16 notas, teclado com sensibilidade a keyvelocity e aftertouch (controle de expressividade também por sopro ou pedal), 32 memórias internase mais 64 em cartucho, e uma das primeiras implementações de MIDI. O DX7 teve muitos“herdeiros”, comercializados pela Yamaha por vários anos, e a síntese FM ainda hoje é utilizada –de forma bastante simplificada – nos chips sintetizadores que existem nas placas de som maissimples.

Para concorrer com o DX7, que talvez tenha sido um dos sintetizadores mais vendidos atéhoje, a Roland apresentou o D-50, que usava formantes de transientes de sons sampleados,misturadas a outras formas-de-onda, e outros fabricantes também tentaram inovar de alguma forma,como o Casio CZ 5000, que usava síntese por modulação de fase, e o Prophet VS, que usava síntesevetorial, que depois foi adotada também no Yamaha SY-22 e no Korg Wavestation.

Ainda que os processos inovadores, como a síntese FM, permitissem a criação de timbresimpressionantes, o mercado cada vez mais pedia sons acústicos: piano, sax, cordas etc. Como ossamplers eram caros e inacessíveis para a maioria dos músicos, a saída foi fazer instrumentos comvárias amostras na memória, pré-sampleadas na fábrica (como o conceito do PPG). Nessa linha,surgiram então inúmeros instrumentos “sample-players” que predominam até hoje. Essesinstrumentos possuem controle, geração e processamento do som totalmente digital, embora o

processo de modelagem do timbre seja a síntese subtrativa (filtros etc). Ao fim da década de 1980 jáhavia muitos instrumentos digitais com timbres sampleados, dentre eles o Korg M1, que consolidouo conceito de workstation (sintetizador com seqüenciador), o E-mu Proteus, o Roland U-110, ealguns outros.

Com o aumento da capacidade de processamento digital, novos desenvolvimentos passarama ser viáveis, como a síntese por modelagem física, presente na série Yamaha VL e nos Roland VG-8, por exemplo. A partir daí, a indústria vem direcionando em produtos cada vez mais sofisticados,baseados em chips proprietários.

4a Fase: Softwares e Dispositivos Virtuais 

A fase atual, a partir de meados da década de 1990, vem sendo marcada pelo aprimoramento daqualidade das amostras sampleadas, graças ao barateamento das memórias digitais. Outra tendênciaé o retorno ao controle do som em tempo-real, praticamente impossível nos instrumentos que sótinham um visor e meia dúzia de botões: hoje, quase todos os sintetizadores vêm com botõesrotativos ou deslizantes no painel, que dão ao músico a possibilidade de ajustar com precisão, e aqualquer momento, vários parâmetros do som que está sendo executado.

O domínio e popularização da tecnologiade processamento digital de sinais (DSP) tambémtem sido fundamental para o surgimento de novasempresas e produtos. Apesar de a indústria estar

cada vez mais fechada em chips proprietários, como barateamento dos microcomputadores e oaumento impressionante do seu poder deprocessamento, basta ter um bom conhecimentoem DSP para se desenvolver uma aplicação capazde gerar e processar sons com qualidade. Dentrodesse conceito, estão surgindo cada vez maissintetizadores virtuais, que funcionam dentro docomputador, e por isso podem custar bem menosdo que seus similares “palpáveis”. Nossa abordagem histórica acaba aqui.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 11/124

O som como fenômeno físico.

O som é a propagação de uma frente de compressão mecânica ou onda longitudinal; estaonda se propaga de forma circuncêntrica, apenas em meios materiais -- que têm massa eelasticidade, como os sólidos, líquidos ou gasosos, quer dizer, não se propaga no vácuo. Os sons

naturais são, na sua maior parte, combinações de sinais, mas um som puro monotónico,representado por uma senóide pura, possui uma velocidade de oscilação ou freqüência que se medeem hertz (Hz) e uma amplitude ou energia que se mede em decibéis. Os sons audíveis pelo ouvido humano têm uma freqüência entre 20 Hz e 20 kHz. Acima e abaixo desta faixa estão ultra-som e infra-som, respectivamente.

Seres humanos e vários animais percebem sons com o sentido da audição, com seus dois ouvidos, o que permite saber a distância e posição da fonte sonora: a chamada audiçãoestereofônica. Muitos sons de baixa freqüência também podem ser sentidos por outras partes do corpo e pesquisas revelam que elefantes se comunicam através de infra-sons.

Os sons são usados de várias maneiras, muito especialmente para comunicação através da fala ou, por exemplo, música. A percepção do som também pode ser usada para adquirir

informações sobre o ambiente em propriedades como características espaciais (forma, topografia) epresença de outros animais ou objetos. Por exemplo, morcegos, baleias e golfinhos usam a ecolocalização para voar e nadar por entre obstáculos e caçar suas presas. Navios e submarinosusam o sonar; seres humanos recebem e usam informações espaciais percebidas em sons.

Ondas

As ondas podem ser classificadas como um movimento harmônico simples.Uma onda em física é uma perturbação oscilante de alguma grandeza física no espaço e

periódica no tempo. A oscilação espacial é caracterizada pelo comprimento de onda e aperiodicidade no tempo é medida pela freqüência da onda, que é o inverso do seu período. Estas

duas grandezas estão relacionadas pela velocidade de propagação da onda.Fisicamente uma onda é um pulso energético que se propaga através do espaço ou atravésde um meio (líquido, sólido ou gasoso). Segundo alguns estudiosos e até agora observado, nadaimpede que uma onda magnética se propague no vácuo ou através da matéria, como é o caso das  ondas eletromagnéticas no vácuo ou dos neutrinos através da matéria, onde as partículas do meiooscilam à volta de um ponto médio mas não se deslocam. Exceto pela radiação eletromagnética, eprovavelmente as ondas gravitacionais, que podem se propagar através do vácuo, as ondas existemem um meio cuja deformação é capaz de produzir forças de restauração através das quais elasviajam e podem transferir energia de um lugar para outro sem que qualquer das partículas do meioseja deslocada; isto é, a onda não transporta matéria. Há, entretanto, oscilações sempre associadasao meio de propagação.

Uma onda pode ser longitudinal quando a oscilação ocorre na direcção da propagação, outransversal quando a oscilação ocorre na direcção perpendicular à direcção de propagação da onda.Meios nos quais uma onda pode se propagar são classificados como a seguir:•   Meios lineares: se diferentes ondas de qualquer ponto particular do meio em questão podemser somadas;•   Meios limitados: se ele é finito em extensão, caso contrário são considerados ilimitados;•    Meios uniformes: se suas propriedades físicas não podem ser modificadas de diferentespontos;•   Meios isotrópicos: se suas propriedades físicas são as mesmas em quaisquer direções.. •  Ondas oceânicas de superfície , que são perturbações que se propagam através da água (vejatambém surf e tsunami).•  Som - Uma onda mecânica que se propaga através dos gases, líquidos e sólidos, que é deuma freqüência detectada pelo sistema auditivo. Uma onda similar é a onda sísmica presente nos terremotos, que podem ser dos tipos S, P e L .

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 12/124

•  Luz, Ondas de rádio, Raio X, etc. são ondas eletromagnéticas. Neste caso a propagação épossível através do vácuo.Todas as ondas tem um comportamento comum em situações padrões. Todas as ondas tem asseguintes características:•  Reflexão - Quando uma onda volta para a direção de onde veio, devido à batida em materialreflexivo.•  Refração - A mudança da direção das ondas, devido a entrada em outro meio. A velocidadeda onda varia, pelo que o comprimento de onda também varia, mas a frequência permanece sempreigual, pois é característica da fonte emissora.•  Difração - O espalhamento de ondas, por exemplo quando atravessam uma fenda detamanho equivalente a seu comprimento de onda. Ondas com baixo comprimento de onda sãofacilmente difratadas. •  Interferência - Adicão ou subtração das amplitudes das ondas, dependo da fase das ondas emque ocorre a superposição.•  Dispersão - a separação de uma onda em outras de diferentes freqüências.•  Vibração - Algumas ondas são produzidas através da vibração de objetos, produzindo sons.Exemplo: Cordas ( violão, violino, piano, etc.) ou Tubos ( orgão, flauta, trompete, trombone,

saxofone, etc.)Ondas transversais são aquelas em que a vibração é perpendicular à direção de propagação

da onda; exemplos incluem ondas em uma corda e ondas eletromagnéticas. Ondas longitudinais sãoaquelas em que a vibração ocorre na mesma direção do movimento; um exemplo são as ondassonoras.

Marolas na superfície de um lago são na realidade uma combinação de ondas transversais elongitudinais, então os pontos na superfície realizam percursos elípticos.

Ondas transversais podem ser polarizadas. Ondas não polarizadas podem oscilar emqualquer direção no plano perpendicular à direção de propagação. Ondas polarizadas, no entantooscilam em apenas uma direção perpendicular à linha de propagação.

Ondas podem ser descritas usando um número de variáveis, incluindo: freqüência, comprimento de onda, amplitude e período.

A amplitude de uma onda é a medida da magnitude de um distúrbio em um meio durante umciclo de onda. Por exemplo, ondas em uma corda têm sua amplitude expressada como uma distância(metros), ondas de som como pressão (pascals) e ondas eletromagnéticas como a amplitude de umcampo elétrico (volts por metro). A amplitude pode ser constante (neste caso a onda é uma onda

contínua), ou pode variar com tempo e/ou posição. A forma desta variação é o envelope da onda.O período é o tempo(T ) de um ciclo completo de uma oscilação de uma onda. A freqüência

(F ) é período dividido por uma unidade de tempo (exemplo: um segundo), e é expressa em hertz.Ondas que permanecem no mesmo lugar são chamadas ondas estacionárias, como as

vibrações em uma corda de violino.

Quando uma corda é deformada, a perturbação propaga-se por toda a corda, refletindo-senas suas extremidades fixas. Da interferência das várias ondas pode resultar uma onda estacionária,ou seja, um padrão de oscilação caracterizado por sítios (os nodos) onde não há movimento. Osnodos resultam da interferência (destrutiva) entre a crista e o ventre de duas ondas. Nos anti-nodos,onde o deslocamento é máximo, a interferência dá-se entre duas cristas ou dois ventres de onda.Cada padrão de oscilação corresponde a uma determinada freqüência a que se chama umharmónico. As freqüências de vibração variam com o comprimento da corda e com as suascaracterísticas (material, tensão, espessura), que determinam a velocidade de propagação das ondas.À freqüência mais baixa a que a corda vibra chama-se freqüência fundamental.

Ondas que se movem (não-estacionárias) têm uma perturbação que varia tanto com o tempot quanto com a distância z e pode ser expressada matematicamente como: y = A( z,t )cos(ωt - kz + φ),

onde A( z,t ) é o envelope de amplitude da onda, k é o número de onda e φ é a fase. A velocidade v desta onda é dada por: , onde  λ é o comprimento de onda.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 13/124

O efeito Doppler é uma característica observada nas ondas quando emitidas ou refletidaspor um objeto que está em movimento com relação ao observador. Foi-lhe atribuído esse nome emhomenagem a Johann Christian Andreas Doppler, que o descreveu teoricamente pela primeira vezem 1842. A primeira comprovação foi obtida pelo cientista alemão Christoph B. Ballot, em 1845,em um experimento com ondas sonoras.Em ondas eletromagnéticas, esse mesmo fenômeno foi descoberto de maneira independente, em 

1848, pelo francês Hippolyte Fizeau. Por esse motivo, o efeito Doppler  também é chamado efeito Doppler-Fizeau.Ilustração das ondas sonoras emitidas de um objecto em movimento.O comprimento de onda observado é maior ou menor conforme sua fonte se afaste ou se aproximedo observador.No caso de aproximação, a f reqüência aparente da onda recebida pelo observador fica maior que afreqüência emitida. Ao contrário, no caso de afastamento, a freqüência aparente diminui.Um exemplo típico é o caso de uma ambulância com sirene ligada que passe por um observador. Aose aproximar, o som é mais agudo e ao se afastar, o som é mais grave. De modo análogo, ao trafegarem uma estrada, o ruído do motor de um automóvel que vem em sentido contrário apresenta-semais agudo enquanto ele se aproxima, e mais grave a partir do momento em que se afasta (após

cruzar com o observador).Nas ondas luminosas este fenómeno é observável quando a fonte e o observador se afastam ou seaproximam com grande velocidade relativa. Neste caso, o espectro da luz recebida apresenta desviopara o vermelho (quando se afastam) e desvio para o violeta (quando se aproximam).

Medição de velocidades

•  O efeito Doppler permite a medição da velocidade de objectos através da reflexão de ondasemitidas pelo próprio equipamento de medição, que podem ser radares, baseados em radiofreqüência, ou lasers, que utilizam freqüências luminosas.Muito utilizado para medir a velocidade de automóveis, aviões, bolas de tênis e qualquer outro

objeto que cause reflexão, como, na Mecânica dos fluidos e na Hidráulica, em partículas sólidasdentro de um fluido em escoamento.•  Em astronomia, permite a medição da velocidade relativa das estrelas e outros objetoscelestes luminosos em relação à Terra. Essas medições permitiram aos astrónomos concluir que o universo está em expansão, pois quanto maior a distância desses objetos, maior o desvio para overmelho observado.•  Na medicina, um ecocardiograma utiliza este efeito para medir a direção e velocidade do fluxo sanguíneo ou do tecido cardíaco.•  O efeito Doppler é de extrema importância quando se está comunicando a partir de objetosem rápido movimento, como no caso dos satélites.

Ondas estacionárias são ondas que acumulam em um certo ponto do ambiente.Normalmente ocorre em encontro de alvenaria formando angulos menores que 90º. OndasEstacionárias se formam quando duas ondas idênticas se encontram, se movendo em sentidos

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 14/124

opostos. Esse tipo de onda é caracterizado por pontos fixos de valor zero, chamados de nodos, epontos de máximo também fixos, chamados de antinodos. São ondas resultantes da superposição deduas ondas de mesma f reqüência, mesma amplitude, mesmo comprimento de onda, mesma direçãoe sentidos opostos.

Pode-se obter uma onda estacionária através de uma corda fixa numa das extremidades.Com uma fonte faz-se a outra extremidade vibrar com movimentos verticais periódicos,

produzindo-se perturbações regulares que se propagam pela corda.Em que: N = nós ou nodos e V= ventres.Ao atingirem a extremidade fica, elas se refletem, retornando com sentido de deslocamento

contrário ao anterior.Dessa forma, as perturbações se superpõem às outras que estão chegando à parede,

originando o fenômeno das ondas estacionárias.Uma onda estacionária se caracteriza pela amplitude variável de ponto para ponto, isto é, há

pontos da corda que não se movimentam (amplitude nula), chamados nós (ou nodos), e pontos quevibram com amplitude máxima, chamados ventres.

É evidente que, entre nós, os pontos da corda vibram com a mesma freqüência, mas comamplitudes diferentes.

Como os nós estão em repouso, não pode haver passagem de energia por eles, não havendo,então, em uma corda estacionária o transporte de energia.

Considerando λ o comprimento de onda, temos que:•  A distância entre dois nós consecutivos vale .•  A distância entre dois ventres consecutivos vale .•  A distância entre um nó e um ventre consecutivo vale .esta ateria e facil e so revisar quando chegar em your house Amplitude é uma medida escalar não negativa da magnitude de oscilação de uma onda. Nodiagrama a seguir:A distância Y, é a amplitude da onda, também conhecida como "pico de amplitude" para distinguirde outro conceito de amplitude, usado especialmente em engenharia elétrica:  root mean square amplitude (ou amplitude rms), definida como a raiz quadrada da média temporal da distânciavertical entre o gráfico e o eixo horizontal. O uso de "pico de amplitude" não é ambíguo para ondassimétricas e periódicas como senóides, onda quadrada e onda triangular. Para ondas sem simetria,como por exemplo pulsos periódicos em uma direção, o termo "pico de amplitude" torna-seambíguo pois o valor obtido é diferente dependendo se o máximo valor positivo é medido emrelação à média, se o máximo valor negativo é medido em relação à média ou se o máximo sinalpositivo é medido em relação ao máximo sinal negativo e dividido por dois. Para ondas complexas,especialmente sinais sem repetição tais como ruído, a amplitude rms é usada frequentemente porquenão tem essa ambigüidade e também porque tem um sentido físico. Por exemplo, a potência

transmitida por uma onda acústica ou eletromagnética ou por um sinal elétrico é proporcional à raizquadrada da amplitude rms (e em geral, não tem essa relação com a raiz do pico de amplitude)Amplitude de um movimento pendular.A seguinte equação será adotada para formalizar amplitude:A é a amplitude da onda.Amplitude de uma onda é a medida da magnitude da máxima perturbação do meio durante um cicloda onda. A unidade utilizada para a medida depende do tipo da onda. Por exemplo, a amplitude deondas de som e sinais de áudio costumam ser expressas em decibéis (dB).A amplitude de uma onda pode ser constante ou variar com o tempo. Variações de amplitude são abase para modulações AM.Cinco ondas senoidais com diferentes freqüências (a azul é a de maior freqüência). Repare que o 

comprimento da onda é inversamente proporcional à freqüência.

Freqüência é uma grandeza física ondulatória que indica o número de revoluções (ciclos, voltas,

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 15/124

oscilações, etc) por unidade de tempo.Alternativamente, podemos medir o tempo decorrido para uma oscilação. Este tempo em particularrecebe o nome de período (T). Desse modo, a frequência é o inverso do período.-Hertz (Hz): Corresponde ao número de oscilações por segundo. Nome dado em honra ao físicoAlemão Heinrich Rudolf Hertz.-Rotações por minuto (rpm): Corresponde ao número de oscilações por minuto.

Considere o evento "dar a volta em torno de si mesmo". Suponha que leve 0,5 segundos para queesse evento ocorra. Esse tempo é o seu período (T). Com isso, podemos deduzir que em 1 segundoo evento ocorrerá duas vezes, ou seja, será possível "dar duas voltas em torno de si mesmo". Nessecaso, sua frequência é de 2 vezes por segundo, ou 2 Hz (2 × 0,5 s =1 s). Imagine agora que sejapossível realizarmos esse mesmo evento em 0,25 segundos. Consequentemente, em um segundo eleocorrerá 4 vezes, fazendo com que a frequência passe a ser de 4Hz (4 × 0,25 s= 1 s). Perceba que otempo considerado para frequência é sempre o mesmo, ou seja, 1 segundo. O que varia é o períododo evento, que no primeiro caso foi de 0,5 s e no segundo de 0,25 s. Assim sendo, para sabermosquantas vezes o evento ocorre em 1 segundo precisamos saber quantas vezes ele "cabe" dentrodesse segundo.Portanto temos que:

a) No primeiro caso, 2 × 0,5 s = 1 s, temos que:

F = 2 HzT = 0,5 s

Portanto, 2 × 0,5 s =1 s; ou seja, . Daí, temos que :.b) No segundo caso, 4 × 0,25 s = 1 s, temos que:

f = 4 HzT = 0,25 s

Portanto, 4 × 0,25 s =1 s; ou seja, . Daí, temos que :. Em física, comprimento de onda é a distância entre valores repetidos num padrão de onda. Éusualmente representado pela letra grega lambda (λ ).Numa onda senoidal, o comprimento de onda é a distância entre picos (ou máximos):No gráfico acima, o eixo x representa a distância e o eixo y representa alguma quantidade periódica,como por exemplo a pressão, no caso do som ou o campo elétrico para ondas eletromagnéticas ou aaltura da água para uma onda no mar profundo. A altura no eixo y é também chamada de amplitudeda onda.O comprimento de onda  λ tem uma relação inversa com a f requência f , a velocidade de repetição dequalquer fenómeno periódico. O comprimento de onda é igual à velocidade da onda dividida pela

frequência da onda. Quando se lida com radiação electromagnética no vácuo, essa velocidade éigual à velocidade da luz 'c', para sinais (ondas) no ar,essa velocidade é a velocidade a que a ondaviaja. Esta relação é dada por:

onde: λ = comprimento de onda de uma onda sonora ou onda electromagnética;c = velocidade da luz no váculo = 299.792,458 km/s ~ 300.000 km/s = 300.000.000 m/s ouc = velocidade do som no ar = 343 m/s a 20 °C (68 °F);

 f = frequência da onda 1/s = Hz.

A velocidade de uma onda pode portanto ser calculada com a seguinte fórmula:onde:

v = velocidade da onda. λ = comprimento de onda de uma onda sonora ou onda electromagnética;

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 16/124

T é o período da onda.

O inverso do período, 1/T, é chamado de frequência da onda, ou frequência de onda:e mede o número de ciclos (repetições) por segundo executados pela onda. É medida em Hertz(ciclos/segundo).Para caracterizar uma onda, portanto, é necessário conhecer apenas duas quantidades, a velocidade

e o comprimento de onda ou a frequência e a velocidade, já que a terceira quantidade pode serdeterminada da equação acima, que podemos reescrever como:Quando ondas de luz (e outras ondas electromagnéticas) entram num dado meio, o seucomprimento de onda é reduzido por um factor igual ao í ndice de refracção n do meio, mas afrequência permanece inalterada. O comprimento de onda no meio, λ ' é dado por:onde:

 λ0 é o comprimento de onda da onda no vácuo.

Na área de física, é chamado de período o tempo necessário para que um movimento realizado porum corpo volte a se repetir.

Por exemplo, em um relógio de pêndulo, o período do pêndulo é determinado pelo tempo que esteleva para realizar o movimento de ida e de volta, nota-se que depois deste período o pêndulo fará omesmo movimento novamente, ou seja, se repetirá.O período é usualmente representado pela letra T. O inverso do período é chamado de freqüência.Ou seja:Frequência fundamental e Sobretomes, Série harmônica (música) Em acústica e música, Fundamental, é a mais baixa e a mais forte f requência componente da sérieharmônica de um som. Tecnicamente a fundamental corresponde ao primeiro harmônico. Afundamental é responsável pela percepção da altura de uma nota, enquanto que os demaisharmônicos participam da composição da forma de onda do som

Em acústica e telecomunicações, uma harmônica (um harmónico,em Portugal) de uma onda é uma frequência componente do sinal que é um múltiplo inteiro da frequência fundamental. Para umaonda seno (sinusoidal), ela é um múltiplo inteiro da frequência daonda. Por exemplo, se a frequência é  f , as harmônicas possuem asfrequências 2 f , 3 f , 4 f , etc.

Em termos musicais, as harmônicas são componentes de um tom harmônico cujo som é multiplicado por um número inteiro, ouadicionado com uma nota tocada em um instrumento musical. Osmúltiplos não-inteiros são chamados de parciais ou sobretonsdesarmônicos. A amplitude e o posicionalmento das harmônicas e parciais que conferem timbres diferentes para os instrumentos (apesar de não serem comumentedetectados por um ouvido humano não treinado), e são as trajetórias separadas dos sobretons dedois instrumentos tocados em um intervalo que permitem a percepção de seus sons como separados.Os sinos possuem parciais perceptíveis mais claramente do que a maioria dos instrumentos.Configuração típica de um som com uma frequência fundamental de 100 HzAmostra de uma série de harmônicas:

1f  100 Hz  fundamental primeira harmônica

2f  200 Hz primeiro sobretom segunda harmônica

3f  300 Hz segundo sobretom terceira harmônica

As amplitudes variam, mas, de um modo geral, as harmônicas mais elevadas terão amplitudes cada

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 17/124

vez menores.Em muitos instrumentos musicais, é possível se produzir as harmônicas superiores sem a notafundamental estar presente. Em uma caso simples (como em uma flauta doce), isto tem o efeito deelevar a nota em uma oitava; porém em casos mais complexos outras variações também podemocorrer. Em alguns casos isto também modifica o timbre da nota. Este é parte do método normalpara a obtenção de notas mais altas nos instrumentos de sopro. A técnica estendida inclui algumas

técnicas não-convencionais de tocar multifônicas que também geram harmônicas adicionais.Numa guitarra acústica, o timbre do som será diferente se beliscarmos a corda com os dedos da mãodireita em sítios diferentes, porque as intensidades dos vários harmónicos será diferente. Aoescolhermos o sítio onde beliscamos a corda estamos por isso a escolher a configuração harmónicado som resultante.Em instrumentos de corda é possível a produção de notas muito puras, chamadas de harmônicaspelos músicos, as quais possuem uma alta qualidade, assim como uma alta intensidade localizadano nó das cordas.

Numa guitarra, se beliscarmos uma corda com um dedo da mão direita enquanto tocamos levemente(sem pressionar) com um dedo da mão esquerda nessa corda em determinados trastos

(correspondendo aos nodos harmónicos, sítios em que não há movimento no padrão de oscilação),podemos ouvir distintamente o harmônico correspondente, porque os outros harmônicos assim sãoeliminados ou, pelo menos, a sua intensidade é consideravelmente diminuída.

As harmônicas podem ser utilizadas para se verificar a afinação de um instrumento. Por exemplo,tocando-se levemente o nó encontrado na metade da corda mais alta de um violoncelo produz amesma frequência que um toque na segunda corda mais alta com um nó localizado em um terço dacorda. Para mais informações sobre a voz humana veja canto harmônico, o qual utiliza harmônicas.As harmônicas podem ser utilizadas como a base dos sistemas de entonação justa. O compositor Arnold Dreyblatt é capaz de produzir diferentes harmônicas em uma única corda de seu contrabaixoalterando levemente sua técnica de arco.

A frequência fundamental básica adjacente ao tempo relativo à dilatação do metal de sopro é arecíproca do período do fenômeno periódico atemporal que interfere na ambientação sonora doinstrumento.Espectro sonoro é o conjunto de todos as ondas que compõem os sons audíveis e não audíveis peloser humano.Uma onda triangular no domínio do tempo (topo) e o gráfico de espectro correspondente (embaixo).A freqüência fundamental é de 220 Hz (Lá2). Cada linha vertical indica a amplitude de uma dasfreqüências componentes da onda.Explicando com mais minúcia, sendo um som complexo (som composto por mais do que umafrequência) constituído por parcias harmónicos e não harmónicos (ou inarmónicos), entende-se porespectro o conjunto de sons parciais, ordenados a partir de um som fundamental, segundo uma

relação frequência/amplitude. Definindo o valor  da frequência do som fundamental, é possívelassinalar quais são e não são parciais harmónicos calculando, numa proporção de 2 para 1, osvalores das frequências dos parcias harmónicos. Parciais inarmónicos são todos os outros que nãoobedecem à harmonia desta relação. O espectro de um som complexo caracteriza graficamente aforma da onda que o define, e está sempre presente ao distinguirmos uma voz voz de um instrumento musical, e estes dois de um carro a buzinar, entre outras situações. Esta onda resultantecontribui para determinar a fonte (mecânica ou digital) de sons complexos a partir do som em si,para posteriormente poderem ser organizados por Timbre e outras propriedades.Matematicamente, representa-se o espectro sonoro como uma série de Fourier, uma função nodomínio das freqüências, em oposição à forma de onda que é uma função no domínio do tempo.Qualquer onda sonora, assim como qualquer outro fenômeno ondulatório, pode ser representadoatravés de seu espectro. Um gráfico de espectro sonoro é composto de barras, cada uma delasrepresentando a amplitude de uma das freqüências componentes do som analisado. Este tipo degráfico é utilizado em equipamentos eletrônicos, tais como analisadores de espectro ou em 

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 18/124

equalizadores. No caso dos analisadores digitais, o cálculo é realizado através da TransformadaRápida de Fourier - FFT (Fast Fourier Transform), um algoritmo bastante eficiente que permitecalcular o valor de uma transformada discreta de Fourier, em tempo real.Os sons de freqüência inferior a 20 Hz chamam-se infra-sons e provocam náuseas e perturbaçõesintestinais. Os sons de freqüência superior a 20 000 Hz são os ultra-sons e são usados, por exemplo,nas ecografias e nos sonares. O Homem consegue ouvir sons entre 20 Hz e 20 000 Hz e produzir

sons entre 85 Hz e 1 100 Hz. Os cães conseguem ouvir sons entre os 15 Hz e os 50 000 Hz eproduzem sons entre os 452 Hz e os 1 800 Hz. Os morcegos conseguem ouvir sons de freqüênciasentre os 1000 Hz e os 120 000 Hz mas só produzem sons a partir dos 10 000 Hz. Em física, série harmônica é o conjunto de ondas composto da freqüência fundamental e de todosos múltiplos inteiros desta freqüência. De forma geral, uma série harmônica é resultado da vibraçãode algum tipo de oscilador harmônico. Entre estes estão inclusos os pêndulos, corpos rotativos (taiscomo motores e geradores elétricos) e a maior parte dos corpos produtores de som dos instrumentosmusicais. As principais aplicações práticas do estudo das séries harmônicas estão na música e naanálise de espectros eletromagnéticos, tais como ondas de rádio e sistemas de corrente alternada.Em matemática, o termo série harmônica refere-se a uma série infinita. Também podem ser

utilizadas outras ferramentas de análise matemática para estudar este fenômeno, tais como as transformadas de Fourier e as séries de Fourier.Desde a antiguidade, muitas civilizações perceberam que um corpo em vibração produz sons emdiferentes freqüências. Os gregos há mais de seis mil anos já estudavam este f enômeno através deum instrumento experimental, o monocórdio. Os textos mais antigos de que se tem conhecimentosobre o assunto foram escritos pelo f ilósofo e matemático grego Pitágoras. Aproximadamente namesma época, os chineses também realizavam pesquisas com harmônicos através de flautas.Sobretom, Série harmônica (música)Pitágoras percebeu que ao colocar uma corda em vibração ela não vibra apenas em sua extensãototal, mas forma também uma série de nós, que a dividem em seções menores, os ventres, quevibram em frequências mais altas que a fundamental. Se o monocórdio for longo o suficiente, estesnós e ventres são visíveis. Logo se percebeu que estes nós se formam em pontos que dividem acorda em duas partes iguais, três partes iguais e assim sucessivamente. A figura ao lado mostra osnós e ventres das quatro primeiras freqüências de uma série. Para facilitar a compreensão eles sãomostrados separadamente, mas em uma corda real, todos se sobrepõem, gerando um desenhocomplexo, semelhante à forma de onda do instrumento. Se colocarmos o dedo levemente sobre umdos nós, isso provoca a divisão da corda em seções menores e torna os ventres mais visíveis. Estaexperiência pode ser feita com um violão, ao pousar um dedo levemente sobre o 12º traste ededilhar a corda. Isso divide a corda em duas seções iguais e permite ver dois ventres distintos emvibração.Pela relação entre os comprimentos das seções e as freqüências produzidas por cada uma das

subdivisões, pode-se facilmente concluir que a corda soa simultaneamente, na freqüência fundamental (F) e em todas as suas freqüências múltiplas inteiras (2F, 3F, 4F, etc.). Cada umadessas freqüências é um harmônico. A altura da nota produzida pela corda é determinada pelafreqüência fundamental. As demais freqüências, embora ouvidas, não são percebidas como alturasdiscretas, mas sim como parte do timbre característico da corda.Devido à limitação da elasticidade da corda, os primeiros harmônicos soam com maior intensidadeque os posteriores e exercem um papel mais importante na determinação da forma de onda econseqüentemente, no timbre do instrumento. O mesmo resultado pode ser obtido ao colocar umacoluna de ar em vibração, embora neste caso não seja possível ver os nós e ventres da onda.O conhecimento da série harmônica permitiu à maior parte das civilizações do mundo, escolher,dentre todas as freqüências audíveis, um conjunto reduzido de notas que soasse agradável ao

ouvido. Pitágoras percebeu, por exemplo, que o segundo harmônico (a nota com o dobro dafreqüência da fundamental) soava como se fosse a mesma nota, apenas mais aguda. Esta relação defrequências (F/2F, ou 2/1 se considerarmos os comprimentos das cordas), que hoje chamamos de 

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 19/124

oitava, é percebida como neutra (nem consonante nem dissonante). O próximo intervalo, entre osegundo e o terceiro harmônico, (2F/3F ou 3/2) soa fortemente consonante. Este é o intervalo quehoje é chamado de quinta. Os intervalos seguintes obtidos pela sucessão de freqüências da série, sãoos de 4/3 (quarta), 5/4 (terça maior) e 6/5 (terça menor), sucessivamente menos consonantes.Pitágoras também percebeu que intervalos produzidos por relações de números muito grandes,como 16/15 (segunda menor) soam fortemente dissonantes. Todos estes intervalos fazem parte dos 

modos da música grega e da escala diatônica moderna. O intervalo de quinta, sobretudo, por ser omais consonante da série, foi a base para a construção da maior parte das escalas musicaisexistentes no mundo.A série harmônica é uma série infinita, composta de ondas senoidais com todas as freqüênciasmúltiplas inteiras da freqüência fundamental. Tecnicamente, a freqüência fundamental é o primeiroharmônico, no entanto, devido a divergências de nomenclatura, alguns textos apresentam afreqüência 2F como sendo o primeiro harmônico. Para evitar ambigüidades, consideramos, noâmbito desse artigo, que a fundamental corresponde ao primeiro harmônico. Não existe uma únicasérie harmônica, mas sim uma série diferente para cada freqüência fundamental. A Tabela abaixomostra dois exemplos de série harmonica. Uma se inicia no Lá1(110 Hz) e a outra no Do1(132 Hz).A freqüência dá nota Do1 foi arredondada para simplificar a tabela. Em um sistema temperado as

freqüências das notas seriam ligeiramente diferentes.A partitura abaixo mostra as 16 primeiras notas da série iniciada em Do2, mostrada na tabela acima.Como o intervalo de quinta é o mais consonante de todos, a maior parte das civilizações o adotouintuitivamente para selecionar as notas que tomariam parte de suas escalas musicais. Isso incluialém da escala diatônica usada na música ocidental, os modos gregos e diversas escalaspentatônicas usadas na Ásia, África e por alguns povos indígenas das Américas.

Se tomarmos por exemplo, a série harmônica cuja fundamental é a nota Do, o segundo harmônicoserá o Do repetido uma oitava acima. O terceiro, será uma nota Sol, uma quinta acima do segundo.Basta baixar de uma oitava esta nota para que o primeiro Do e o Sol estejam a uma quinta dedistância. Se, de forma semelhante, tomarmos agora o Sol como fundamental de uma nova sérieobtemos, por processo semelhante, o Ré, uma quinta acima desta nota. Procedendo sucessivamentedesta forma, as quintas vão se suceder na seqüência: Do, Sol, Ré, Lá, Mi, Si, Fá#, Do#, Sol# Ré#,Lá# e Fá (as doze notas da escala cromática), após o que, o ciclo se repete.Se tomarmos qualquer subconjunto deste ciclo e reordenarmos suas notas de forma que pertençamtodas à mesma oitava, teremos uma escala musical. Por exemplo, se tomarmos as primeiras cinconotas do ciclo: Do, Sol, Ré, Lá e Mi e a reordenarmos (transpondo o Ré o o Lá uma oitava abaixo e

o Mi em duas oitavas abaixo) teremos uma seqüência de notas ascendente: Do, Ré, Mi, Sol e Lá,uma escala pentatônica utilizada na música chinesa.Se tomarmos a seqüência de 7 notas: Fá, Do, Sol, Ré, Lá, Mi e Si e fizermos uma reordenação deoitavas semelhante à mostrada acima, teremos a seqüência Do, Ré, Mi, Fá, Sol, Lá e Si, a escaladiatônica maior usada na música tonal.Escalas microtonais, como as Ragas indianas, podem ser obtidas de forma semelhante, a partir dasérie harmônica, mas nem todas as suas notas se baseiam no ciclo das quintas. Algumas notas comintervalos menores que um tom provêm de relações entre harmônicos mais altos, que geram ciclosmais longos que o de doze semitons da escala cromática ocidental.Uma vez que a série harmônica é obtida naturalmente em qualquer oscilador harmônico osinstrumentos musicais com notas determinadas foram inicialmente construídos de forma a utilizar

apenas as notas pertencentes à série. No entanto, esse tipo de construção gera intervalosligeiramente desafinados, principalmente nas oitavas mais altas. Podemos notar isso na tabelaacima, comparando a mesma nota em séries diferentes. Muitas das notas que se repetem nas duas

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 20/124

séries possuem freqüências diferentes (como por exemplo o Sol4 linhas 6 e 7). Isso significa queum instrumento afinado de acordo com a série de Lá não poderia tocar em conjunto com um outroafinado de acordo com a série de Do. Para corrigir este problema, os músicos possuíaminstrumentos de sopro afinados em diversas tonalidades diferentes, que eram usados de acordo coma composição executada. Os instrumentos de cordas precisavam ser reafinados para cada tonalidadediferente. Para minimizar esse problema, utilizam-se atualmente escalas temperadas. O sistema de

temperamentos, introduzido na época da música barroca, altera as freqüências de algumas notaspara permitir que todos os intervalos de quinta e oitava sejam consonantes, mesmo que as notasobtidas fiquem ligeiramente diferentes das notas da série harmônica. Isso permite a afinação eminstrumentos polifônicos como o piano ou o órgão ou entre instrumentos diferentes.O conhecimento da série harmônica é importante para a construção de instrumentos musicais,principalmente aqueles baseados na vibração de colunas de ar (instrumentos de sopro ou aerofones).Nestes instrumentos, o ar vibra dentro de tubos. Cada tubo possui uma freqüência fundamentalderivada do comprimento do tubo. Somente as notas da série harmônica derivada desta fundamentalpodem ser executadas em cada comprimento de tubo. Para permitir a utilização destes instrumentospara executar músicas em qualquer escala, é preciso utilizar algum meio para alterar a freqüênciafundamental do tubo e possibilitar a execução das notas que faltam na sua tessitura original, seja

através da utilização de orifícios como os da flauta ou alterando o comprimento do tubo através deválvulas ou pistões, como em um trompete. Outra forma de aumentar a tessitura de um aerofone éfazer instrumentos compostos de vários tubos, como por exemplo, a flauta de pan e os órgãos.Também para os demais instrumentos de altura definida (afináveis), o conhecimento da sérieharmônica permite conseguir maior controle sobre a execução ou afinação. Em um violão, porexemplo, podemos notar que a distância entre os trastes não é constante. Eles ficam mais próximosna região mais aguda do braço. Esta disposição obedece a distribuição dos nós na série harmônicada corda.Em matemática, uma série de Fourier, nomeada em honra de Jean-Baptiste Joseph Fourier (1768-1830), é a representação de uma f unção periódica (muitas vezes, nos casos mais simples, tidas comotendo período 2π) como uma soma de funções periódicas da formaque são harmônicas de ei x. De acordo com a f órmula de Euler, as séries podem ser expressasequivalentemente em termos de funções seno e co-seno.Fourier foi o primeiro a estudar sistematicamente tais séries infinitas, após investigaçõespreliminares de Euler, D'Alembert, e Daniel Bernoulli. Ele aplicou estas séries à solução da equaçãodo calor, publicando os seus resultados iniciais em 1807 e 1811, e publicando a sua Théorie

analytique de la chaleur em 1822. De um ponto de vista moderno, os resultados de Fourier são algoinformais, em boa parte devido à falta de uma notação concisa de funções e integrais nos inícios doséculo XIX. Mais tarde, Dirichlet e Riemann expressaram os resultados de Fourier com grandeprecisão e rigor formal.Muitas outras transformadas de Fourier foram definidas desde então, estendendo a outras aplicações

a ideia inicial de representar qualquer função periódica pela sobreposição de harmónicas. A áreagenérica destes estudos é hoje por vezes definida como a análise harmónica.Séries de Fourier são formas de representar funções como soma de exponenciais ou senóides.As séries de Fourier podem ser calculadas pela forma trigonométrica ou pela forma complexa.Em música, chama-se timbre à característica sonora que nos permite distinguir se sons de mesmafreqüência foram produzidos por fontes sonoras conhecidas e que nos permite diferenciá-las.Quando ouvimos, por exemplo uma nota tocada por um piano e a mesma nota (uma nota com amesma altura) produzida por um violino, podemos imediatamente identificar os dois sons comotendo a mesma freqüência , mas com características sonoras muito distintas. O que nos permitediferenciar os dois sons é o timbre instrumental. De forma simplificada podemos considerar que otimbre é como a impressão digital sonora de um instrumento ou a qualidade de vibração vocal.

Embora as características físicas responsáveis pela diferenciação sonora dos instrumentos sejambem conhecidas, a forma como ouvimos os sons também influencia na percepção do timbre. Este éum dos objetos de estudo da psicoacústica.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 21/124

 

Embora este fenômeno seja conhecido há séculos, somente há algumas décadas, com o advento daeletrônica foi possível compreendê-lo com mais precisão.O Lá central do piano possui a freqüência de 440Hz. A mesma nota produzida por um violinopossui a mesma freqüência. O que permite ao ouvido diferenciar os dois sons e identificar sua fonteé a forma da onda e seu envelope sonoro.

Quando uma corda, uma membrana, um tubo ou qualquer outro objeto capaz de produzir sons entraem vibração, uma série de ondas senoidais é produzida. Além da frequência fundamental, quedefine a nota, várias f reqüências harmônicas também soam. O primeiro harmônico de qualquer notatem o dobro de sua freqüência. O segundo harmônico tem freqüência uma vez e meia maior que oprimeiro e assim por diante. Qualquer corpo em vibração produz dezenas de freqüênciasharmônicas que soam simultaneamente à nota fundamental. No entanto o ouvido humano não écapaz de ouvir os harmônicos com freqüencia superior a 20000Hz. Além disso, devido àscaracterísticas de cada instrumento ou da forma como a nota foi obtida, alguns dos harmônicosmenores e audíveis possuem amplitude diferente de um instrumento para outro.Se somarmos a amplitude da freqüência fundamental às amplitudes dos harmônicos, a forma deonda resultante não é mais senoidal, mas sim uma onda irregular cheia de cristas e vales. Como a

combinação exata de amplitudes depende das características de cada instrumento, suas formas deonda também são muito distintas entre si. Veja os exemplos abaixo:Forma de onda produzida por um xilofone. Note que no início da nota (ataque), a onda possui muitomais harmônicos, que se devem à batida pela baqueta. Depois disso, a forma de onda é resultadosomente da vibração da madeiraNão é só a forma de onda que define que um som é produzido por determinado instrumento, mastambém a forma como o som se inicia, se mantém e termina ao longo do tempo. Esta característicaé chamada envelope sonoro ou envoltória sonora. Ainda que as formas de onda de doisinstrumentos sejam muito parecidas, ainda poderíamos distingui-las pelo seu envelope. O envelopeé composto basicamente de quatro momentos: Ataque, decaimento, sustentação e relaxamento. Esteperfil, conhecido como envelope ADSR, é mostrado abaixo:A imagem ao lado mostra o envelope característico de três instrumentos. O primeiro é de uma tabla,espécie de tambor da Índia. Veja como o som surge quase instantaneamente após a percussão dapele pelas mãos do executante e como cada nota tem uma duração muito curta. A segunda ondamostra três notas produzidas por uma trompa. Aqui a nota se inicia com um aumento mais gradualde intensidade, sofre um pequeno decaimento após o início da nota e dura todo o tempo em que otrompista mantém o sopro, desaparecendo de forma bastante rápida ao final das notas. O terceiroexemplo mostra uma longa nota produzida por uma flauta. O som surge muito suavemente,mantém-se com amplitude quase constante e depois desaparece lentamente. Vejamos com maisdetalhes cada um dos momentos presentes nestes exemplos:Ataque: é o início de cada nota musical. Em um instrumento de corda tocado com arco, o som

surge e aumenta lentamente de intensidade, assim como no exemplo da flauta. Se a mesma cordafor percutida o som surgirá muito rapidamente e com intensidade alta. Dependendo do instrumento,o ataque pode durar de alguns centésimos de segundo até mais de um segundo.Decaimento: em alguns instrumentos, após o ataque o som sofre um decaimento de intensidadeantes de se estabilizar. Em um instrumento de sopro, por exemplo, isso pode se dever à força inicialnecessária para colocar a palheta em vibração, após o que a força para manter a nota soando émenor. Normalmente dura apenas de alguns céntésimos a menos de um décimo de segundo. Nosexemplos mostrados, o decaimento é claramente perceptível nas notas da tabla e levemente nasegunda nota da trompa.Sustentação: corresponde ao tempo de duração da nota musical. Na maior parte dos instrumentoseste tempo pode ser controlado pelo executante. Durante este tempo a intensidade é mantida no

mesmo nível, como as notas da trompa e da flauta na imagem. Alguns instrumentos (principalmenteos de percussão) não permitem controlar este tempo. Em alguns casos o som nem chega a sesustentar e o decaimento inicial já leva o som diretamente ao seu desaparecimento, como na tabla.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 22/124

Relaxamento: final da nota, quando a intensidade sonora diminui até desaparecer completamente.Pode ser muito brusco, como em um instrumento de sopro, quando o instrumentista corta o fluxo dear, ou muito lento, como em um gongo ou um piano com o pedal de sustentação acionado. Naimagem acima, a nota da flauta tem um final suave devido à reverberação da sala onde a música foiexecutada, que fez o som permanecer ainda por um tempo, mesmo após o término do sopro.A combinação entre os tempos de ataque, decaimento, sustentação e relaxamento é tão importante

para permitir reconhecer o timbre de um instrumento, que em alguns casos usa-se um sintetizadorou sampler para alterar estes tempos e criar timbres totalmente novos a partir do som deinstrumentos conhecidos.

Um sintetizador é um instrumento musical eletrônico projetado para produzir sons geradosartificialmente, usando técnicas diversas.

Um sintetizador cria sons através da manipulação direta de correntes elétricas (sintetizadoresanalógicos), leitura de dados contidos numa memória (sintetizadores digitais), ou manipulação matemática de valores discretos com o uso de tecnologia digital incluindo computadores(modulação física) ou por uma combinação de vários métodos. No estágio final, as correnteselétricas são usadas para causar vibrações no diafragma de caixas de som, fones de ouvido, etc. Osom sintetizado é diferente da gravação de um som natural, onde a energia mecânica da onda sonoraé transformada em um sinal que então é convertido de volta à energia mecânica quando tocado(embora o método de sampling mascare esta distinção).

Um sintetizador moderno. A tecnologia atual de miniaturização permitiu que o produto custassemenos e tivesse teclas mais compactas, permitindo seu uso por criançasFoi inventado em 1960 pelo russo Leon Theremin, mas o modelo mais identificado como um

sintetizador como conhecemos, data de 1964, desenvolvido por Robert Moog e Herbert Deutsch,chamado: Moog. Era monofônico (só era possível tocar uma nota por vez) e ocupava grandeespaço. A primeira utilização de um sintetizador em um show ao vivo foi ainda na década desessenta, pelo grupo The Nice, liderado por Keith Emerson, que posteriormente formaria o Emerson, Lake & Palmer. Posteriormente, foram desenvolvidos sintetizadores bem menores epolifônicos, como o Polymoog, de 1976, podendo-se, assim, gerar acordes. Hoje é utilizado tambémpelo músico francês de música eletrônica: Jean Michel Jarre recordista mundial de público em showaberto.

Sampler é um equipamento que consegue armazenar sons numa memória digital, e reproduzi-losposteriormente.Este é um dos grandes responsáveis pela revolução da música eletrônica pois através dele e usandociclos (loops em inglês), pode-se manipular os sons para criar novas e complexas melodias ouefeitos. Como instrumento musical é usado em vários géneros musicais, como o pop, hip-hop, 

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 23/124

dance music, rock, metal, música experimental e até na MPB. É usado pelas mais diversas bandasao redor do mundo como por exemplo Keane, Cold Play, Slipknot, U2, Maná e Linkin Park. NoBrasil temos como principais exemplos Skank, Jota Quest, entre outros. Também é usado em pós-produção áudio para efeitos sonoros. Graças aos samplers e backing tracks podemos contar comarranjos de orquestras inteiras em shows, por exemplo, mesmo em palcos que não comportem maisque 3 ou 4 músicos.

Existem algumas marcas conceituadas para o instrumento, como é o caso da Korg e Akai. Muitosdesses equipamentos permitem também fazer as edições do som no próprio equipamento. Como é ocaso do MK - II da Korg. Além de você inserir o áudio, você ainda pode editá-lo utilizando algunsefeitos como: Pitch shifter, Reverb, Delay, Distortion entre outros.Alguns samplers estão associados a um controlador que pode ser um teclado, almofadas ( pads eminglês) ou qualquer outro dispositivo de controle. Esses controladores também podem ser externosao instrumento. É possível endereçar os sons a uma parte específica do controlador (uma das teclasou uma das almofads, por exemplo), e reproduzi-los em tempo real.Também associados a alguns samplers pode estar um sequenciador, através do qual se pode criaruma sequência, com diversos sons, e reproduzi-los.Com o sampler você pode realmente fazer muita coisa, desde um rápido efeito, até uma sequência

de ciclos com diversos instrumentos.Uma fundamental ausente é uma f reqüência f undamental de uma série harmônica que não éaudível, mas que pode ser inferida devido à presença das freqüências superiores da série. Esta é umaespécie de ilusão auditiva.Quando uma nota tem uma altura de 110 Hz (nota Lá), ela consistirá não só desta freqüência, mastambém de todos os seus harmônicos, que são todos os múltiplos inteiros da freqüência fundamental(neste caso, 110, 220, 330, 440, 550, 660... Hz). No entanto, se utilizarmos um a lto-falante incapazde reproduzir baixas freqüências, a fundamental (110 Hz) não poderá ser ouvida. Ainda assim umapessoa que ouça este som ainda conseguirá ouvir a nota fundamental. No passado se acreditava queisto se devia ao fato de que a fundamental ausente era substituída por distorções causadas pela físicado ouvido. Pesquisas posteriores mostraram, porém, que mesmo que um ruído capaz de mascararestas distorções fosse introduzido na amostra, os ouvintes ainda assim teriam a impressão de ouvir afundamental ausente. Hoje em dia, os f ísicos aceitam que o cérebro processa as informaçõescontidas nos sobretons para calcular qual seria a nota ausente. A forma precisa como isso ocorreainda é assunto de acaloradas discussões entre estudiosos de acústica, mas esse processamentoparece ser baseado na sincronização dos pulsos neurais no nervo auditivo.O senso comum tenderia a concluir que, no caso da ausência da fundamental, o primeiro harmônicopresente determinaria a altura, no entanto é fácil perceber que isso resultaria em uma sérieharmônica imperfeita. Vejamos: em nosso exemplo, os primeiros harmônicos da série seriam 110,220, 330, 440, 550, 660 Hz. Se tomarmos uma série harmônica cuja fundamental seja 220 Hz (aprimeira freqüência realmente ouvida) ela seria composta das seguintes freqüências: 220, 440, 880,

1760, 3520 Hz. Uma simples comparação mostra que a as freqüências de 330, 550 e 660 Hz nãofazem parte da série da nota mais aguda e portanto esta não poderia ser a fundamental desta série,mas sim a freqüência ausente.Este conceito é bastante utilizado atualmente para simular acusticamente a existência de baixos quena verdade não poderiam ser reproduzidos por equipamentos e alto-falantes comuns. Peloprocessamento seletivo de certas parciais, é possível fazer com que o ouvinte pense estar ouvindoum som mais grave do que o real, substituindo as notas perdidas pela ineficiência do equipamento.Por exemplo o efeito WOW da empresa Srs Labs http://www.srslabs.com é um exemplo desse tipode aplicação.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 24/124

A simples possibilidade de passar as notas de uma composição musical para um pedaço de papel, dese distorcer o som de uma guitarra, ou propagar vozes através de um microfone, são consideradastecnologias aplicadas na música. Tecnologias essas que evoluiram de tal maneira, que quandocomparadas com o leque de recursos que existem hoje, passam despercebidas. Uma vez que osequipamentos atuais nos permitem produzir músicas completas utilizando apenas alguns botões.Desde 1860, o homem tem tentado produzir e gerar sons sintéticos que complementassem e

diverssificassem os instrumentos de natureza acústica. Em 1876, um inventor americano descobriuque poderia controlar o som a partir de um circuito eletromagnético e gerar, assim, uma notamusical diferenciada. Uma das grandes invenções aparece em 1917, na Rússia: o teremim, que usacircuitos eletrônicos para criar sons audíveis.Já na década de 30 é inventado o primeiro gravador de fita magnética, o Magnetofone. O progressode evolução ganha outro destaque em 1948, em Paris, quando o pesquisador Pierre Schaeffersistematiza sua pesquisa sonora e a denomina Musique concrète, onde efeitos de gravações emanipulação sonora eram a base estética. Mas a experiência de maior expressão do ponto de vistada sistematização de idéias sobre tecnologia e música acontecem logo em seguida na Alemanha em 1952, quando pesquisadores usam e desenvolvem um novo conceito estético onde sons sãosintetizados ou gerados utilizando-se aparelhos eletrônicos. A partir daí, com a evolução e o

aperfeiçoamento desses equipamentos e objetos técnicos, pode-se produzir músicas com o uso deobjetos não naturalizados intrumentos. Isso porque o próprio tempo fez o homem naturalizar umviolão ou um piano como invenções musicais, diferente do computador que, por exemplo, não foiconcebido para ser uma dessas inveções, mas que recebeu novas atribuições que podemosconsiderá-lo, entre outras coisas, um instrumento musical.Atualmente existem inúmeros e interessantes recursos para se trabalhar com áudio e edição musical.Existem também softwares específicos para confecção e edição de partituras, além de programasexclusivos para gravação em estúdios e para lidar com áudio e video. Neste ramo a informática temsurpreendido a cada dia com novas soluções. Porém, a música aliada a tecnologia não alterasomente processos de produção e edição, mas também seus diversos suportes onde pode seraplicada e sua maneira de como é distribuida.Com a tecnologia digital todas as etapas de uma produção musical podem estar disponíveis a umúnico profissional, a baixo custo, cabendo apenas a este, o estudo das técnicas de manipulação dosobjetos sonoros durante o processo de criação, desenvolvimento e finalização. Assim, essa evoluçãoestreita a distância entre o ouvinte, o compositor e o produtor, viabilizando recursos que antes eramrestritos à profissionais altamente especializados.

O controle do som – sistema analógico.

O advento da tecnologia e principalmente da eletrônica permitiu o desenvolvimento de armazenamento de áudio e aparelhos de som para gravação e reprodução de áudio, principalmente música.São exemplos de fontes ou mídias o MP3,  CD, o LP ou Disco de vinil e o cassete. Alguns dosaparelhos que reproduzem essas mídias, são o toca-discos e o gravador cassete.Desde seus primórdios, com a invenção do f onógrafo, essa reprodução eletrônica do áudio evoluiuaté atingir seu auge na alta fidelidade, que faz uso da estereofonia.Instrumentos musicais: Cada instrumento produz as notas com timbres diferentes. As vibrações sãocriadas por toque ou sopro e cada instrumento tem o seu ressoador que amplifica os sons audíveis.Ex: no piano quem gera o som é a corda e quem ressoa é a caixa de ressonância.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 25/124

Alta fidelidade, também referida como hi-fi do inglês, é a reprodução de áudio feita por um aparelho de som com a maior fidelidade possível ao som real. Para tal, deseja-se minimizar osefeitos de ruídos e distorções. Tais equipamentos de som fazem uso da estereofonia na reproduçãodo áudio. Entusiastas da alta-fidelidade são chamados de audiófilos, e sistemas em que a fidelidadeé o único compromisso são conhecidos pelo termo em inglês high-end .

Os aparelhos de som de alta fidelidade utilizam o conceito minimalista em que se acredita quequanto menos estágios tiver entre o som captado, gravado, reproduzido e amplificado, menosinterferências ele vai ter em relação ao original e maior será a fidelidade.Amplificadores de alta fidelidade utilizam válvulas eletrônicas ou transistores de estado sólido.Técnicamente os transistores são mais lineares, porém muitos acreditam que a suavidade daamplificação valvulada deixe a música mais emotiva, e não existe consenso entre qual tipo émelhor. Amplificadores também são encontrados em mono-blocos, isto é, amplificadores separadospara cada canal para evitar interferências entre os canais.Apesar de alta fidelidade muitas vezes ser associada somente a um aparelho de som high-end eambientes tratados acusticamente, geralmente não se sabe que as gravações também divergemmuito em sua qualidade de gravação e tem enorme importância no resultado final. Em alta

fidelidade as gravações são feitas sempre ao vivo, sem efeitos de som e são usados equipamentosespeciais de captação e gravação.Assim, os tipos de música encontrados com mais freqüência na discografia audiófila são a músicaclássica, o jazz e o blues. Tais gravações tentam capturar exatamente a sensação de se estar ouvindoa música no ambiente ao vivo, podendo ser recriada a imagem do palco sonóro com precisão.Nestas gravações é possível identificar a localização de cada músico não só em largura no palco,mas também em profundidade, altura e até a distância em relação ao microfone usado na gravação.A ambientação é capturada em estereofonia e todas as reverberações e respostas acústicas doambiente são fielmente capturadas, aumentando ainda mais a imersão na reprodução.Como este tipo de gravação exige conhecimento técnico e equipamentos específicos diferentes dosusados em estúdios de gravação convencionais, existem gravadoras que se especializaram naprodução de álbuns de alta fidelidade. Entre os nomes mais fortes neste segmento estão a Opus3Records, Chesky Records e compilações feitas pelos principais vendedores de equipamentos de altafidelidade, como B&W (Bowers & Wilkins, fabricante de caixas acústicas), McIntosh e Marantz(fabricantes de amplificadores).O teste de audição cega é atualmente um procedimento padrão para quase todos os profissionais derespeito. Para propósitos comerciais, alguns poucos fabricantes de equipamentos caros de somdisputam a necessidade deste teste. Também é comumente usada uma melhoria deste teste, chamadade comparação ABX, em que dois sistemas A e B conhecidos são escolhidos aleatoriamente semque os participantes saibam.Sob outro ponto de vista, este tipo de teste é criticado por ser muito estressante, e por causa disso

ele seja incapaz de distinguir as finas sutilezas de um equipamente de ponta, que somente a audiçãoa longo prazo pode perceber os detalhes do som verdadeiro. A réplica é que tais pequenas diferençassão desacreditadas e são puramente auto-ilusórias e vítimas de uma expectativa da marca. Além

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 26/124

disso, ouvintes que pagaram um alto valor pelo seu sistema tendem a ter uma tendência sub-consciente em favorecê-lo. Por isso que a maioria dos testes de audição profissionais usam métodosde audição cega.Aparelhos de som podem ser definidos como qualquer aparelho eletroacústico que faça gravaçãoou reprodução de áudio, principalmente de musical.O advento da tecnologia e principalmente da eletrônica permitiu o desenvolvimento de

armazenamento de áudio e dos aparelhos de som. Desde seus primórdios, com a invenção do fonógrafo, essa reprodução eletrônica do áudio evoluiu até atingir seu auge na alta fidelidade, quefaz uso da estereofonia.A audiofilia procura melhorar o máximo possível esses aparelhos e a reprodução da música.

Um aparelho de som é típicamente composto por fontes de áudio, um amplificador, caixas acústicase cabos. Estes componentes podem estar agrupados todos juntos como nos mini-systems e micro-systems atuais, ou podem estar separados e interconectados.As fontes de áudio são os responsáveis por ler as informações da mídia e converter em sinalanalógico. Nesta categoria estão os leitores de CD, toca-discos, deck de fitas-cassete e até o 

radioreceptor AM/FM, entre outros.Mesmo as fontes de áudio podem ser vendidas em componentes separados, como nos CD-playersem que um sistema é o leitor mecânico e óptico da mídia e outro sistema é o conversor digital-analógico do sinal.Os amplificadores são responsáveis por aumentar a amplitude do sinal analógico, idealmente semnenhuma modificação na forma do sinal (distorção) e sem inserir ruídos. Existe a opção de secomprar o amplificador em sistemas separados (pré-amplificador e amplificador de potência), daí oamplificador que contém os dois ser chamado de amplificador integrado. Podem incluir tambémprocessadores digitais de sinal ( DSP em inglês) no caso de receivers 5.1 ou 7.1.O pré-amplificador é o responsável por controlar o quanto o sinal vai ser amplificado peloamplificador de potência, sendo o último responsável pela amplificação bruta do sinal. Os pré-

amplificadores podem ter circuitos com transistores de estado sólido ou com válvulas eletrônicas.

Amplificadores - definições 

Pre-amp 

É o "pré-amplificador", um amplificador de baixa potência usado para condicionar o sinal(normalmente, sinal de microfone) para um nível adequado ao mixer ou amplificador de potência.Os pré-amplificadores (ex: Ashly), geralmente possuem controlesde ganho, e eventualmente ajustes de tonalidade (EQ). Existempré-amplificadores que utilizam circuitos com válvulas (ex:Behringer MIC2200), que dão uma "coloração" diferente ao som.A característica mais importante que deve ter um pré-amplificador diz respeito ao ruído: quantomaior a relação sinal/ruído, melhor.

Amp

É o amplificador de potência, propriamente dito. Alguns amplificadorespossuem um pré, que condiciona o sinal para o nível adequado. Umamplificador stereo doméstico, por exemplo, geralmente possui um pré-amplificador para toca-discos de vinil (embora isso esteja caindo em desuso).

Os amplificadores podem ter também controles de tonalidade, balanço(esquerdo/direito) e outros recursos adicionais. Alguns têm saídas para 4caixas, duplicando os canais do stereo.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 27/124

 No caso de amplificadores de instrumentos - os "combo amplifiers" - a maioria é mono, e possui umpré para ajuste de nível e equalização (ex: Ibanez TA25). Muitos amps de guitarra são valvulados,pois os guitarristas preferem a distorção característica da válvula, que dá uma coloração agradávelao som da guitarra.

Power Amp

É um amplificador sem pré, só com o estágio de potência.Normalmente é usado em sistemas de sonorização de show (P.A. eamplificação de palco), e também em estúdios. Nessesamplificadores, só há o controle de volume de cada canal, pois osinal já vem em nível adequado ("line"). Os amplificadores parasonorização (ex: Yamaha P3500) têm que ter muita potência, enormalmente são usados em grupos. Os amplificadores de estúdio(ex: Yamaha A100a), também chamados de "amplificadores de referência" (Reference Amplifiers)têm como característica principal a resposta "plana", isto é, sem colorir o som, e por isso raramente

são valvulados.

As caixas acústicas são os elementos que transformarão a energia do sinal elétrico em som. Podemvir aos pares em caso de sistemas estereofônicos (stereo em inglês) ou em 5.1/7.1, onde 5 ou 7caixas são usadas para os médios e agudos e 1 subwoofer se encarrega dos graves. Fones de ouvidotambém são uma opção.Os cabos podem ser tanto para ligar o amplificador às caixas como também para interligar oscomponentes como leitor de CD, pré-amplificador e amplificador de potência. Para o som de altafidelidade são usados cabos de baixíssima capacitância e indutância, de modo que o sinal não sejaalterado pelas características elétricas do cabeamento.

Cabos e Conectores - informações práticas 

Muitas pessoas pensam que montar um cabo é um bicho-de-sete-cabeças. Na verdade, os únicosrequisitos essenciais para isso são uma boa habilidade manual e atenção. A primeira, embora sejauma característica peculiar de algumas pessoas (uma espécie de "dom"), pode ser desenvolvida eaprimorada desde que se conheçam algumas técnicas (e macetes). A segunda, não é necessáriasomente para se montar cabos, pois é essencial em qualquer atividade.Mesmo que o músico não queira se dedicar à atividade de "montagem de cabo" (a maioria pensaque isso é coisa para técnicos de eletrônica), em algumas situações, saber soldar um cabo podeevitar muitos problemas (No meio da madrugada, para encerrar uma gravação, o músico precisa demais um cabo, ele tem um, mas o plug está solto... e aí?).Tipos de cabos mais usadosPara as aplicações musicais básicas - aqui incluídos os instrumentos musicais, microfones,portastudios e conexões com sequenciadores e computadores, e excluídos os sistemas sofisticadosde estúdios e palcos - a diversificação de cabos e plugs não é muito grande. São dois os tipos decabos mais empregados na maioria das ligações:cabo blindado mono: é constituído por um condutor interno (feito com vários fios finos) encapadopor isolante e envolto por uma blindagem (pode ser uma malha entrelaçada ou uma trança ao seuredor), tudo isso encapado por um outro isolante (Fig. 1.a);cabo blindado stereo: é constituído por dois condutores internos (cada qual feito com vários fios

finos) encapados separadamente por isolantes, e envoltos por uma blindagem (também pode seruma malha entrelaçada ou uma trança), tudo encapado por outro isolante (Fig. 1.b);A blindagem feita pelos fios do condutor entrelaçado oferece proteção às interferênciaseletromagnéticas externas, que podem introduzir ruído sobre o sinal que está sendo transmitido.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 28/124

O cabo mono é usado para transmitir os sinais de áudio de guitarras, instrumentos eletrônicos emicrofones (não balanceados) aos mixers e amplificadores, transmitir sinais de sync (FSK, SMPTE,Tape Sync) entre gravadores e sequenciadores, e até mesmo em pedais de sustain e de controle. Ocabo stereo, por sua vez, é usado em linhas balanceadas de áudio (usadas quando o percurso élongo, para evitar que diferenças de potencial de terra, introduzam ruído), e em cabos MIDI. Caberessaltar que a maioria dos instrumentos que possuem saída de áudio em stereo usam duas saídas

para cabos mono, e não uma única saída para cabo stereo (já a saída de fones, no entanto, usa cabostereo).

Figura 1 - Tipos de cabos mais usados 

Os plugs têm uma variedade um pouco maior do que oscabos, sendo que felizmente há uma certa padronização paradeterminadas aplicações, o que ajuda bastante quando seadquire equipamentos novos, que têm de ser conectados aoque já existe no sistema:•    jack mono: também conhecido como "plug banana"ou "plug de guitarra" é o mais usado para conexões de áudiode instrumentos musicais, como guitarras, baixos, teclados,módulos, etc (Fig. 2.a);•   jack stereo: é usado em fones e tomadas de insert demixers (Fig. 2.b);

•  plug MIDI: também conhecido como "plug DIN de 5 pinos em 180º", como o nome sugere,é usado nas conexões de MIDI, e também (há mais tempo) em equipamentos doméstico de áudio daPhilips (Fig. 2.c);•  plug RCA: muito usado para conexões entre equipamentos domésticos de áudio (CD,gravadores, etc), mas alguns portastudios e outros equipamentos musicais semi-profissionaistambém usam. Muitos dispositivos de sincronização (SMPTE, FSK, TapeSync) de gravadores comsequenciadores usam também estes plugs (Fig. 2.d);•  conector XLR: também conhecido como "conector Canon", é usado basicamente emconexões de linhas balanceadas. Os cabos com conectores XLR usam macho em uma extremidade efêmea na outra (Fig. 2.e);Deve-se procurar usar sempre os materiais mais resistentes, principalmente quando se tratar deinstalações sujeitas a mudanças frequentes, como o uso no palco. Os jacks, por exemplo, podem tercapa de plástico ou de metal, sendo esta última melhor (e mais cara). Alguns plugs possuem umaluva que protege o cabo ao entrar no plug, evitando que ele seja dobrado ou forçado (nos jacks decapa metálica, essa luva é feita com uma mola flexível).

Figura 2 - Tipos de plugs

Cuidados e precauçõesUse sempre o cabo adequado à cada aplicação. Improvisarsoluções, ainda que em situações de emergência, acabacomprometendo o resultado final de todo o trabalho. Comparadocom os demais componentes de um sistema musical, o cabo éuma peça extremamente barata, e por isso economizar nele nãoparece ser uma atitude racional. O ideal é ter-se sempre um caboreserva de cada espécie, para uma eventual necessidade.

O manuseio dos cabos também deve ser de forma adequada, paraque a sua durabilidade seja maior. Nunca se deve retirar umaconexão de um equipamento puxando pelo cabo, mas sim pelo

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 29/124

corpo do plug, que é feito para isso. O ato de puxar o cabo submete-o a um esforço para o qual nãofoi projetado, o que pode acarretar em rompimento dos condutores internos, ou então - o que é maisprovável - rompimento da solda do cabo no plug.Na ocasião do projeto das instalações dos equipamentos, é importante considerar alguns aspectosque podem ser úteis. O primeiro seria o dimensionamento correto de todos cabos, evitando usarcabos curtos demais (que vão ficar esticados, e se transformarão em fonte de problemas, como

ruptura ou danificação dos plugs), ou longos demais (que "embolarão", dificultando suamovimentação futura). É de grande utilidade etiquetar as extremidades dos cabos, o que facilitasobremaneira na manipulação das conexões. Os cabos também devem sempre ficar livres (soltos)sem pesos em cima, ou qualquer outra coisa que possa dificultar seu movimento, quandonecessário.Uma outra prática que pode não só aumentar a vida útil, mas também facilitar o manuseio é enrolar-se sempre os cabos no mesmo sentido. Na maioria das vezes, os cabos vêm enrolados em formacircular, e por isso, seu material já está "acomodado" àquele formato. Usar um outro formato deenrolamento acaba forçando os condutores e respectivas camadas isolantes, fazendo o conjunto todoperder coesão, ou deformar-se. Deve-se sempre enrolar o cabo no formato e sentido de enrolamento"natural" que ele já tem. Isso, além das vantagens em relação à durabilidade, acaba também

tornando o enrolamento mais fácil. Deve-se evitar também enrolar os cabos em círculos de raiomuito pequenos, pois força mais o cabo.Há um tipo de cabo, chamado de espiralado, que tem a aparência de um cabo de telefone. Este caboé mais indicado para guitarristas e baixistas, que precisam de mobilidade e não desejam um "rabo"de cabo espalhado pelo chão, pois o cabo espiralado contrai-se e expande-se à medida que éaforuxado ou esticado com o movimento do músico. A desvantagem do cabo espiralado é o pesoque ele provoca sobre o músico (que incide mais sobre o plug) pois, como o cabo não fica largadono chão, mas sim pendurado, a massa total acaba sendo carregada pelo músico. Esse tipo de cabonão é recomendável para uso em instalações fixas de estúdios e palcos, pois suas espiras acabam seprendendo nos outros cabos ou obstáculos, dificultando muito o manuseio nas instalações.Faça você mesmo

Para quem quer aprender a consertar ou montar seus cabos, aqui vão algumas dicas e técnicas na"arte" de soldar cabos e plugs. Para isso, é necessário ter-se algumas ferramentas básicas, como umferro-de-soldar (para eletrônica), um sugador de solda (não é essencial, mas ajuda bastante), umalicate de bico fino, um alicate de corte (ou tesoura) e, obviamente, um rolo de solda. Todas essasferramentas são facilmente encontradas nas boas lojas de material eletrônico, e os preços variamconforme a qualidade do produto.Uma regra básica para qualquer montagem eletrônica - e isso inclui a montagem de cabos - é queum serviço mal feito acaba tendo que ser refeito. Deve-se sempre ter em mente que um trabalho"matado" hoje provavelmente vai ser um problema (ou um desastre) no futuro. Portanto, atenção eprimor são essenciais para um resultado perfeito.

Quando for consertar um cabo, preste atenção no defeito que ele apresenta. As falhas maisfrequentes são por causa de interrupção de condução, que pode ser causada por uma solda solta docondutor no plug ou mesmo pelo rompimento de um condutor. Se o problema é a solda, a solução ésimples, e veremos como fazê-la, mais adiante. Se aparentemente não há qualquer solda solta,verifique se algum condutor está encostando no outro. Às vezes um dos pequenos fios de um doscondutores está tocando o outro, provocando um curto-circuito entre eles. Se for isso, ou cortedevidamente o "fiozinho rebelde", ou refaça a solda do condutor, juntando bem todos os fios deleantes de soldar.Se nenhuma das evidências citadas for detectada, então o problema pode ser a ruptura interna decondutor, em algum ponto ao longo do cabo. A solução para esse problema é ir cortando pedaços(digamos, de cerca de 3 cm) de cada extremidade do cabo, alternadamente, até voltar a haver

condução. Calombos, dobras pronunciadas ou falhas sensíveis (ou visíveis) no encapamento externosão pontos suspeitos: flexione e entorte o cabo seguidamente, em diversos pontos ao longo do seu

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 30/124

comprimento, verificando se a condução é restaurada quando se mexe em algum trecho. Se issoocorrer, provavelmente a ruptura está naquela região.Para se testar a condução no cabo, pode-se usar um multímetro eletrônico, usando-se a função deteste de resistência (ohms) e aplicando-se as pontas de teste em cada extremidade do condutor, quedeverá acusar resistência igual zero. Há multímetros com funções específicas para testar condução,indicando com sinal sonoro. Um dispositivo rudimentar para se testar a integridade dos condutores

de um cabo é sugerido na Figura 3. (Ao testar o cabo, deve-se prestar atenção se as extremidadestestadas são do mesmo condutor !).

Figura 3 - Dispositivo rudimentar para se testar a integridade

dos condutores em um cabo

Caso você decida consertar ou montar seus cabos, então aquivão alguns lembretes e dicas importantes:1.  Inserir as capas dos plugs no cabo. Após cortar o cabono tamanho desejado, insira logo as duas capas dos plugs (umavirada para cada extremidade). Esse é um lembrete importante,

pois será grande sua frustração ao terminar a soldagem dosplugs e verificar que esqueceu de enfiar as capas no cabo.

2.  Observar as posições de soldagem dos condutores. No cabo de áudio mono, o condutor deveser soldado sempre no terminal interno (menor) existente no plug, enquanto a malha de blindagemdeve ser soldada no terminal externo (maior). No cabo de áudio stereo, cada um dos condutoresdeve ser soldado nos terminais internos (menores), prestando atenção na cor de cada um (pois nooutro plug, a posição de soldagem deve ser igual), e a malha de blindagem deve ser soldada noterminal externo (maior), da mesma forma como é no cabo mono. No cabo MIDI, a malha deblindagem deve ser soldada no terminal central, enquanto os condutores devem ser soldados, cadaum, nos terminais adjacentes ao terminal central (os terminais extremos não são usados). Deve-seobservar com atenção qual o terminal usado por cada condutor, para no outro plug adotar a mesmaposição.3.  Não deixar "solda fria". Ao soldar, verificar se houve uma perfeita fusão da solda, unindoperfeitamente o condutor ao terminal. A solda bem feita tem aspecto arredondado e brilhohomogêneo. Caso a solda não derreta bem, não haverá perfeita aderência com o metal - a chamada"solda fria" - apresentando um aspecto irregular e pouco brilho (opaco). Antes de fechar o plug coma sua capa, verifique se os pontos de solda estão bem presos.4.  Firmar o cabo no plug com a braçadeira. Tanto no plug de áudio como no de MIDI háinternamente duas abas internas que servem para "abraçar" o cabo, oferecendo maior resistênciacaso o plug venha a ser puxado pelo cabo, evitando assim que os pontos de solda sofram esforços.O plug MIDI também tem uma trava que mantém a capa plástica presa à capa metálica interna, e

que deve ser ligeiramente puxada pelo orifício da capa plástica.Técnicas básicas de soldagemPara se obter uma soldagem bem feita, é importante observar alguns requisitos, que podem evitarfuturas dores-de-cabeça.1.  Prenda as partes. Para facilitar o trabalho de soldagem, é conveniente fixar o plug numamesa, usando alguma ferramenta adequada, como por exemplo um "grampo-sargento" (aquela peçausada pelos chaveiros para segurar a chave). Pode-se montar uma base de fixação para o plugusando uma tomada fêmea do próprio plug. Não é recomendável segurar com a mão o plug, pois elepode aquecer durante a soldagem (o que o fará soltá-lo...).2.  Deixe o ferro aquecer. A maioria das pessoas realmente não sabe que o aquecimento é omais importante numa soldagem. Deixe o ferro-de-soldar aquecer no mínimo uns cinco minutos

antes de iniciar a soldagem.3.  Limpe as partes. É recomendável que as partes a serem soldadas sejam limpas, de forma aeliminar as impurezas (oxidações, etc) que podem prejudicar a soldagem. Raspe os terminais do

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 31/124

plug com uma gilete ou faca. Verifique também se a ponta do ferro-de-soldar não está com acúmulode solda. Deixe-o quecer e raspe a ponta com uma faca ou limpe-a com um pano ou esponjaumidecida.4.  Prepare os fios antes de soldar. Antes de soldar os condutores nos terminais, enrole seuspequenos fios, formando uma trança espiralada, e depois derreta um pouco de solda sobre eles. Issofaz com que os fios não se separem e ao mesmo tempo torna-os rígidos, o que facilita o manuseio

na soldagem.5.  Use o calor, não a força. O segredo da soldagem é o aquecimento da solda e das partes. Parasoldar um fio no terminal de um plug, posicione o fio no ponto onde ele deve ser soldado noterminal e encoste a ponta do ferro-de-soldar em ambos (fio e terminal), de forma a aquecer os dois.Logo em seguida, aplique o filete de solda junto à ponta do ferro, na região onde ele toca as duaspartes, e deixe-a derreter de forma a cobrir o fio e aderir no terminal. A solda quando bem feitaadquire um aspecto esférico e brilhoso. Não use nem muita nem pouca solda: com pouca solda nãoserá possível criar uma película envolvendo toda a região, o que não garante aderência adequada;com muita solda, corre-se o risco dela escorrer e fazer contato com outras partes que devem estarisoladas. Quando a solda fica opaca, sem brilho, é sinal de que não houve uma boa fusão domaterial - a chamada "solda fria" - que certamente acabará soltando.

6.  Ao terminar, desligue o ferro. Nunca se esqueça disso. Muitos acidentes já aconteceram porcausa da pressa. Ao encerrar a soldagem, desligue o ferro-de-soldar da tomada, limpe sua ponta eguarde todo o material. Como em qualquer outra atividade, também na soldagem de um plug aorganização e a atenção são ítens importantes.

Balanceado X Não-Balanceado 

 Informação técnica para usuários de produtos de áudio profissional da Yamaha 

Conexões não-balanceadas empregam dois condutores: um no potencial do aterramento e o outroconduzindo o sinal. Os equipamentos que operam em nível de -10 dBV quase sempre usamconexões não-balanceadas.

Conexões balanceadas empregam dois condutores, cada um conduzindo o mesmo potencial desinal, mas com polaridade invertida em relação um ao outro. A conexão balanceada pode ter ou nãouma referência de aterramento. Se não tiver, é chamada de conexão “flutuante”. Uma conexãobalanceada com referência de aterramento requer três condutores, sendo o terceiro o potencial deaterramento (uma conexão flutuante pode também ter um terceiro condutor, mas ele é usado comoblindagem e não como potencial de aterramento).

OBS.: O termo “push-pull” também tem sido usado para descrever uma saída balanceada, mas é

mais adequado para descrever o tipo de saída de amplificadores de potência, e não circuitos de sinalde linha.

Por que usar conexões balanceadas? 

Particularmente em sistemas de sonorização, ou em sistemascomplexos de gravação e radiodifusão, as conexões balanceadassão preferenciais porque elas são bem menos suscetíveis acaptação de interferência. Os equipamentos profissionais queoperam em +4 dBu usualmente (mas nem sempre) possuementradas e saídas balanceadas. Conexões não-balanceadas podem

operar muito bem em sistemas de áudio de pequeno porte, ou emsistemas fixos (permanentes), onde os problemas de loops de terra

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 32/124

podem ser eliminados de uma vez, e esquecidos. Em sistemas desonorização portáteis, é melhor evitar conexões não-balanceadas.Entradas balanceadas com e sem transformadores 

Muito freqüentemente. equipamentos profissionais modernos usamacoplamento direto (e não transformadores). A entrada balanceada

com acoplamento direto muitas vezes é chamada de “entradadiferencial”. Uma das desvantagens dos circuitos diferenciais é queeles podem não estar “flutuantes”, e por isso às vezes é preciso

adicionar transformadores auxiliares para eliminar o ruído induzido (devido aos loops de terra ou aníveis muito altos de sinais de ruído). As entradas (e saídas) balanceadas algumas vezes sãoimplementadas usando um transformador, que pode ou não possuir um tap central. Quandopresente, o tap central em geral não deve ser aterrado. A presença de um transformador não garanteo balanceamento do circuito; uma conexão não-balanceada pode estar acoplada por transformador,e uma saída balanceada pode ser desbalanceada se conectada à uma entrada não balanceada.

Como interconectar vários tipos de circuitos 

A natureza da saída ativa determina o tipo de cabo que deve ser usado quando aquela saídabalanceada é conectada a uma entrada não balanceada. Usualmente deve ser empregado um caboblindado com dois condutores, permitindo ao cabo permanecer razoavelmente balanceado até aentrada do equipamento não-balanceado. Isso realmente ajuda a cancelar o ruído porque a

blindagem drena o ruído para o terra, e não é ela quemconduz o sinal. A resistência finita da blindagem faz comque seja diferente aterrar a blindagem e a parte baixa docabo na entrada não-balanceada do que aterrá-los na saídado equipamento balanceado.

A Fig.2 ilustra as práticas recomendadas para se manipularconexões balanceadas e não-balanceadas em váriascombinações. Há outras formas de fazer, mas estasrepresentam um bom ponto de partida para quem ainda nãoestá bem certo de como fazer.

Quais conectores usar? 

A Fig.2 descreve quais circuitos de entrada se ligam a quais circuitos de saída, e se o cabo é de umou dois condutores, com blindagem. Também é mostrado como a blindagem deve ser conectada

(em uma ou outra extremidade do cabo, ou em ambas). Mas a ilustração não mostra os conectores.Geralmente, não há a escolha quanto ao tipo de conector a usar, pois os equipamentos jádeterminam isso. Em alguns casos, pode-se ter alternativas, como com conectores de 1/4”, quepodem estar disponíveis para dois ou três condutores. É preciso saber previamente, antes de efetuaras conexões. Veja na Fig.3 as sugestões de cabos e conectores para cada caso.

No mercado, há conectores bem feitos, com baixa resistência de contato (e pouca tendência emdesenvolver uma resistência a longo prazo), e mal feitos. Eles podem estar bem firmes no cabo,com blindagem e condutores internos bem soldados, e o cabo bem preso à braçadeira do plug. Epodem também ser construídos com pouca atenção a esses detalhes. Consulte o vendedor sobre as

características construtivas do cabo, e você se certificará de que, no longo prazo, será maiseconômico não comprar o cabo mais barato.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 33/124

Além disso, é possívelusar vários tipos de caboscom um determinadoconector, e por isso vocêpoderá encontrar cabosmelhores ou cabos não tão

bons para uma mesmaaplicação. O que faz tudoisso complexo é que o“adequado” depende danatureza dos circuitos deentrada e de saída queestão sendointerconectados.

A importância de um bom cabo 

Um cabo possivelmente custa menos do que qualquer outro componente do sistema de sonorização(exceto os multi-cabos - “snakes” - que de fato são caros). Claro, pode-se ter dezenas de cabos numúnico sistema, e o custo até chegar a um valor razoável. Ruídos de “hum”, perda de sinal, ou falhasnas saídas por causa de curto-circuito, tudo isso pode ser causado por um cabo. Nunca tenteeconomizar dinheiro nos cabos.

Todo fio é diferente, assim como nem todos os conectores são feitos da mesma forma. Mesmo queo diâmetro final, calibre do cabo e a montagem em geral seja similar, dois cabos podem terpropriedades elétricas e físicas diferentes, tais como resistência, capacitância e indutância entrecondutores, flexibilidade, densidade de blindagem, durabilidade, capacidade de suportaresmagamento, dobramentos, tração, fricção, etc.

Os cabos de microfone devem sempre ter braçadeiras amarrando-os aos plugs. 

A melhor blindagem que se pode ter em instalações fixas (permanentes) ou dentro de racks é ablindagem por folha, mas esses cabos não são particularmente fortes e a blindagem se deteriorarácaso eles sejam muito flexionados.

As blindagens trançada e enrolada são mais usadas em cabos de microfone e de instrumentos. Atrançada é preferida porque a enrolada tende a se abrir quando o cabo é flexionado, o que não sódegrada a densidade de blindagem, mas também causa ruído no microfone.

Se a capacitância do cabo se altera quando este é flexionado, isso pode modificar o nível de ruídoinduzido. Esse é o maior problema com a alimentação “phantom power” em cabos de microfone,embora isso possa ocorrer em qualquer cabo, e é algo que ninguém deseja num sistema desonorização. Pode-se evitar esse problema usando-se cabos com material dielétrico (isolante)estável, e com uma blindagem bem trançada que esteja bem presa ao plug, de forma que nãoocorram aberturas na blindagem quando o cabo é flexionado. Os cabos de microfone e deinstrumentos costumam ter plugs com uma capa de borracha, que dá uma boa pegada e é flexívelnuma faixa ampla de temperatura. Também se usa para isso vinil de boa qualidade.

Alguns cabos com um condutor e blindagem parecem similares aos cabos coaxiais usados para sinal

de TV e rádio (ex: RG-58, RG-59), mas existe uma diferença maior. Os cabos coaxiais para usocom rádio-freqüência (RF) geralmente possuem condutor central rígido (ou condutor feito compoucos fios grossos), e sua capacitância é bem diferente da dos cabos de áudio O cabo coaxial

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 34/124

também é menos flexível, por isso não use cabos de RF para aplicações de áudio.

Cabos sem blindagem e cabos para caixas acústicas 

A blindagem adiciona capacitância, massa, peso e custo a um cabo, e por isso algumas pessoastentam evitá-la. Isso é aceitável no caso de linhas telefônicas, mas jamais considere a possibilidade

de usar cabos sem blindagem para microfones ou instrumentos.

Nas caixas acústicas, o nível de sinal é tão alto que o ruído eletromagnético é insignificante e porisso pode-se usar cabos sem blindagem. Na verdade, cabos blindados em caixas acústicasapresentam uma reatância maior e podem induzir a oscilações parasitas!Leia também Sound Reinforcement Handbook, de Gary Davis e Ralph Jones, 2a. edição revisada,fev/1990, publicada por Hal Leonard Publishing Co.

Conexões de áudio 

Apresentamos aqui os esquemas de ligação dos sinais nos plugs de áudio para as situações mais

comuns.

Conexão não-balanceada de áudio em mono 

O plug mais usado é o P10 (1/4") mono, também chamado erroneamente de"banana" (que é um outro tipo de plug).

Conexão balanceada de áudio em mono 

Para conexão de microfones e equipamentos profissionais, é mais usado o cabobalanceado com plugs XLR (também chamado como plug "Canon").

Muitos equipamentos oferecem conexão balanceada com plugs P10 (1/4")stereo. Este tipo de plug é também conhecido como "TRS", que são as iniciais

das designações das partes do plug: Tip (ponta), queleva o sinal positivo ("hot"), Ring (anel), que leva osinal negativo ("cold"), e Sleeve (capa), que é aconexão da blindagem.

Conexão de headphone stereo 

O plug mais usado em equipamentos profissionais é oP10 (1/4") stereo. Nessa conexão, a ponta do plug leva osinal do canal esquerdo (Left), e o anel do plug leva osinal do canal direito (Right).

Conexão de Insert 

As mesas de mixagem (mixers) profissionais oferecemnos canais de entrada uma tomada de conexão chamada de"Insert", que permite acoplar exclusivamente àquele canalum processador de efeito (ou algum outro dispositivo

apropriado). O plug usado nesse tipo de conexão é o P10 (1/4") stereo. Nessa conexão, a ponta doplug leva ao processador de efeito o sinal daquele canal de entrada do mixer, e o anel do plug traz

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 35/124

para o canal o sinal que retorna do processador de efeito.

Conexão de Direct Out através do Insert 

As mesas de mixagem profissionais oferecem nos canais de entrada uma tomadade conexão de saída chamada de "Direct Out", que permite acoplar

exclusivamente àquele canal a uma entrada do gravador (ou placa de áudio).

Quando a mesa não possui Direct Out, mas possui Insert, pode-se fazer com quea tomada de Insert funcione como Direct Out, ligando os pinos do plug conforme

mostra a figura abaixo. Nesse caso, o sinal sairá do canal do mixersem interromper seu caminho, exatamente como no caso do DirectOut. O plug usado nesse tipo de conexão é o P10 (1/4") stereo natomada de Insert da mesa, e o P10 mono na tomada de entrada dogravador. O pinos de Send e Return do plug stereo devem serligados.

Toca-discos, um exemplo de aparelho de som de alta fidelidadeOs aparelhos de som antigos de alta fidelidade são consideradosvintage pela raridade (toca-discos  LP ou vinil) e por não mais serem fabricados (como os gravadores de rolo), sendo muitas vezesa qualidade sonora melhor do que os aparelhos convencionais

atuais, dentre outros motivos.Exemplos de vintage fabricados no Brasil são o conjunto “System One” da Gradiente e o conjuntoda “Linha 5000” da Polyvox, e a linha completa da CYGNUS. Exemplos de algumas marcasinternacionais que fabricaram muitos aparelhos que atualmente são considerados vintage são Sansui, Marantz, Akai e Pioneer, dentre outras.

O decibel (dB) é uma medida da razão entre duas quantidades, sendo usado para uma grandevariedade de medições em acústica, física e eletrônica. O decibel é muito usado na medida da 

intensidade de sons. É uma unidade de medida adimensional, semelhante à percentagem. Adefinição do dB é obtida com o uso do logaritmo.onde I 0 e P0 são as intensidades e potências de referência.

Se PdB é 3 dB então P é o triplo de P0.

Se PdB é 10 dB então P é 10 vezes maior que P0.

Se PdB é -10 dB então P é 10 vezes menor que P0.

Se PdB é 20 dB então P é 100 vezes maior que P0.

Se PdB é -20 dB então P é 100 vezes menor que P0.

A tensão elétrica V corrente elétrica  I  ou pressão  p podem ser expressas em decibels através das

equaçõesonde X pode ser a tensão V , corrente I ou pressão p, e X 0 são seus valores de referência. Note que é

incorreto utilizar essas medidas se as impedâncias elétricas ou acústicas não são as mesmas nos

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 36/124

pontos onde a tensão ou pressão é comparada. Usando essa abordagem o decibel é uma medida deintensidade ou potência relativa.Se V dB é 6 dB então V é o dobro que V 0.

Se V dB é 20 dB então V é 10 vezes maior que V 0.

Se V dB é -20 dB então V é 10 vezes menor que V 0.

Se V dB é 40 dB então V é 100 vezes maior que V 0.Se V dB é -40 dB então V é 100 vezes menor que V 0.

Embora o Comitê Internacional de Pesos e Medidas (BIPM) aceite a sua utilização com o sistema SI, ele não é uma unidade do SI. Apesar disso, seguem-se as convenções do SI, e a letra d é grafadaem minúscula por corresponder ao prefixo deci- do SI, e  B é grafado em maiúsculo pois é umaabreviatura (e não abreviação) da unidade bel que é derivada de nome Alexander Graham Bell.Como o bel é uma medida muito grande para uso diário, o decibel (dB), que corresponde a umdécimo de bel (B), acabou se tornando a medida de uso mais comum.As vantagens do uso do decibel são:•  É mais conveniente somar os valores em decibels em estágios sucessivos de um sistema doque multiplicar os seus fatores de multiplicação.•  Faixas muito grandes de razões de valores podem ser expressas em decibels em uma faixabastante moderada, possibilitando uma melhor visualização dos valores grandes.•  Na acústica o decibel usado como uma escala logarítmica da razão de intensidade sonora, seajusta melhor a intensidade percebida pelo ouvido humano, pois o aumento do nível de intensidadeem decibels corresponde aproximadamente ao aumento percebido em qualquer intensidade, fatoconhecido com a Lei de potências de Stevens. Por exemplo, um humano percebe um aumento de 90dB para 95 dB como sendo o mesmo que um aumento de 20 dB para 25 dB.•  O neper é uma unidade similar que usa o logaritmo natural.•  A escala Richter também usa números expressos em bels.• 

Na espectrometria e na óptica as unidades de absorbância são equivalentes a −1 B.•  Na astronomia a magnitude aparente que mede o brilho das estrelas também é uma unidadelogarítmica, uma vez que da mesma forma que o ouvido responde de modo logarítmico a potênciaacústica, o olho também responde de modo logarítmico a intensidade luminosa.•  Na química, o pH, que mede a acidez e alcalinidade de uma solução aquosa, também é umaescala logarítmica.O bel (símbolo B) é uma unidade de medida de razões. Ele é principalmente usado nas telecomunicações, eletrônica, e acústica. Foi inventado por engenheiros do Bell Labs paraquantificar a redução no nível acústico sobre um cabo telefônico padrão com 1 milha decomprimento. Originalmente era chamado de unidade de transmissão ou TU , mas foi renomeadoentre 1923 e 1924 em homenagem ao fundador do laboratório Alexander Graham Bell.

O som é uma oscilação na pressão do ar (ou de outro meio elástico) capaz de ser percebida pelo ouvido humano. O número de oscilações da pressão do ar por unidade de tempo definem suafreqüência, enquanto que a magnitude da pressão média define a potência e a intensidade sonora. A

freqüência é expressa em hertz (ou ciclos/segundo) e a pressão em pascal (ou newtons / m2),enquanto que a potência é a energia emitida pela fonte sonora por unidade de tempo, expressa em 

 joules /s ou W (estamos usando unidades do Sistema Internacional). A intensidade sonora pode ser

definida como potência por unidade de área, expressa em watt/ m2. Essas escalas para medida depressão, potência e intensidade das ondas sonoras são escalas lineares.Contudo, a pressão, a potência e a intensidade dos sons captados pelo ouvido humano cobrem umaampla faixa de variação.Por exemplo, um murmúrio irradia uma potência de 0.000 000 001 watt

enquanto que o grito de uma pessoa comum tem uma potência sonora de cerca de 0.001 watt; uma orquestra sinfônica chega a produzir 10 watts enquanto que um avião a jato emite 100 000 watts depotência ao decolar. Sendo assim, uma escala logarítmica, como o **decibel**, é mais adequada

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 37/124

para medida dessas grandezas físicas. Por este motivo, são usadas as seguintes escalas logarítmicas:Os valores de referência, Po, Io e Wo, correspondem aos limiares (ou umbrais) de percepção do

ouvido humano. Note que o dB no umbral é zero. Nas expressões acima,SPL = sound pressure level;IL = (sound) intensity level;PWL = (sound) power level.

Esta é uma dúvida que muitas pessoas têm. Segundo o "Novo Dicionário Aurélio da LinguaPortuguesa" (2a. edição Revista e Atualizada), o plural de bel é bels, enquanto para o plural dedecibel as duas formas são corretas: decibels e decibéis.Entretanto, no Brasil, o Decreto Federal No. 81.621 de 03/05/1978 (Anexo 3.2), sobre o QuadroGeral de Unidades de Medidas, estabelece que a forma legal do plural de decibel é decibels.O bel (símbolo B) é uma escala relativa, sem dimensão (como a percentagem), que compara aintensidade de um sinal a uma referência.Sendo uma escala logarítmica, uma diferença de 1 bel corresponde a uma relação de 10 empotência. Utiliza-se geralmente seu sub-múltiplo, o decibel (dB). Uma diferença de 1 decibel

corresponde a uma relação de 101 / 10, ou seja, aproximadamente 1,259.

O bel é utilizado para exprimir o valor de grandeza logarítmicas como o nível de campo, de potência, de intensidade sonora, de pressão acústica ou de atenuação. Os logaritmos de base dez sãoutilizados para se obter os valores numéricos das grandezas expressas em bel.O bel tem seu nome em homenagem ao físico Alexander Graham Bell.Existem algumas variantes do decibel, usadas para medir grandezas físicas, nesse caso sempre emrelação a uma referência. Podemos citar:•  dBspl para medir o nível de pressão sonora referenciado a uma pressão de 20 micropascal(menor som audível).dBspl = 20 log (pressão / 20uPa)•  dBm para medir potência, referenciado a 1 mW.dBm = 10 log (potência / 1mW)•  dBV para medir tensão elétrica, referenciado a 1VdBV = 20 log (tensão / 1V)•  dBU para medir tensão elétrica, referenciado a 0,775V (tensão necessária para obter umapotência de 1mW sobre uma carga de 600 ohms)

dBU = 20 log (tensão / 0,775V)

Eco

É necessário existir um obstáculo que esteja a mais do que 17 metros de distância da pessoa queemite o som; o obstáculo tem que ser feito de um material polido e denso que não absorva o som,por exemplo, metais, rochas, betão.O ser humano detecta dois sons que estejam separados por 0,1 segundos, ou seja, para a velocidadedo som no ar (340 m/s), esse tempo representa 34 metros. Assim, se o obstáculo estiver a menos de17 metros não detectamos a diferença entre o som que emitimos e o som que recebemos, e dessemodo, o eco não acontece apesar da onda ter sido reflectida.Em processamento de sinal de áudio e acústica, um eco é uma reflexão de som que chega aoouvinte pouco tempo depois do som direto. Exemplos típicos é o eco produzido no fundo de umaescadaria, por um edifício, ou em uma sala, pelas paredes. Um eco verdadeiro é uma única reflexãoda fonte de som. O intervalo de tempo é a distância extra dividida pela velocidade do som.Chama-se reverberação o fato de tantas reflexões chegarem ao ouvinte que ele não as pode

distinguir umas das outras.A intensidade de um eco é frequentemente medida em dB com relação à onda transmitidadiretamente.Ecos podem ser desejáveis (como no radar ou sonar) ou indesejáveis (como nos sistemas 

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 38/124

telefônicos).Em computação, um eco é a impressão ou visualização de caracteres à medida que:•  são introduzidos via um dispositivo de entrada,•  instruções são executadas , ou•  estes são retransmitidos e recebidos de um terminal distante.Se, num recinto fechado, for accionada uma f onte sonora, as primeiras ondas geradas propagam-se

até as paredes, sendo reflectidas. Percorrem um caminho em ziguezague por todas as direcções.Nesse intervalo de tempo, a fonte emitiu novas ondas que se combinam com as anteriores. Asvibrações sonoras aumentam, portanto, progressivamente de intensidade até alcançar um valorestacionário. A reverberação ocorre quando a diferença entre os instantes de recebimento dos doissons é inferior a 0,1 s. Não se percebe um novo som, mas há uma continuação do som inicial. Areverberação pode ajudar a compreender o que é dito por um orador num auditório. No entanto, oexcesso de reverberação pode atrapalhar o entendimento.A reverberação natural é um processo acústico complexo que, apesar de toda a tecnologia eletrônicaà nossa disposição, ainda não foi recriado com absoluta precisão por meios digitais. Existemunidades de reverberação que se aproximam mais do que nunca. Grandes avanços, tanto de  hardware como de software, tornaram possível proporcionar uma reverberação artificial com

densidade e resolução que se aproxima ao efeito natural, tentando aproximar do tipo de som limpo,para várias aplicações profissionais. Com intenção de proporcionar uma qualidade e flexibilidade dereverberação e efeitos num formato simples de usar, por exemplo, nos estúdios avançados àgravação profissional e reforço de som. A reverberação é um efeito essencial para os instrumentosmusicais, gravações e reforço de som. De fato, a qualidade dos efeitos utilizados tem uma influênciaimportante sobre a qualidade geral do

som. Ela é o efeito principal na constituição de uma sala virtual na qual o instrumento está

sendo executado.É fácil perceber que o som de uma caixa acústica parece "soar" diferente se for mudada para outro

ambiente de dimensões diferentes. De onde vem a diferença? Basicamente do volume do ambiente.Na verdade, ela é o resultado directo da influência do tempo de reverberação da nova sala, que seráoutro, sempre se posicionar a caixa em ambiente de tempo de reverberação diferente. Serão ouvidosalguns sons frequências mais "prolongados". O que ocorre é a maior ou menor - mas indesejada -repetição de reflexões das mesmas frequências, mais notadamente das médias e graves.A reverberação é a reflexão múltipla da mesma frequência.É bom lembrar que a reflexão múltipla ocorre para todas as frequências e não apenas para uma. Naverdade, o fenómeno é chamado de Onda estacionária. Ou seja; a mesma onda reflete-se a primeiravez, a segunda, a terceira, a quarta... percorrendo sempre o mesmo caminho. Como nosso ouvidonão percebe dois sons produzidos em tempo inferior a 1/17 de segundo entre eles (alguns autoresadoptam 1/15), se essas reflexões ocorrem dentro de um tempo inferior a isso, percebemos apenas

um som contínuo que vai perdendo "força" à medida que se reflecte mais vezes e é atenuadonaturalmente. Se pelo menos uma das paredes, ou o teto, estiver a mais de 17 m do plano que se lheopõe, será ouvido o eco.A Duração do tempo de reverberação varia conforme muitas variaveis, deve-se levar em conta olocal, os materiais que serão afetados pelas ondas sonoras assim como sua absorção e reflexão.Em Geral o tempo de reverberação esta muito proximo de zero mais em outras circunstâncias otempo pode chegar a mais de 20 segundos (Isto em salas com acustica preparada e desenvolvidaspara isso) mas em geral uma boa reverberação ambiente dura entre 0,2 e 0,3 segundos.Mas por que isso ocorre?Este tempo de reverberação natural occore graças ao fato de que as ondas sonoras tem umapropagação lenta se comparada com a da luz, o som se propaga a aproximadamente 340 metros porsegundo, e quando essas ondas são emitidas em ambiente aberto, ou seja sem nenhum local parareflexão, o que se pode ouvir é apenas o som direto, com tempo de reverberação 0, porém quandoas mesmas ondas se deparam com superficies refletoras (Lembrando que o som em um ambiente

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 39/124

não controlado se propaga, assim como a luz, em várias direções) as onda diretas chegam aoouvinte, mas as outras ondas "Reverberadas" chegam ao seu ouvido depois, já que foram refletidaspor outras superficies.Sabine é considerado por muitos o pai da acustica moderna. Ele introduziu conceitos como aFórmula de Sabine que encontra o tempo de reverberação em relação ao volume da sala ou caixaacústica e a absorção dos materiais que a compõem. Sendo assim temos a formula:

onde T=Tempo de Reverberação, V = volume em m³, A = Absorção em m² Sabine, e 0,161 é umacontante que torna o calculo mais precisoATENÇÂO: metros quadrados Sabine são metros quadrados de total absorção que podem variar delocal em local, sendo assim só é levado em consideração 1m², de material que realmente tenha umcoeficiente de absorção fixo.Agora eu posso calcular a reverberação de qualquer lugar?Não. Apesar de a formula ser um tanto simples, um local pode ter varios tipos diferentes demateriais, cada um com uma absorção diferente. Assim, antes de fazer os calculos, pesquise sobreos materiais que se encontram no local onde se deseja fazer o calculo deA velocidade do som é a distância percorrida por uma onda sonora por unidade de tempo. É avelocidade a que uma perturbação se propaga num determinado meio. ... Em instrumentação pode-

se utilizar este princípio para medir com boa exatidão distâncias entre obstáculos, assim:conhecendo-se a velocidade de propagação de um sinal (normalmente ultra-som no ar) é possívelmedir o tempo que ele gastou a percorrer um determinado espaço. Com este valor é simples calculara distância percorrida. Utilizam-se sensores especiais que emitem o sinal em forma de pulso (ultra-som) e os recebe de volta (eco). Um sistema microprocessado pode calcular o tempo gasto(normalmente milissegundos).

Velocidade do som c e C , densidade do ar  ρ, impedância acústica Z etemperatura . Impacto da temperatura

em °C c em m/s C em km/h  ρ em kg/m³  Z em N·s/m³

-10 325,4 1.171,4 1.341 436,5

-5 328,5 1.182,6 1.316 432,4

0 331,5 1.193,4 1.293 428,3

+5 334,5 1.204,2 1.269 424,5

+10 337,5 1.215,0 1.247 420,7

+15 340,5 1.225,8 1.225 417,0

+20 343,4 1.237,0 1.204 413,5

+25 346,3 1.246,7 1.184 410,0

+30 349,2 1.257,1 1.164 406,6

Em acústica, estereofonia ou simplesmente, estéreo, ou ainda stereo do inglês, consiste numsistema de reprodução do áudio que utiliza dois canais de som monaurais distintos (direito e esquerdo) sincronizados no tempo. É o padrão de reprodução encontrado nos CDs de música,porém vem sendo substituído nos cinema e em algumas gravações musicais pelo áudio multi-canal

(5.1/7.1). No entanto, aparelhos de som de alta fidelidade ainda usam principalmente a estereofonia.Um moderno sistema de reprodução de som com sintonizador de rádio em estério.A palavra 'estéreo' provem do termo grego stéreos, que significa "sólido".

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 40/124

Em 1881 Clément Ader apresentou um sistema estéreo na exibição de equipamentos elétricos em Paris, transmitindo uma ópera da capital francesa por meio de um tipo de telefone, o teatrófono, queproduzia uma sensação de som espacial para os ouvintes.Comercialmente, a estereofonia foi lançada em 1957, substituindo os aparelhos monaurais.Actualmente, muitos canais de televisão transmitem em som estéreo, bem como a grande maioriadas emissoras rádio de FM.

Esse tipo de reprodução sonora foi baseada no fato de que temos dois ouvidos, portanto temos umaaudição estereofônica, que nos permite saber se um som vem da esquerda ou da direita e de qual distância provém.Portanto um aparelho de som estereofônico procura reproduzir a posição em que os instrumentosmusicais e os cantores estavam no momento da gravação de áudio, sendo muito mais prazerosa quea reprodução monoaural, que provém de um único canal.Quando um som que está posicionado ao centro dos microfones é gravado, esse som terá o mesmosinal em ambos os canais durante a reprodução e é escutado um som central (designado de"fantasma" no Brasil). Ou seja, o som parece vir de um ponto médio entre as caixas acústicas.No entanto, quando o som está mais próximo de um microfone do que do segundo, durante areprodução esse som terá mais volume no altofalante correspondente.•  No estúdio gravam-se os sons – de uma orquestra por exemplo – por meio de dois microfones situados numa posição idêntica ao dos ouvidos humanos, tal como se um ser humanoestivesse presente no local.•  Nos sistemas reprodutores, o som gravado – por exemplo, no disco de vinil – é reproduzidono aparelho de som de forma simultânea em dois canais e em duas caixas acústicas, de modo asimular a mesma configuração espacial original, criando uma ilusão de que o som da orquestrapreviamente gravada, provem da mesma sala em que se encontra o ouvinte.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 41/124

Amplificador é um equipamento que utiliza uma pequena quantidade de energia para controlaruma quantidade maior, apesar do termo atualmente se referir a amplificadores eletrônicos. A relaçãoentre a entrada e a saída de um amplificador — geralmente expressa em função da freqüência deentrada — é denominada função de transferência do amplificador, e a magnitude da função detransferência é denominada de ganho.O tipo de amplificador mais comum é o eletrônico, comumente usado em transmissores e receptores

de rádio e televisão, equipamentos estéreo de alta fidelidade (high-fidelity ou hi-fi), microcomputadores e outros equipamentos eletrônicos digitais, e guitarras e outros instrumentosmusicais elétricos. Seus componentes principais são dispositivos ativos, tais como válvulas ou transistores.Em alta fidelidade o amplificador é um aparelho eletrônico que eleva os níveis de tensão dos sinaisde áudio. É muitas vezes empregado para designar o conjunto pré-amplificador e amplificador depotência ou o amplificador integrado.Pré-amplificador é o estágio de um amplificador de áudio que recebe o sinal da fonte sonora, taiscomo o gravador cassete, o receptor e o toca-discos de baixo nível e corrige-o, entregando em suasaída um sinal suficientemente elevado para excitar o amplificador de potência.Amplificador de potência é o estágio de um amplificador de áudio que eleva o sinal de áudio

fornecido pelo pré-amplificador a um nível de tensão e impedância adequados para funcionar as  caixas acústicas.O amplificador integrado possui o pré-amplificador e o amplificador de potência juntos no mesmoaparelho.No início dos anos do áudio, as válvulas faziam a atividade de dispositivos ativos. Atualmente aindasão utilizadas em aparelhos High End e em caixas amplificadas para instrumentos (guitarraelétrica). Um amplificador valvulado geralmente funciona sob altas tensões de alimentação e baixascorrentes, o que torna necessário o uso de transformadores de saída para adequar as impedâncias desaída do amplificador (altas) com as baixas impedâncias dos alto falantes. Os valvulados podem sermontados em topologia Single-End, onde apenas uma válvula amplifica todo o sinal, mas combaixo rendimento (classe A) e com topologia Push-Pull onde pares de válvulas são conectadas aotransformador de saída de forma que cada válvula de cada par amplifique apenas um semi-ciclo(positivo ou negativo) do sinal de áudio. São muito usadas válvulas pentodo de potência comoelementos de saída tais como KT88, KT66, 6550, EL34, EL84,6L6 e 6V6 entre outras.Com a invenção dos transístores, as válvulas foram pouco a pouco substituídas por estes novosamplificadores, devido às vantagens de menor consumo de energia, maior durabilidade, menortamanho e custo menor. Os amplificadores transistorizados têm comportamento diferente dosvalvulados, a distorção é diferente e não necessitam de transformadores de saída para casar as  impedâncias dos alto-falantes. Hoje os amplificadores transistorizados podem ser construídos comtransístores bipolares ou MOSFETs ou ainda circuitos integrados.Amplificadores Operacionais são amplificadores diferenciais DC de alto desempenho: alto ganho,

alta impedância de entrada, baixa impedância de saída e grande resposta em frequência. Foramcriados para implementar computadores analógicos, executando operações matemáticas (dondederivam seu nome) com valores de tensões como operandos e resultados. Podem ser construídoscom transístores ou válvulas (hoje a maioria é na forma de circuito integrado). São muito usados eminstrumentação e equipamentos eletrônicos em geral.Os amplificadores operacionais podem ainda ser divididos em dois tipos:•  Entrada em Tensão•  Entrada em Corrente (tipo Norton)As classes de amplificadores diferenciam-se quanto ao método de operação, eficiência, linearidadee capacidade de potência de saída.Os amplificadores podem ser classificados em:•  Classe A - o dispositivo eletrônico de saída (válvula ou transistor) conduz durante os 360graus do sinal de entrada.•  Classe B - o dispositivo eletrônico de saída (válvula ou transistor) conduz durante apenas

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 42/124

180 graus do sinal de entrada (apenas um semi-ciclo)•  Classe AB - situam-se entre os amplificadores de Classe A e os de Classe B, de forma que odispositivo eletrônico de saída (válvula ou transistor) conduz durante mais do que 180 graus dosinal de entrada, mas não na sua totalidade•  Classe C - o dispositivo eletrônico de saída (válvula ou transistor) conduz durante menos doque 180 graus do sinal de entrada•  Classe D - operam modulando o sinal de entrada na forma de pulsos (PWM, "pulse widthmodulation"), controlando o dispositivo eletrônico de saída (válvula ou transistor) através de doisníveis de tensão, os quais fazem com que o dispositivo conduza ou entre em corte•  Classe F - alta eficiência (idealmente 100%) e alta potência de saída. Usado principalmentepara aplicações de RF e microondas.

• Monitores amplificados

Os monitores amplificados são essencialmente equipamentos "plug-and-play": basta plugar o cabode alimentação à rede elétrica e conectar o cabo de áudio à entrada de sinal do monitor - e está tudopronto!

Alguns monitores amplificados possuem um único amplificador que mandao sinal para o woofer e o tweeter. Outros, chamados de bi-amplificados,possuem dois amplificadores separados, um para o woofer e outro para otweeter. Já um sistema com três vias com amplificador para cada uma, seriaum monitor "tri-amplificado".

Mas os monitores "ativos" são mais do que apenas caixas acústicas com

amplificadores embutidos. Além dos alto-falantes, amplificadores e fonte dealimentação, os monitores amplificados também contêm, entre outras coisas,crossovers que determinam a separação das faixas de graves e de agudos, para encaminhá-las aowoofer e tweeter. As vantagens de se ter todas essas coisas integradas são: melhor resposta atransientes, maior faixa dinâmica e melhor coerência de fase.

Os monitores amplificados também resolvem outros problemas para o engenheiro de mixagem. Emprimeiro lugar, eles oferecem um sistema de monitoração completo e otimizado. Não hánecessidade de se preocupar com a compatibilidade entre as caixas e o amplificador, uma vez quetodos os componentes do sistema já foram cuidadosamente adequados para o melhor desepenho.Além disso, como o monitor amplificado contém tudo dentro dele, fica mais fácil de sertransportado de um local para outro.

O posicionamento dos monitores no estúdio tem uma grande influência no resultado final. Se ascaixas estiverem muito próximas, o campo stereo fica reduzido e as reflexões vindas das superfíciespodem enfatizar ou cancelar porções do espectro de freqüências.

Alguns monitores ativos possuem controles de tonalidade que permitem ajustar a sua resposta defreqüências de acordo com o ambiente e o posicionamento dos monitores. Além disso, se o sistemapossui também um subwoofer (recomendado, quando se usa monitorespequenos), talvez seja preciso compensar o aumento da resposta de

baixas freqüências atenuando os graves nos monitores. Por outro lado,alguns sistemas (como os da Event) permitem até ajustar o crossoverdo subwoofer para adequar à resposta dos monitores amplificados.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 43/124

Independentemente da posição dos monitores no estúdio, para uma ótima monitoração é melhorcolocá-los de forma que formem um triângulo equilátero com a cabeça do engenheiro de mixagem.Para uma monitoração mais próxima ("close-field") - o método usual em pequenos estúdios - issosignifica uma distância de cerca de um metro entre os monitores e entre cada um deles e a cabeçado ouvinte. Obviamente, não deve haver qualquer obstáculo entre os monitores e o ouvinte; assuperfícies reflexivas (mixer, etc) no caminho direto do monitor podem deteriorar o som.

Fonte de referência: revista Electronic Musician

Este artigo foi publicado no music-center.com.br em 2002• •  Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Equipamentos de som analógico.

O Disco de vinil, ou simplesmente Vinil ou ainda Long Play (abreviatura LP), ou coloquialmentebolachão é uma mídia desenvolvida no início da década de 1950 para a reprodução musical, queusava um material plástico chamado vinil.Trata-se uma bolacha de material plástico, usualmente de cor preta, que registra informações de áudio, as quais podem ser reproduzidas através de um toca-discos. O disco de vinil possui micro-sulcos ou ranhuras em forma espiralada que conduzem a agulha do toca-discos da borda externa atéo centro no sentido horário. Trata-se de uma gravação analógica, mecânica. Esses sulcos sãomicroscópicos e fazem a agulha vibrar, essa vibração é transformada em sinal elétrico e por fimamplificado e transformado em som audível (música).O vinil é um tipo de plástico muito delicado e qualquer arranhão pode comprometer a qualidadesonora. Os discos precisam constantemente ser limpos e estar sempre livres de poeira, serguardados sempre na posição vertical e dentro de sua capa e envelope de proteção. A poeira é o piorinimigo do vinil pois funciona como um abrasivo, danificando tanto o disco como a agulha.

O disco de vinil surgiu no ano de 1948, tornando obsoletos os antigos discos de goma-laca de 78rotações, que até então eram utilizados. Os discos de vinil são mais leves, mais maleáveis eresistentes a choques, quedas e manuseio. Mas são melhores principalmente pela reprodução de umnúmero maior de músicas (ao invés de uma canção por face do disco) e finalmente pela suaexcelente qualidade sonora.A partir do final da década de 1980 e início da década de 1990, a invenção dos compact discs (CDs)

prometeu maior capacidade, durabilidade e clareza sonora, sem chiados, fazendo os discos de vinilficarem obsoletos e desaparecerem quase por completo no fim do Século XX. No Brasil, os LPs emescala comercial foram comercializados até meados de 2001.Com o fim da venda comercial dos discos de vinil , alguns audiófilos preferem o vinil, dizendo serum meio de armazenamento mais fiel que o CD e é curioso que a FNAC e outras lojas daespecialidade ainda têm uma pequena seção com discos em vinil que são ainda hoje editadas poralguns ( muito poucos) artistas/bandas.Durante o seu apogeu, os discos de vinil foram produzidos sob diferentes formatos:•  LP: abreviatura do inglês Long Play (conhecido na indústria como, Twelve inches--- ou, "12polegadas" (em português) ). Disco com 31 cm de diametro que era tocado a 33 1/3 rotações porminuto. A sua capacidade normal era de cerca de 20 minutos por lado. O formato LP era utilizado,

usualmente, para a comercialização de álbuns completos. Nota-se a diferença entre as primeirasgerações dos LPs que foram gravadas a 78 RPM (rotações por minuto).•  EP: abreviatura do inglês  Extended Play. Disco com 17 cm de diametro e que era tocado,

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 44/124

normalmente, a 45 RPM. A sua capacidade normal era de cerca de 8 minutos por lado. O EPnormalmente continha em torno de quatro faixas. •  Single ou compacto simples: abreviatura do inglês Single Play (também conhecido como,seven inches---ou, "7 polegadas" (em português) ); ou como compacto simples. Disco com 17 cm dediametro, tocado usualmente a 45 RPM (no Brasil, a 33 1/3 RPM). A sua capacidade normalrondava os 4 minutos por lado. O single era geralmente empregado para a difusão das músicas de

trabalho de um álbum completo a ser posteriormente lançado .•  Máxi: abreviatura do inglês Maxi Single. Disco com 31 cm de diametro e que era tocado a45 RPM. A sua capacidade era de cerca de 12 minutos por ladoOs discos de goma-laca de 78 rotações, foram substituídos pelo LP. Depois o CD tomou o lugar dedestaque do LP, pois teve ampla aceitação devido sua praticidade, seu tamanho reduzido e som livrede ruídos. A propaganda do CD previa o fim inevitável do LP, que é de manuseio difícil e delicado.Certos entusiastas defendem a superioridade do vinil em relação às mídias digitais em geral (CDs,DVDs e outros). O principal argumento utilizado é o de que as gravações em meio digital cortam asfreqüências sonoras mais altas e baixas, eliminando harmônicos, ecos e batidas graves e"naturalidade" e espacialidade do som. No entanto estas justificativas não são tecnicamenteinfundadas, visto que a faixa dinâmica e resposta do CD não supera em todos os quesitos as do

vinil.Os defensores do som digital argumentam que a eliminação do ruído (o grande problema do vinil)foi um grande avanço na fidelidade das gravações. Os problemas mais graves encontrados com oCD no início também foram aos poucos sendo solucionados. O sucessor do CD, o DVD-Audio,oferece fidelidade superior ao CD, apesar de sua baixa penetração no mercado a início.Até hoje se fabricam LPs e toca-discos, que ainda são objetos de relíquia e estima para audiófilos eentusiastas de música antiga.Uma curiosidade: o disco de vinil não precisa de um aparelho de som propriamente para ser"tocado". Experimente colocar o disco rodando na vitrola, sem áudio, com as caixas de somdesligadas. Você conseguirá ouvir o disco, pois seu princípio de funcionamento se baseia navibração da agulha no sulco (espiralado, como um velodromo, tendendo ao infinito como uma linhareta) dentro das ranhuras, que nada mais são do que a representação freqüencial do áudio emquestão.Bobine é um método de gravação de som que utiliza uma fita de material plástico, com umacobertura metálica magnetizável, desenvolvido em 1934. É dos métodos de gravação e reproduçãosonora mais fiáveis, sendo ainda hoje utilizado nos estúdios profissionais ou para audição de altafidelidade em residências.O gravador de bobines é assim chamado pois a fita se encontra armazenada num carreto ou carretel,sendo desenrolada e, após passar pelas cabeças de leitura e/ou de gravação, é enrolada novamenteem outro carreto. Estes dois carretos são peças separadas, desse modo o manuseio dos mesmos édesconfortável, trabalhoso e sujeito ao acúmulo de poeira.

Os tamanhos das bobines são variáveis, sendo que as mais usadas são de de 15 ou 17 cm dediâmetro.Esse sistema deu origem à fita cassete, que é menor e mais prática, pois é um sistema selado. O cassete ou compact cassete é um padrão de fita para gravação de áudio lançado oficialmente em 1963, invenção da empresa holandesa Philips.O cassete era constituído basicamente por 2 carretéis, a fita magnética e todo o mecanismo demovimento da fita alojados em uma caixa plástica, isto facilitava o manuseio e a utilizaçãopermitindo que a fita fosse colocada ou retirada em qualquer ponto da reprodução ou gravação sema necessidade de ser rebobinada como as fitas de rolo. Com um tamanho de 10 cm x 7cm, a caixaplástica permitia uma enorme economia de espaço em relação às fitas tradicionais.

O audiocassete ou fita cassete foi uma revolução difundindo tremendamente a possibilidade de segravar e se reproduzir som. No início, a pequena largura da fita e a velocidade reduzida (parapermitir uma duração de pelo menos 30 minutos por lado) comprometiam a qualidade do som, mas

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 45/124

recursos tecnológicos foram incorporados ao longo do tempo que tornaram a qualidade bastanterazoável como: novas camadas magnéticas (Low Noise, Cromo, Ferro Puro e Metal), cabeças degravação e reprodução de melhor qualidade nos aparelhos e filtros (dolby, dnr) para redução de ruídos.Os primeiros gravadores com áudio cassete da Philips já eram portáteis, mas no final dos anos 70com a invenção do walkman pela Sony, um reprodutor cassete super compacto de bolso com fones

de ouvido, houve a explosão do som individual

Fones de ouvidoPB ou auscultadoresPE (chamados ainda de auriculares e  headphones) são aspalavras geralmente usadas para se referir a honorifiers e são pequenos alto-falantes para audiçãodireta na cabeça do ouvinte. A finalidade é proporcionar uma audição privada, quando não se puderouvir som pelas caixas acústicas, ou ainda minimizando as interferências de outras fontes sonorasque estejam sendo reproduzidas simultaneamente no mesmo recinto.É de grande importância que os usuários de fones de ouvido não se exponham por mais de 30minutos a um ruído de 100dB. Hoje nos ipods, com seus headphones poderosos, chega-se até a115dB. Vale lembrar que a partir dos 80dB, a cada 5dB adicional, tira-se pela metade o tempo deexposição. Partindo-se de 16 horas com 80dB, você pode calcular o quão poderás ser prejudicial. A

exposição constante ao ruído pode causar perda auditiva com surdez e tinnitus, ou zumbido nos ouvidos. Isso significa que um barulho agudo ou algo parecido será apercebido pelo portador detinnitus.O Gravador é um dispositivo eletrônico, criado para registrar e reproduzir sons em uma fitamagnética.Durante a gravação, o som é convertido através de um microfone em um sinal elétrico oscilante,que quando passa pelas espiras de um eletroíma produz um campo eletromagnético oscilanteequivalente ao som recebido pelo microfone.À medida que passa pelo eletroíma (cabeçote de gravação), a fita magnetiza-se, originando padrõesque refletem o som da gravação. Na reprodução, o padrão magnético da fita produz em um indutor(cabeçote de reprodução) um sinal elétrico que, após ser amplificado, aciona um alto-falante.Nas versões estéreo ambos os cabeçotes têm dois enrolamentos que operam de forma independentede forma que cada um deles é responsável pela gravação/ reprodução de um dos canais (esquerdo edireito). Neste caso a fita, obviamente, tem que suportar a gravação de mais de um sinal ao mesmotempo (em geral existem pistas magnéticas na fita, 4 ao todo, esquerdo e direito do lado A eesquerdo e direito do lado B, mas isso pode variar).Criado pelo engenheiro dinamarquês Valdemar Poulsen ao construir o primeiro gravador em 1898,que registrava o som em um fio. Progressos subseqüentes incluíram a fita plástica em 1935, agravação estereofônica em 1958, considerado na época um grande avanço, pois podia ouvir em duascaixas de som a gravação, e os sistemas Dolby de redução do ruído superficial das fitas cassete em 1966.

Possibilita a gravação de todas as chamadas recebidas e efetuadas, garantindo o controle, segurançae otimização das ligações proporcionando redução significativa do uso do telefone para fins nãoempresariais. A gravação pode ser feita de forma:Contínua: grava todas as ligações do início ao fim.Seletiva: programa posições e horários para gravar.Controle manual: agentes acionam a gravação por teclado quando há necessidade de gravaçãodaquela conversação.CaracterísticasGravação de ligações telefônicas no HD do computador;Possibilita consultar e ouvir as gravações das conversações telefônicas;Permite fazer o backup das gravações;

Grava as ligações no formato WAVE áudio, GSM 6.10, mono 8000 Hz. Cada minuto de ligaçãogravada tem 100 KB.Geração de relatórios com data, número de ligações por dia ou período, duração total das ligações,

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 46/124

média de tempo por ligação, etc.;Acesso restrito aos relatórios, através de usuário e senha;O sistema pode ser integrado com outras centrais telefônicas, permitindo a gravação de ligações.Uma fita magnética para computadorFita magnética (ou banda magnética) é uma mídia de armazenamento não-volátil que consiste emuma fita plástica coberta de material magnetizável. A fita pode ser utilizada para registro de

informações analógicas ou digitais, incluindo áudio, vídeo e dados de computador.As fitas magnéticas são formadas por uma base coberta por uma superfície de gravação — umpolímero no qual está disperso o pigmento magnético (como óxidos de ferro ou de cromo).Normalmente adiciona-se à esta superfície um componente lubrificante. A fita pode ter umacobertura traseira, para proteção e redução de atrito.Em alguns casos, a superfície de gravação não é composta de pigmentos dispersos em polímero,mas de uma finíssima camada metálica depositada diretamente sobre a base.As fitas estão disponíveis em rolos, cassetes ou cartuchos. Fitas em rolos, a forma mais antiga,requerem cuidadosos procedimentos de montagem, mas são baratas e permitem bastante controle dooperador. Fitas em cassete embutem um rolo doador e um rolo receptor em um único invólucro esão hoje em dia as mais difundidas. Cartuchos possuem um único rolo: a fita se apresenta ou como

um laço sem fim (de forma que um único rolo possa atuar como doador e receptor) ou com umaguia inicial que é adaptada a um segundo rolo embutido no dispositivo de leitura e gravação.Cassetes e cartuchos são muito mais simples de montar.Existem basicamente duas tecnologias de gravação em fitas magnéticas: a longitudinal e ahelicoidal. A primeira utiliza uma cabeça estática, que grava trilhas de dados paralelas ao sentido dedeslocamento da fita. A segunda utiliza cabeças rotativas, acopladas a um tambor que gira em altavelocidade, gravando trilhas de dados diagonais ao sentido da fita. A tecnologia helicoidal permiteuma densidade de gravação muito maior que a longitudinal, mas impõe um severo desgaste tantosobre a mídia quanto sobre o equipamento, por causa do atrito do tambor giratório, que chega aalcançar velocidades de 2.000 RPM.Um exemplo da tecnologia helicoidal é a DDS , uma fita de 4mm em cassete, introduzida pela Sonye pela Hewlett-Packard, que utiliza a mesma tecnologia da fita DAT . Em sua versão mais recente, oDDS-4, essas fitas têm capacidades nativas de 20 GB, chegando a 40 GB em modo comprimido.Por causa do desgaste mecânico, os fabricantes destas fitas garantem sua confiabilidade por apenas2.000 passagens pela cabeça de leitura/gravação, em condições ideais. Como em uma únicaoperação da fita normalmente provoca mais de uma passagem pelo mesmo local, os fabricantesrecomendam que a mesma fita seja usada em apenas cerca de 100-150 operações de cópia — emcondições ideais. A cabeça de leitura do dispositivo sofre também desgastes, e tem uma expectativade vida de 2.000 horas de uso.A fita DLT, uma fita de meia polegada em cartucho, patenteada pela Quantum Corporation,exemplifica a tecnologia longitudinal. Na versão DLT-IV, estas fitas têm capacidades nativas de 40

GB (80 GB em modo comprimido). Um mecanismo especial reduz tanto o desgaste das fitas,quanto das cabeças de leitura do dispositivo. Em condições ideais, as fitas resistem a 1.000.000 depassagens, ou cerca de 10.000 operações de cópia, enquanto a expectativa de vida da cabeça podechegar a 30.000 horas.As fitas magnéticas são, ao lado dos discos ópticos, a principal representante dos suportes de armazenamento terciário. Sendo, talvez, o suporte de dados mais antigo ainda amplamente utilizadoem sistemas de informação, elas sofreram diversas evoluções desde seu advento, no início dadécada de 1950.Quando comparadas aos discos ópticos e óptico-magnéticos, as vantagens das fitas são a grandecapacidade de armazenamento, o baixo custo por unidade armazenada, a longa expectativa de vida ea confiabilidade na retenção dos dados ao longo de sua vida útil. Suas desvantagens são o acesso

seqüencial (as fitas requerem um moroso avanço e retrocesso para que sejam acessados os dadosdesejados), a necessidade de treinar o operador ou usuário para sua manipulação correta, o elevadocusto dos dispositivos de leitura/gravação e a maior fragilidade.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 47/124

A primeira aplicação da fita magnética foi o registro de áudio, razão pela qual ela foi inventada porFritz Pfleumer em 1928, na Alemanha. Ela descende da gravação em cabos magnéticos, criada por Valdemar Poulsen em 1898. Uma grande variedade de equipamentos e formatos foi desenvolvidadesde então.A gravação de vídeo requer muito mais banda passante que a de áudio, e se tornou possível graças àinvenção da tecnologia de gravação helicoidal. Os primeiros gravadores de vídeo usavam fitas em

rolo, mas sistemas modernos utilizam cartuchos e cassetes, tendo o videocassete doméstico setornado bastante popular.A durabilidade e confiabilidade da fita magnética estão condicionadas à saúde de todos os seuscomponentes. Nas fitas modernas, a base é de poliéster muito resistente e quimicamente estável e ospigmentos magnéticos são óxidos metálicos estáveis. O primeiro elemento a se degradar quasesempre é o polímero de dispersão, responsável — dentre outras coisas — pela adesão da superfíciede gravação à base. A umidade atmosférica provoca no polímero uma reação conhecida como  hidrólise, deteriorando suas propriedades. A fita atacada por hidrólise pode apresentar separaçãoentre as camadas de gravação e de base, ou ainda a síndrome da fita grudenta em que a superfíciemagnética se torna pegajosa e adere à cabeça de leitura/gravação, por vezes impedindocompletamente a recuperação dos dados.

As fitas não baseadas em polímero não estão sujeitas à hidrólise, mas são extremamente sensíveis àpoluição e umidade atmosféricas, que atacam o metal depositado em sua superfície.Procedimentos corretos para manipulação e armazenamento de fitas magnéticas são essenciais paragarantir sua longevidade. Basicamente, as fitas devem ser armazenadas em condições de baixatemperatura e umidade relativa do ar, longe de poluição, poeira, tabaco e gases corrosivos. Elasdevem ser protegidas da exposição acidental a campos magnéticos fortes, como detectores demetais, autofalantes, motores elétricos, etc. As fitas devem ser sempre armazenadas em posiçãohorizontal, de forma que com o tempo, o rolo não se apóie sobre um dos lados do carretel,danificando a borda da fita quando esta for desenrolada. Algumas fitas precisam ter seus rolosretensionados periodicamente, após longos períodos sem uso, o que é feito rebobinando-os emvelocidades controladas. As fitas não devem sofrer quedas ou choques violentos, nem grandesvariações de temperatura, e somente devem ser manipuladas por usuários treinados, em ambienteslimpos. Para que as mídias não sejam danificadas durante a operação, os dispositivos deleitura/gravação devem estar sempre cuidadosamente limpos e regulados, especialmente os rolostensores, os guias da fita e a cabeça de leitura/gravação.Ao contrário dos discos rígidos, as fitas magnéticas não toleram uso contínuo: o desgaste das mídiasprovocado cada passagem pelo mecanismo limita o número de operações. Algumas tecnologias defitas (e.g. DLT) provêem redundância e uma capacidade de corrigir pequenos erros nos dados(chamados soft errors — erros leves). Ao final de cada operação, o usuário é informado de quantoserros leves foram encontrados e corrigidos. Um aumento nesse número é sinal de que a fita deve sersubstituída antes que ocorram erros irrecuperáveis (chamados hard errors — erros graves).

Com os cuidados devidos, a expectativa de vida de uma fita pode alcançar três décadas,freqüentemente ultrapassando a própria obsolescência de sua tecnologia.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 48/124

Microfones - características 

por Miguel Ratton

O microfone é, sem dúvida, uma das peças essenciais de um estúdio ou de um sistema desonorização. Escolher um microfone não é uma tarefa fácil, pois além das características técnicas,

há uma enorme variedade de fabricantes e modelos, com preços diferentes. Este texto tem porobjetivo dar informações elementares. Para mais detalhes sobre o assunto, recomendamos aspublicações citadas comoe referência.

No que se refere à transdução do sinal sonoro acústico para sinal elétrico, os microfones podem serclassificados, basicamente, em dois tipos: dinâmico e capacitivo.

O microfone dinâmico consiste de um diafragma fino acoplado a uma bobina móvel dentro de umcampo magnético. Quando o som atinge o diafragma, este move-se para dentro e para fora, e estemovimento da bobina dentro de um campo magnético produz uma variação de corrente na bobina (econseqüentemente uma variação de tensão em seus terminais) análoga à variação da pressãoatuando no diafragma.

Os microfones dinâmicos em geral possuem pouca sensibilidade, mas são fáceis de usar, pois nãorequerem alimentação elétrica, e por isso são preferidos para uso ao vivo.

São exemplos de microfones dinâmicos: Shure SM57, Shure SM58, AKG D880, AKG D3700,Samson Q2, etc.

O microfone capacitivo, também conhecido como microfone "condenser", usa o princípio de umcapacitor variável, consistindo de um diafragma montado bem próximo a uma placa fixa. Uma

carga elétrica polarizada fixa é mantida entre a placa e o diafragma e, conforme este se move com apressão sonora, a voltagem entre a placa e o diafragma varia analogamente. Atualmente, a cargapolarizada usada na maioria dos microfones condenser é implementada com um "eletreto" pré-polarizado, uma camada carregada permanentemente na placa ou na parte posterior do própriodiafragma. A polarização por meios externos normalmente é usada somente nos microfones deestúdio de mais alta qualidade.

Os microfones capacitivos possuem alta sensibilidade e menor saturação do sinal. Sua utilização,entretanto, requer alimentação elétrica, através de bateria interna ou "phantom power".

São exemplos de microfones capacitivos: Shure PG81, AKG C1000S, AKG C3000B, Samson Q1,

etc.

Quanto à forma de captação, os microfones podem ser omnidirecionais, ou direcionais.

Os microfones omnidirecionais podem captar o som vindo de todas as direções. A maioria dosmicrofones "de lapela", usados por locutores, são omnidirecionais.

Os microfones direcionais do tipo "cardióide" podem captar com mais intensidade o som vindopela frente, e com menos intensidade o som vindo dos lados, rejeitando o som vindo por trás.Assim, seu diagrama de captação se assemelha a um coração, e por isso o nome "cardióide". Elessão muito usados em aplicações ao vivo, onde se deseja captar a voz do cantor mas não o som domonitor que está à sua frente, por exemplo.

Os microfones direcionais do tipo "hiper-cardióide" podem captar com muita intensidade o som

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 49/124

vindo pela frente, e com muito menos intensidade o som vindo dos lados, mas podem captar umpouco o som vindo por trás. Eles são mais usados em aplicações ao vivo, onde os monitores estãonas laterais à frente do cantor, por exemplo.

Referências:- Microphone Basics & Fundamentals Of Usage (AKG)

- Microfones - Tecnologia e Aplicação, de Sólon do Valle (Ed. Música & Tecnologia)

Microfones - Noções e Aplicações

1. Como funcionam os microfones 

Existem dois princípios operacionais usados nosmicrofones AKG: o dinâmico e o capacitivo. Omicrofone do tipo dinâmico consiste de um diafragmafino acoplado a uma pequena bobina de alumínio imersa

num forte campo magnético. Quando o som atinge odiafragma, ele então se move para dentro e para fora,fazendo a bobina também se mover. O movimento dabobina dentro do campo magnético fixo gera umavoltagem nos terminais da bobina, que é análoga àcondição da pressão do ar no diafragma, como mostra aFig.1.

Figura 1

Os microfones que usam o princípio do capacitor variávelsão conhecidos como microfones capacitivos ou “condenser”

(o termo condensador vem da terminologia eletrônicaantiga). O microfone capacitivo consiste de uma placa fixadamuito próxima ao diafragma, como mostra a Fig.2. Entre aplaca e o diafragma é mantida uma carga elétrica polarizada,de forma que quando o diafragma se move sob a influênciadas ondas sonoras, a voltagem entre ele e a placa varia damesma forma.

Figura 2

Atualmente, na maioria dos microfones capacitivos a polarização é obtida por meio de um eletreto,uma camada pré-polarizada, localizada na placa ou então atrás do próprio diafragma. Os microfonesprofissionais de alta qualidade geralmente usam polarização externa. A Fig.3 mostra a vista emcorte de um microfone capacitivo pré-polarizado, com o material polarizante (eletreto) localizadona placa.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 50/124

 Figura 3

Todos os microfones capacitivos possuemum pré-amplificador localizado junto aodiafragma, necessário para converter a alta

impedância do elemento capacitivo variávela um valor adequadamente baixo, para queo sinal possa ser facilmente transmitido sem perda significativa através de um cabo comum.

Alguns microfones pré-polarizados são alimentados diretamente por uma bateria de 9 volts, comomostrado no diagrama da Fig.3, mas quase todos os microfones capacitivos são alimentadosexternamente por uma fonte de 48 volts em corrente contínua, chamada de “phantom power”, que éfornecida pela mesa de mixagem ou outro tipo de equipamento onde o microfone pode serconectado (pré-amplificador, etc). Alguns microfones, como o AKG C1000S, podem seralimentados tanto por uma bateria interna de 9V quanto por “phantom power”.

1.1. Padrões de captação dos microfones 

A característica mais fundamental de um microfone é seu padrão de captação tri-dimensional.Talvez 90% de todos os microfones estejam dentro de duas categorias: omnidirecionais ecardióides.

Os microfones do tipo cardióide são, basicamente, unidirecionais, e existem três variações:cardióide, hiper-cardióide, e super-cardióide. A AKG oferece uma variedade de padrões decaptação em sua linha de microfones de mão, dinâmicos ou capacitivos. Alguns modelos,geralmente referidos como “shotgun”, possuem um tubo longo que os torna altamente direcionaisem freqüências médias e altas. Esses designs exóticos não usados nas aplicações mais comuns, massão extremamente úteis quando a captação precisa ser feita a uma distância razoável da fonte

sonora.

1.1.1. Omnidirecional 

A Figura 4 mostra o padrão omnidirecional numarepresentação em duas dimensões conhecida como padrãopolar (A), e também numa representação tri-dimensional (B).

Figura 4

O padrão omni é obtido restringindo a entrada do som no microfone a um único ponto nafrente do diafragma. Por causa disso existe pouquíssima distinção quanto à direção em que o somincide, e assim o microfone responde igualmente aos sons vindos de todas as direções. Nasfreqüências muito altas há uma tendência à captação maior pela frente, mas na maioria dasaplicações isso é irrelevante.

1.1.2. Cardióide 

A Figura 5 mostra os detalhes do microfone do tipo cardióide. Observe que há dois caminhos até odiafragma: um pela frente, e outro pelas aberturas dos lados.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 51/124

 Figura 5

Para fontes sonoras localizadas no eixo domicrofone (“on-axis”), isto é, com ângulo de

incidência de 0°, o som que entra pela frente sempre chega antes do som que entra por trás, pois eleatravessa um caminho mais curto (Fig.5A), e por isso é captado pelo microfone. Para uma fontesonora localizada atrás (180°) do microfone, os dois sons que chegam ao diafragma são opostos eiguais, e assim se cancelam (Fig.5B). Na construção do microfone é usada uma resistência acústica

para assegurar que os caminhos pela frente e por trásfiquem iguais para o caso de sinais que incidem a 180° doeixo.

Para posições intermediárias, a resposta irá variar, comomostra o diagrama polar na Fig.6A. Na Fig.6B é mostradauma representação tri-dimensional do padrão cardióide.

Figura 6

A estrutura interna de um microfone cardióide é muitomais complexa do que a de um microfone omni, e étomado um cuidado muito grande no projeto docaminho por trás para que o cancelamento para fontes a180° seja uniforme na maior gama possível defreqüências.

Figura 7

O gráfico da Fig.7 mostra um ótimo exemplo de microfone cardióide, medido em 0°, 90°, e 180°.Como se pode observar, a rejeição em 180° é da ordem de 20 a 25 dB na faixa de freqüênciasmédias, mas a ação cardióide diminui tanto nas freqüências muito baixas quanto nas muito altas.

1.1.3. Hiper-cardióide e super-cardióide 

Estes tipos são variações do padrão cardióide básico, e podem ser muito úteis em certas aplicações.

Se o caminho por trás é levemente alterado, pode-se variar o ângulo no qual a captação é mínima.Existem dois padrões resultantes dessas alterações, que são conhecidos como hiper-cardióide esuper-cardióide. Esses padrões têm o efeito de mudar o alcance do microfone, e podem ser muitoúteis em determinadas aplicações de sonorização, por permitir mais ganho sem microfonia do queum cardióide. Isto será discutido na próxima seção.

1.2. Aspectos importantes dos microfones 

Vejamos algumas diferenças importantes existentes entre os microfones com captaçãoomnidirecional e os com captação cardióide.

1.2.1. Omnidirecionais 

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 52/124

•  A maioria dos microfones omni, sobretudo do tipo capacitivo, possui uma resposta defreqüências bastante suave e por isso são largamente usados para captação de voz, tanto emsistemas de sonorização quanto em estúdios de gravação.•  Os microfones omnidirecionais têm um ruído de manuseio relativamente baixo e nãopossuem o efeito de proximidade, que realça os graves, como os cardióides (veja a seguir).•  Por causa de seus diafragmas bem amortecidos, os microfones omnidirecionais geralmente

são mais robustos do que os cardióides.1.2.2. Cardióides •  Um microfone cardióide possui um alcance maior do que um omnidirecional. Graças ao seupadrão de captação voltado para a frente, ele possui uma alta relação entre a resposta a sons vindosna direção de seu eixo e a resposta a direções aleatórias. A Fig.8A mostra uma comparação entremicrofones omnidirecionais e cardióides, em termos de distâncias equivalentes de operação. O queessa ilustração demonstra é que o microfone cardióide pode ser usado a uma distância 1,7 vezesmaior do que um omnidirecional, e ainda assim oferecendo a mesma supressão global do ruídoaleatório do ambiente.

Um microfone com padrão hiper-cardióide pode ser usado a uma distância 2 vezes maior do que o

omnidirecional para produzir um mesmo resultado, e um microfone com padrão super-cardióidepode ser usado a uma distância 1,9 vezes maior. Em termos de decibéis, quando usados a umamesma distância de operação a rejeição do cardióide a os sons que chegam aleatoriamente é daordem de 4,8 dB a mais do que um omnidirecional (Fig.8B). Por comparação, o super-cardióideteria uma rejeição de 5,8 dB a mais, e o hiper-cardióide uma rejeição de 6 dB a mais.

Figura 8

•  O “efeito de proximidade”é ao mesmo tempo uma bênção e

uma desgraça. Muitos cantores adoram a ênfase dosgraves que se obtém quando seguram o microfonecardióide muito perto da boca, e por isso jamais pensamem usar um microfone omnidirecional. Por outro lado, oefeito de proximidade faz o microfone cardióide sermuito sensível a ruídos pelo seu manuseio e aos efeitosdo vento. A Fig.9 mostra o efeito de proximidade típico

com um microfone cardióide: a resposta de freqüências é mostrada para distâncias de operaçãodesde 7,5 cm até 30 cm. Esse microfone foi projetado para ter uma queda de resposta a baixasfreqüências de acordo com o aumento da distância, deforma que o efeito de proximidade restaure as baixasfreqüências quando o microfone é posicionado maispróximo. Muitos dos microfones indicados para vozsão projetados dessa maneira, de forma a poderemcausar um pequeno reforço quando usados próximos àboca.

Figura 9

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 53/124

•  Em aplicações normais de sonorização, o padrão cardióide oferece imunidade extra àrealimentação (microfonia), embora talvez nem sempre tão próximo dos 4,8 dB mencionados noitem 1 acima.•  Como podemos ver, os padrões hiper-cardióide e super-cardióide oferecem uma pequenamelhoria em relação ao cardióide em termos de imunidade a sons aleatórios. Embora o engenheirode gravação possa preferir o cardióide comum por seu ponto nulo em 180°, o engenheiro de

sonorização geralmente prefere o super-cardióide e o hiper-cardióide pelo seu maior alcance. Aoabrir mais o lóbulo posterior (180°) na resposta direcional (veja representação dos padrões naFig.8B), o padrão frontal fica mais “justo” do que no cardióide comum. Isso pode também ser útilno palco, onde dois ou mais cantores podem estar bastante próximos um do outro. Os gráficos daFig.8C mostram os ângulos nominais de aceitação (±3 dB) oferecidos pelos microfones de padrãocardióide.

1.3. Características elétricas dos microfones AKG 

Nesta seção discutiremos cinco itens que têm a ver com o aspecto elétrico do microfone:impedância, sensibilidade, nível de ruído intrínseco, ponto de saturação, e alimentação.

1.3.1. Impedância 

De acordo com a tendência atual, os microfones capacitivos da AKG possuem impedância internada ordem de 200 ohms, enquanto os dinâmicos possuem impedâncias que variam de 200 a 800ohms. De uma forma geral, esses valores podem ser incluídos na designação “baixa impedância”.Todos os microfones da AKG são projetados para serem conectados em entradas de mesas demixagem ou de outros equipamentos de áudio que tenham impedância nominal de 3.000 ohms oumais. A vantagem dos microfones de baixa impedância é que eles podem ser usados à uma distânciabastante grande da mesa de mixagem, sem haver perdas consideráveis. Isso permitiria a operaçãosem problemas a distâncias de até cerca de 200m, embora raramente isso aconteça nas aplicaçõescomuns. Uma vez que as linhas de baixa impedância são balanceadas, elas são virtualmenteinsensíveis a perturbações elétricas externas.

Os microfones de alta impedância já foram muito usados em aplicações onde as distâncias sãomuito curtas, mas atualmente não há vantagens para seu uso, até porque os pré-amplificadores debaixa impedância de alta qualidade caíram de preço drasticamente.

1.3.2. Sensibilidade 

Para medir a sensibilidade de um microfone, ele é colocado num campo sonoro de referência

recebendo um nível de pressão sonora de 94 dB SPL com freqüência de 1.000 Hz. O nível depressão sonora de 94 dB é equivalente a 1 Pascal (Pa), que é a unidade de medida de pressão.Nessas condições, é medida a voltagem de saída no microfone, sem carga, e então é estabelecida asensibilidade nominal, em mV/Pa. A sensibilidade também pode ser indicada em decibéis relativosa 1 volt, designação conhecida como dBV. A tabela a seguir mostra as sensibilidades de algunsmicrofones AKG.

MODELO  TIPO  SENSIBILIDADE  dBV 

C414B/ULS capacitivo (multi-padrão) 12,5 mV/Pa -38

C480, CK61 capacitivo (multi-cápsula) 20 mV/Pa -34

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 54/124

C535EB capacitivo (vocal/instrumento) 7 mV/Pa -43

C3000B capacitivo eletreto (2 padrões) 25 mV/Pa -32

D3800 dinâmico (vocal) 2,8 mV/Pa -51

D770 dinâmico (vocal/instrumento) 2,5 mV/Pa -52

D58 dinâmico (cancelamento de ruído) 0,72 mV/Pa -63

Obs.: A equação para converter de mV/Pa para dBV é: dBV = 20 log (mV/Pa) - 60

Embora a faixa de variação total mostrada na tabela seja de cerca de 25 dB, levando-se em conta ouso recomendado para cada um dos modelos, a média da voltagem de saída provavelmente nãovariará tanto. Os três modelos dinâmicos, por exemplo, são indicados para uso próximo à fonte

sonora, o que resultará uma maior voltagem média de saída. Da mesma forma, os quatro modeloscapacitivos podem ser usados em gravações clássicas e posicionados no estúdio a até cerca de 5metros da fonte sonora. Isso significa que as voltagens efetivas de saída para todos os tipos demicrofones tenderá a valores muito próximos. Na verdade, esta é uma consideração importante noprojeto de um modelo de microfone.

1.3.3. Nível de ruído intrínseco 

O ruído intrínseco de um microfone capacitivo é o nível de ruído audível que ele produz quando écolocado isolado de fontes sonoras externas. Um microfone que possui um nível de ruído intrínsecode 15 dBA, por exemplo, produz praticamente a mesma saída que um microfone “perfeito”colocado num local cujo ruído ambiente é de 15 dBA. A nova tecnologia de microfone capacitivocom um pré-amplificador integrado no modelo AKG C480 permite um nível de ruído da ordem de10 dBA. Este valor é tão baixo quanto o de qualquer microfone capacitivo de estúdio, e por issoesses microfones são indicados para uso em gravação digital.

Os microfones dinâmicos não têm especificação de ruído intrínseco, pois este depende dasensibilidade do microfone e do circuito eletrônico ao qual ele está acoplado. Para muitasaplicações pode-se seguramente ignorar o nível de ruído intrínseco dos microfones, uma vez que oruído ambiente geralmente é muito maior do que o do microfone.

1.3.4. Ponto de saturação O limite máximo efetivo do nível de pressão sonora que um microfone pode suportar é o valor noqual o sinal de saída do microfone começa a apresentar uma determinada quantidade de distorçãoharmônica. Os valores típicos adotados como padrões pela indústria para isso são 0,5% ou 1%, esão sempre indicados na especificação. Na maioria dos microfones capacitivos da AKG, o ponto desaturação está na faixa de 130 a 140 dB SPL, para valores de distorção de 0,5% ou 1%.

No caso dos microfones dinâmicos, as especificações de saturação em geral indicam o nível sonoroque produz distorção harmônica de 1% e 3%. Muitos microfones podem ser usados em campossonoros de até 156 dB, produzindo não mais do que 3% de distorção na saída.

Na maioria das aplicações envolvendo captação de voz para comunicação e sonorização, pode-seignorar essas limitações, mas em estúdios de gravação e em sonorização de música, com microfones

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 55/124

posicionados muito próximos de instrumentos com volume alto, podemos facilmente atingir níveisda ordem de 130 dB.

1.3.5. Ruído de manuseio 

Muitos microfones antigos feitos para se segurar na mão eram muito suscetíveis a ruídos de

manuseio. Hoje, a maioria dos fabricantes resolveu este problema através de uma montagemcuidadosa da cápsula dentro do corpo do microfone, e também com a implementação de um filtroque corte as freqüências baixas nos microfones indicados para uso muito próximo. Não existempadrões para se medir o ruído de manuseio, e sua ocorrência ou não é meramente conseqüência damenor ou maior atenção do fabricante no detalhamento do seu projeto. Os microfones da AKGdestacam-se por seu baixo nível de ruído de manuseio.

1.3.6. Alimentação 

Todos os microfones capacitivos necessitam de algum tipo de alimentação elétrica, pois contêmdentro deles um circuito eletrônico de pré-amplificação. Muitos microfones de eletreto são

alimentados por uma bateria interna de 9 volts, e por isso quando o microfone não está em uso, aalimentação deve ser desligada, para economizar abateria. Quase todos os microfones capacitivos que nãousam eletreto são alimentados por “phantom power”,como mostra a Fig.10. Este tipo de alimentação utilizatensões contínuas (DC) de 12, 24 ou 48 volts. Atolerância para os valores é suficientemente grande, demaneira que muitos dos microfones capacitivos da AKGpodem ser alimentados com tensões desde 9 até 52 volts,tornando-os adaptáveis a uma larga faixa de condições deoperação. Alguns dos modelos de estúdio, como o antigoC414EB/P48 só pode operar com alimentação de 48volts.

Figura 10

2. Princípios básicos de uso 

Nesta seção apresentaremos conceitos fundamentais importantes para o uso de microfones emalgumas situações mais comuns.

2.1. Interferência de múltiplos microfones 

A maioria das pessoas tem uma tendência a usar muitos microfones. A regra simples, em termos dedesempenho, é a de que “menos geralmente é mais”. Quando se tem muitos microfones abertos nãosó causam coloração no som, devido a picos e cortes na resposta, como também podem fazer osistema ficar mais suscetível a realimentação (microfonia). Vejamos exemplos de alguns problemascomuns.

2.1.1. A regra de “3:1” 

A Figura 11A mostra a maneira correta de se captar duas pessoas muito próximas, cada uma com

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 56/124

um microfone. Se a distância entre os microfones é de pelo menos três vezes a distância de cadamicrofone para a respectiva pessoa, então o nível sonoro de uma pessoa que atinge o microfone daoutra será cerca de 10 dB mais baixo do que o nível sonoro da própria pessoa em seu microfone, o

que é baixo o suficiente para não ser umproblema. Se, no entanto, a fonte sonora 1é mais forte do que a fonte 2, como

mostrado na Fig.11B, então a fonte maisfraca deverá se aproximar mais do seumicrofone, conforme o necessário.

Figura 11

2.1.2. Múltiplos microfones 

No caso de haver dois ou mais microfones num púlpito, cada um numa direção diferente, então oposicionamento não requer muita preocupação, exceto assegurar-se de que o caminho da voz paracada microfone esteja livre, sem obstrução por outro microfone. Esta situação é comum em

audiências coletivas.

Entretanto, se dois microfones são combinados para manter o palestrante “captado”, então deve-seter um cuidado extra. A Fig.12A mostra como geralmente isso é feito por pessoas inexperientes,com os dois microfones posicionados afastados, angulados de forma a cobrir todas as posições

possíveis do palestrante. Essa forma está errada, e aforma correta é mostrada na Fig.12B, onde ambos osmicrofones são colocados um acima do outro, e viradosde forma que o ângulo de cobertura comum deles sejaamplo o suficiente para captar o palestrante em qualquerposição.

Figura 12

Qual a diferença? Na configuração mostrada na Fig.12A, só existe uma posição correta para opalestrante, que é no ponto eqüidistante dos microfones. À medida que ele se move dessa posição,os atrasos relativos do sinal da voz do palestrante até os microfones vão ser diferentes, e acombinação resultante apresentará efeitos de interferência, com cancelamentos e ênfases. Naverdade, se você nunca ouviu esse tipo de efeito, é aconselhável que você monte um esquemasimilar e experimente, para perceber como esta combinação é ruim. Em seguida, monte o esquema

da Fig.12B e perceba como ele é mais consistente em qualidade para qualquer posição dopalestrante.

2.1.3. Reflexões de superfícies próximas e efeitos de bordas 

A Fig.13A mostra problemas comuns em sonorizações e gravações. A superfície reflexiva pode seruma mesa, um púlpito, uma parede, ou mesmo o chão. No caso mostrado aqui, existemefetivamente dois sinais sonoros atingindo o microfone, um direto e outro refletido. Eles secombinam no microfone com um atraso entre eles, produzindo uma resposta de freqüênciasirregular, como a do gráfico da Fig.13A. A regra então é manter o microfone o mais afastadopossível do ponto de reflexão - ou então montá-lo ao nível da superfície, como sugere a Fig.13B,

fazendo com que seja captado somente o som direto.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 57/124

 

Figura 13

É bom lembrar que o efeito é pior em microfones

omnidirecionais, uma vez que sua captação não possuirejeição fora de eixo. Os microfones cardióides podemminimizar esse efeito pela discriminação na captação, maso melhor é evitar este tipo de condição.

Durante as últimas duas décadas, o problema dasreflexões nas paredes e no chão tem estimulado o uso de

um tipo de microfone conhecido como “boundary mic”, que possui um perfil em forma de flange eé feito para ser montado no nível da superfície. Nesta posição o microfone só pode captar o somdireto e o som refletido que esteja efetivamente em fase com o som direto, o que faz com que osinal de saída do microfone seja duas vezes maior (+6dB) do que o de um microfone comum

colocado longe da parede. As primeiras versões dos microfones de superfície eram do tipoomnidirecional, mas atualmente há vários do tipo cardióide também. A AKG fabrica os dois tipos.

2.2. Vento e microfone não se combinam 

Seja ao ar livre ou em ambientes fechados, é imperativo proteger o microfone do vento, sobretudoos microfones direcionais. Jamais sopre num microfone para saber se ele está funcionando! Alémde ser desagradável para a audiência, isso também pode impregnar a tela do microfone. Éimpressionante a quantidade de pessoas que costumam falar em público e que não têm umconhecimento básico sobre o uso do microfone. A regra fundamental para se evitar os ruídos de

sopro e “pop” é segurar o microfone de lado, apontando para aboca de quem está falando, mas não permitindo que este fale defrente para o microfone. Isso evitará os “pufs” do sopro, quesão tão irritantes para o ouvinte. A solução então é posicionar omicrofone num lugar onde o impacto do sopro não possachegar.

Figura 14

Nos casos em que o microfone é seguro na mão, a pessoa que o segura precisa saber que a melhorposição é deixar o microfone mais para o lado do rosto, apontando para a boca. Nesses casos, seriaútil usar uma espuma sobre a tela do microfone. A Fig.14 mostra como posicionar o microfone.

Mesas de mixagem Uma visão prática da estrutura básica e dos recursos mais importantes

por Miguel Ratton

A mesa de mixagem, ou simplesmente mixer, é

um equipamento essencial no estúdio de áudio,permitindo misturar os diversos sinaiseletrônicos de áudio vindos de cada instrumento

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 58/124

ou fonte sonora (microfone, etc). É na mesa que se pode equilibrar os níveis sonoros e localizar noestéreo (eixo esquerdo-direito) os diversos instrumentos, além de se poder também dosar aintensidade de efeitos produzidos por equipamentos externos.

Na estrutura de uma mesa de mixagem, chamam-se de canais os caminhospercorridos pelos sinais de áudio. Os canais de entrada (input channel) são os

acessos pelos quais pode-se inserir os sons de instrumentos e microfones namixagem, enquanto os canais de saída (output channel) contêm o resultadofinal, isto é, os instrumentos já misturados. No exemplo da Fig. 1, temos umamesa de seis canais de entrada e dois de saída. Pode-se direcionar o som dequalquer um dos canais de entrada para qualquer canal de saída (inclusive paraambos). Em cada canal de entrada, existe um controle de pan, normalmentesob a forma de um botão rotativo, e que permite ajustar o destino do somdaquele canal. Quando na posição central, o pan destina o som do canal de

entrada para ambos os canais de saída esquerdo e direito (left e right). Girando-o para um dos lados,faz com que o som também seja enviado mais para aquele lado do que para o outro, de forma quequando ele é girado todo para um dos lados, o som somente será enviado para aquele canal de saída.

As mesas de mixagem usadas em estúdios e sistemas de sonorização de show (P.A.) em geralpossuem muitos canais de entrada (24, 48, etc) e saída (4, 8, 16, etc). Quando há mais do que doiscanais de saída, o controle de pan não significa necessariamente controle de destino para a esquerdaou direita, mas sim para um par de canais de saída (1-2, 3-4, 5-6, 7-8). Nesse caso, em cada canal deentrada, além do botão rotativo de pan, existem teclas de seleção de pares de canais de saída paraonde se quer endereçar aquele canal de entrada.

Vejamos então os controles típicos existentes em uma mesa demixagem comum. Na Fig. 2 temos o desenho de um canal de entrada,com seus respectivos botões e chaves.

Começando de baixo para cima, temos o fader, um controle deslizanteque ajusta o volume do canal. Sua graduação em geral varia deinfinito (atenuação total) até +10 dB, com o ponto de 0 dB localizadoem aproximadamente 75% do curso do fader.Acima do fader, existe o controle do destino (canal de saída) do som,que é o pan. No caso do exemplo, por ser um canal de uma mesa de

mixagem com quatro canais de saída, há duas chaves de pressão, pormeio das quais se escolhem os pares de canais de saída de destino.Pressionando-se a chave 1-2 faz com que o sinal daquele canal deentrada vá para os canais de saída 1 e 2, e pressionando-se a chave 3-4faz com que o sinal daquele canal de entrada vá para os canais desaída 3 e 4.

O botão rotativo do pan ajusta então o quanto vai para cada canal:girando-o para a esquerda, tem-se mais sinal em 1 e 3, enquanto girando-o para a direita, tem-se mais sinal em 2 e 4 (veja ilustração da Fig. 3). Emalgumas mesas de quatro canais de saída, existe apenas uma chave que só

permite selecionar um dos pares de grupo de cada vez (1-2 ou 3-4).

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 59/124

 A próxima seção do canal da mesa de mixagem é a equalização (EQ). No canal do exemplo, há trêsbotões rotativos, para controle de graves, médios e agudos, cujas faixas de atuação estão ilustradasna Fig. 4. Quando posicionados no centro, esses botões não efetuam qualquer alteração; movendo-os para a esquerda, consegue-se reduzir a respectiva faixa de freqüências - graves (bass), médios(mid) e agudos (treble), enquanto movendo-os para a direita obtém-se uma acentuação da faixa.

Uma chave de pressão permite ligar/desligar a equalizaçãoimediatamente. Em algumas mesas, a EQ é mais sofisticada, havendodois botões para cada banda: um deles ajusta a freqüência central dabanda e o outro ajusta o ganho/redução.

Figura 4 - Atuação dos controles de EQ

Depois da EQ, temos a seção de envio (send) para efeitos (chamada por muitos de mandadas). Essesbotões dosam a quantidade de sinal de cada canal a ser processada pelo dispositivo de efeito

(reverb, eco, etc), externo ao mixer. O sinal processado volta do dispositivo de efeito e entra namesa de mixagem pela conexão de retorno (return), que direciona-o aos canais de saída da mesa,

 juntamente com o sinal original (sem efeito) de cada canal de entrada (veja Fig. 5).É importante observar no caso da Fig. 5 que, como todosos canais enviam sinal para o mesmo processador deefeitos, todos os canais de entrada terão o mesmo efeito.O único ajuste que se tem é da intensidade de efeitosobre cada um. Na mesa de mixagem cujo canal deentrada é representado na Fig. 2, entretanto, como hátrês envios separados, pode-se destinar cada um deles aum dispositivo de efeito diferente (obviamente, deveráhaver três ou mais entradas de retorno). Na maioria dasmesas, em cada entrada de retorno pode-se ajustar aintensidade (do sinal que retorna) e seu balanço (pan).

Figura 5 - Exemplo de processo de envio-retorno de efeitoPode-se também usar o controle de envio para monitoração dos canais. Isso é muito comum tantoem sistemas de PA, onde os ajustes de nível do palco são diferentes dos ajustes do som para opúblico, como também em estúdios, onde muitas vezes é necessário reduzir ou aumentar o volumede determinado instrumento para melhorar a audição do cantor, por exemplo. Para isso, pode-setirar os sinais dos canais por uma das saídas de envio, e conectá-la a um amplificador e caixas para

monitoração. Assim, é possível mixar os volumes da monitoração independentemente dos volumesdos canais, que vão para as saídas da mesa. Por isso é que muitas mesas de mixagem já designamuma das saídas de envio com o nome de monitor.O último controle do canal de entrada da mesa exemplificada aqui é o ajuste de ganho (ousensibilidade). Ele permite que o nível do sinal de áudio seja adequado às condições de trabalho damesa. Sinais fracos, como os de microfones dinâmicos, por exemplo, precisam ser amplificadosmais do que os sinais de instrumentos eletrônicos (line). Deve-se ajustar o ganho de forma que osníveis mais altos do sinal não ultrapassem o máximo desejado (ponto onde inicia a saturação),quando o fader de volume está posicionado em 0 dB. O led de overload (veja Fig. 2) ajuda aencontrar esse ponto ideal: posiciona-se o fader em 0 dB e vai-se ajustando o ganho até que ossinais mais altos não acendam o led.

Neste artigo, procurou-se dar uma noção básica sobre a estrutura de uma mesa de mixagem. Osmodelos mais sofisticados contêm não só um número maior de canais de entrada e saída, mas

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 60/124

também alguns outros recursos adicionais (solo, insert, automação MIDI, etc), que serão abordadosem outra oportunidade.Este artigo foi publicado no music-center.com.br em 1996

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

O controle do som – sistema digital.

Digitalização de áudio por Miguel Ratton

Para se transformar um sinal sonoro em sinal digital adequado à manipulação por equipamentosdigitais, é necessário convertê-lo da forma analógica (o sinal elétrico de um microfone, porexemplo) para o formato digital, isto é, códigos numéricos que podem ser interpretados porprocessadores.Essa transformação é feita pelos conversores A/D (analógico para digital), que fazem inúmeras

fotografias (amostragens) do valor do sinal analógico ao longo do tempo, que são codificados emnúmeros digitais, armazenados então na memória do equipamento. Após diversos desses valores,tem-se a representação completa do sinal analógico original, sob a forma de números, que podementão ser armazenados nos chips de memória na ordem exata em que foram coletados, que passam arepresentar numericamente o sinal original. A velocidade com que as amostragens são coletadas échamada de freqüência de amostragem. Para se reproduzir o sinal armazenado na memória, usa-se oconversor D/A (digital para analógico), que busca na memória os códigos numéricos e, respeitandoa sua ordem cronológica, recria o sinal original, ponto por ponto. Para que o sinal seja reconstruídocorretamente, é preciso que o conversor D/A recoloque as amostragens ao longo do tempo com amesma velocidade que foi usada pelo conversor A/D.

Há dois aspectos muito importantes naconversão digital de sinais de áudio: oprimeiro diz respeito à capacidade doconversor detectar fielmente todas asvariações de amplitude do sinal, e é chamadode resolução, e quanto maior for a precisãoque se queira na conversão de um sinalanalógico para digital, tanto maior deverá ser

a resolução, que está intimamente relacionados com a capacidade do equipamento em representar osvalores numéricos, em bits. Quanto maior for o número de bits, melhor será a capacidade deresolução do equipamento, mas, infelizmente também mais caro será o seu custo. Por exemplo: um

equipamento que opera com 8 bits pode representar até 256 valores de amplitude para o sinal; e umequipamento que opera em 16 bits pode representar 65.536 valores, bastante adequados à situaçãousual, e por isso esta é a resolução adotada pelos CD-players e demais equipamentos profissionais.Há equipamentos que usam mais do que 16 bits para o processamento interno de amostras de áudio,o que garante a fidelidade do sinal mesmo após diversos cálculos.O segundo parâmetro importante na conversão A/D é a chamada resposta de freqüências, quedetermina o limite do conversor na amostragem das freqüências harmônicas existentes no sinal deáudio. Quando se quer amostrar digitalmente um determinado sinal de áudio, é necessário amostrarnão só a sua freqüência fundamental, mas também todos os demais harmônicos presentes, e paraque isso seja possível, é necessário que a amostragem ocorra a uma freqüência maior do que odobro da maior freqüência existente nele, e considerando que a faixa de áudio está compreendidaentre 20 Hz e 20 kHz, então a freqüência de amostragem deverá ser maior do que 40 kHz. Os discoslaser (CD) usam a freqüência de amostragem de 44.1 kHz. As fitas DAT e os instrumentos samplers

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 61/124

modernos podem trabalhar com amostragem em 44.1 kHz ou 48 kHz.

Equipamentos de som digital.

Os reprodutores digitais foram desenvolvidos no final dos anos de 1980, com a promessa demelhorar a qualidade de áudio da alta fidelidade e da duplicação, e reduzir os ruídos e chiados das 

fitas cassete e dos discos de vinil. Para os consumidores, a revolução digital chegou sob a forma do CD. Diferente da fita analógica, o CD oferece um acesso aleatório, o que significa que pode-seacessar diretamente às pistas no meio do disco sem ter que buscar em pistas prévias.O CD é a abreviação de Compact Disc (Disco compacto). É compacto porque é capaz de armazenarmais informações num espaço bem menor do que os discos de vinil. No entanto ele é semelhante aeste, pois nos discos de vinil, a agulha do toca-discos percorre os micro-sulcos, reproduzindomecanicamente os sinais analógicos que os geraram. No CD, em vez dos sulcos, existe umaseqüência de traços de um milésimo de largura e profundidade igual a um sexto dessa largura. Asinformações são gravadas por traços. A medida do comprimento de cada traço corresponde a cadainformação. Não existe contato mecânico com esses traços: a leitura é feita por um finíssimo feixede laser de 0,0009 mm. Porém, nos discos de vinil, a leitura da agulha é realizada da borda para o

centro, acima do disco de vinil, enquanto que o leitor de CD realiza a leitura do centro para a bordae de baixo para cima. O feixe de laser focaliza a linha tracejada no disco e é refletido e separado doincidente e dirigido a um conjunto de detectores. Dessa forma, esses detectores podem "medir" ocomprimento dos traços, tornando possível a leitura da informação, além de manter o feixe na trilhacorreta. Os CDs podem reproduzir qualquer sinal digitalizado, ou seja, transformado em dígitosbinários, além dos sinais de áudio.O CD substituiu o disco de vinil devido sua grande praticidade no dia-a-dia. Porém, como o som emum CD é registrado através de "amostras" retiradas do registro sonoro original (a taxa deamostragem mais comum para um CD é de 44.100 amostras por segundo), ouvidos bem treinadospodem notar alguma alteração mínima no som, se comparado a uma gravação reproduzida em umdisco de vinil, em que o som é registrado de forma análoga à vibração causada pelo som.

A partir do final da década de 1980 e início da década de 1990, a invenção dos Compact Discs prometeu maior capacidade, durabilidade e clareza sonora, sem chiados, fazendo os discos de vinilserem considerados obsoletos. Com a banalização dos discos compactos, a consecutiva banalizaçãode gravadores de CDs permitiu a qualquer utilizador de PC gravar os seus próprios CDs, tornandoeste meio um sério substituto a outros dispositivos de backup.Surgiu assim a banalização dos discos "virgens" (CD-R), para gravação apenas, e os discos quepodem ser "reescritos" (CD-RW). A diferença principal entre estes dois é precisamente a capacidadede se poder apagar e reescrever o conteúdo no segundo tipo, característica que iria contribuir para odesaparecimento dos disquetes como meio mais comum de transporte de dados. Efetivamente, umCD é agora capaz de armazenar conteúdo equivalente a mais de 486 disquetes de 3 1/2 (comcapacidade de 1,44 MB), com muito maior fidelidade - uma das características negativas dosdisquetes era a reduzida fidelidade destes, já que facilmente se danificavam ou corrompiam. Comoexemplo, a exposição ao calor, frio e até mesmo a proximidade a aparelhos com campo magnéticocomo celulares.A Philips foi a principal empresa responsável pela criação/desenvolvimento do CD-ROM. Depois,outras empresas como a Sony e a TDK entraram rápidamente na nova geração digital. Um CD é um disco de acrílico, sobre o qual é impressa uma longa espiral (22 188 voltas, totalizando 5,6 Km deextensão). As informações são gravadas em furos nessa espiral, o que cria dois tipos deirregularidades físicas: pontos brilhantes e pontos escuros. Estes pontos são chamados de bits, ecompõem as informações carregadas pelo CD.A leitura destas informações é feita por dispositivos especiais, que podem ser CD Players ou DVD

Players. A superfície da espiral é varrida por um laser, que utiliza luz no comprimento infravermelho. Essa luz é refletida pela superfície do disco e captada por um detector. Esse detectorenvia ao controlador do aparelho a sequência de pontos claros e escuros, que são convertidos em"1's ou 0's", os bits (dados binários). Para proteger a superfície do CD de sujeira, é colocada sobre

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 62/124

ela um disco de plástico especial.Um CD contém quatro camadas: a primeira consiste no rótulo, conhecida como camada adesiva; asegunda é uma camada de acrílico, que contém os dados propriamente ditos; a terceira é umacamada reflexiva composta de alumínio e, finalmente, uma quarta, chamada de camada plástica,feita de policarbonato. A cor prata que vemos no CD é o resultado da soma das camadas degravação e reflexão. Em um CD-R, a composição das camadas é diferente, para que a mídia possa

ser gravada usando um sistema "caseiro".DVD (abreviação de Digital Video Disc ou Digital Versatile Disc, em português,  Disco Digital de

Vídeo ou   Disco Digital Versátil). Contém informações digitais, tendo uma maior capacidade dearmazenamento que o CD, devido a uma tecnologia óptica superior, além de padrões melhorados de compressão de dados. O DVD foi criado no ano de 1995.No inicio de 1990 dois tipos de discos-ópticos de alta capacidade estavam em desenvolvimento: umera o MultiMedia Compact Disc (MMCD), liderado pela Philips e Sony, e o outro era o SuperDensity Disc (SD), patrocinado pela Toshiba,  Time-Warner, Matsushita Electric (Panasonic), Hitachi, Mitsubishi, Pioneer, Thomson e JVC. O presidente da IBM , Lou Gerstner, tinha a propostade unir os dois sistemas, evitando a repetição dos problemas da década de 1980, com os videocassetes dos formatos VHS e Betamax.

Philips e Sony abandonaram o formato MMCD e concordaram o formato da Toshiba com duasmodificações referentes a tecnologia implicada. A primeira foi a geometria que permitisse o " push-

 pull" (pular) das faixas (assim como no CD, você pula de uma musica para outra, já no videocassetevocê não tem como fazer isso rapidamente), que era uma tecnologia conjunta da Philips-Sony. Asegunda era adoção do sistema Philips EFMPlus. O EFMPlus, foi criado por Kees A. SchouhamerImmink, que também criou o EFM: é 6% menos eficiente que o sistema SD da Toshiba, o queresultou numa capacidade de 4,7GB ao invés dos originais 5GB do SD. A grande vantagem doEFMPlus é sua grande resiliência e resistência a intempéries tais como arranhões e impressõesdigitais. O resultado foi o DVD 1.5, anunciado ao público em 1995 e terminado em setembro de 1996. Em maio de 1997, o Consórcio DVD mudou para Fórum DVD, que é aberto a todas ascompanhias (não somente a Philips, Sony e Toshiba).Os primeiros DVD Players (leitores de DVD) e discos estavam disponíveis em Novembro de 1996no Japão, Março de 1997 nos Estados Unidos, 1998 na Europa e 1999 na Austrália. No Brasil atecnologia começou a ganhar força em 2002 e 2003. O primeiro filme em DVD lançado nosEstados Unidos foi o Twister em 1996. O filme foi um teste para o Surround Sound 2.1. No Brasil,o primeiro DVD de filme foi Era uma vez na América, da FlashStar lançado em 1998. Em 1999 opreço dos   DVD Players baixou para US$300 (dólares). A rede de supermercados Wal-Martcomeçou a vender DVD Players mesmo tendo pouca procura em comparação com os vídeos VHS,mas logo outras lojas seguiram o Wal-Mart e o DVD rapidamente se tornou popular nos EstadosUnidos. Devido à desvalorização da moeda brasileira em relação aos dólares e à demora na decisãosobre a região a ser adotada no Brasil, bem como outros fatores, o DVD só se popularizou no Brasil

em 2003, tomando quase 80% do mercado de vídeos. Um atraso de quase um ano, segundofabricantes do setor.Os DVDs possuem por padrão a capacidade de armazenar 4,7 GB de dados, enquanto que um CDarmazena em média de 700 MB. Os chamados DVDs de dual-layer  (dupla camada) podemarmazenar até 8,5 GB. Apesar da capacidade nominal do DVD comum gravável, é possível apenasgravar 4.484 MB de informações, e com o tamanho máximo de cada arquivo de 1 GB numagravação normal. O tamanho máximo de arquivo varia conforme o tipo de gravação: UDF, ISOnormal, DVD-video etc. Por exemplo, para gravar um arquivo com cerca de 2 GB, é necessárioescolher a opção UDF mode. Apresenta resolução de 500 linhas (horizontais)[1].Observando as extensões dos arquivos em um sistema operacional podemos obvervar:•  Arquivos *.IFO (de informação) são scripts sobre "como" rodar o DVD;•  Arquivos *.BUP são backups dos *.IFO;•  Arquivos *.PUO são de operações proibidas ao usuário e geralmente são removidos quandoripamos (nomenclatura usada quando convertemos um DVD para arquivo de computador);

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 63/124

•  Arquivos *.VOB (de objeto visual) contém todo o filme, menu, extra, idiomas, legendasatravés de uma multiplexação.Um MiniDisc (MD) é um disco baseado em armazenamento de dados. Armazenando, então, algumtipo de informações, normalmente audio. A tecnologia foi anunciada pela Sony em 1991 eintroduzida em 12 de Janeiro de 1992. Com o tempo, a Philips e a Matsushita, mais conhecidacomo Panasonic, também aderiram a tecnologia Digital Compact Cassette (DCC) system. O

MiniDisc tinha como objetivo repassar o áudio de analógico, como é armazenado num cassete(tape) para o sistema digital de alta fidelidade.MD Data, uma versão para armazenar dados de computador foi anunciada pela Sony em 1993, masisso nunca obteve um grande significado, então, hoje os MDs são usados primariamente paraarmazenar áudio.Com a necessidade de se impor no mercado e devido ao fracasso do formato DAT, a Sony lançou oMini Disk (MD), que não é mais que um mini CD regravável, dentro de uma caixa protectora.Embora o MiniDisc tenha tido certo sucesso, ele não surpreendeu muito nos EUA e na Europacomo a Sony esperava, porém, no Japão era um sucesso absoluto, sendo muito popular. O poucosucesso também era devido ao alto custo na produção de álbuns em MD, alguns álbuns foramrealizados pela própria Sony, mas com o tempo houve uma descontinuidade do processo. O produto

(MD) foi licenciado para outras companhias produzirem também, como: JVC, Sharp, Pioneer,Panasonic entre outras.O disco é permanentemente guardado em um cartucho de 68×72×5 mm com um clip deslizante quesó abre quando o disco é inserido no aparelho, sendo similar a um disquete 3"½. O disco éregravável; quando está sendo gravado algo no MD, é usada à forma magnética-óptica. O laserqueima um lado do disco para fazê-lo suscetível a forma magnética para então gravar os dados.Uma cabeça magnética do outro lado do MD altera a polaridade da área "queimada", gravando osdados digitalmente no MD. Quando for feita a leitura dos dados armazenados, a luz do laseridentifica o local alterado magneticamente e assim interpreta os dados como 1 ou 0 na linguagemdigital. De acordo com a Sony, MDs regraváveis podem ser regravados até 1 milhão de vezes. Apartir de Maio de 2005, são lançados MDs de 74 minutos e 80 minutos. Os MDs de 60 minutos, atéentão populares, tiveram a produção interrompida, tornando-se raro encontrar algum. Os MDspossuem um processo de leitura óptica do qual a qualidade se aproxima aos CDs, sendo o MDfisicamente diferente.MiniDiscs usam sistema regravável por meio de magnetismo-optico para armazenar os dados.Diferente de Cassete ou analógico Compact Audio Cassette, o MD é randomicamente acessível,tornando o acesso às musicas muito rápido. No começo do MD é gravada uma faixa que contémtodas as informações sobre as posições de todas as tracks (faixas), pois quando somente algumasmúsicas são apagadas e outras são gravadas no lugar, será gravado nessa faixa inicial a posiçãodessas novas músicas, mesmo que tenham sido armazenadas em grupos diferentes.É importante dizer também que já existe o Hi-MD da Sony, ele pode armazenar até 45 horas de

músicas no formato ATRACplus3 em 1 Gb de espaço para armazenamento.O audio num MD é comprimido no formato ATRAC (Adaptive Transform Acoustic Coding). UmCD tem uma descompressão de 16 bits stereo linear PCM audio. A descompressão do codecATRAC não terá a mesma qualidade que a música tinha antes de ser comprimida, mesmo que aoouvir a música pareça igual. A última versão da Sony é o ATRAC3plus, Sharp, Panasonic, Sanyo ePioneer tem seus próprios formatos, porém eles são interpolados, diferente do princípio do Codecda Sony.Os modos em verde são disponíveis para gravar normalmente no MD, enquanto os modos marcadosde vermelho estão disponíveis somente para musicas compradas pela Internet e baixadas nocomputador. As capacidades não são oficiais da Sony. A segunda geração de MDs, a geração Hi-MD players também suportam MP3 em vários formatos de bitrates. Recentemente, 352kbps e

192kbps ATRAC3plus também estão disponíveis para a 1ª e 2ª geração de MDs.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 64/124

Instrumentos musicais e tecnologia digital Uma visão histórica e os benefícios de um casamento que deu certo

por Miguel Ratton

Uma enorme polêmica existe em relação ao uso de computadores e sintetizadores para se fazer e

tocar música: algumas pessoas são extremamente radicais e se opõem ferreamente (devem ter lásuas razões) à utilização de "bits e bytes" dentro das partituras, enquanto que outros - incluindomuitos músicos eruditos - são simpáticos às novas idéias, e tratam de se aproveitar das novasferramentas, como forma de somar recursos para sua atividade-fim, que é a música.

O objetivo do texto a seguir é, em primeirolugar, recapitular quantas coisas aconteceramem poucos anos de uso efetivo de eletrônica namúsica e, em seguida, mostrar as incontestáveisvantagens que nós, usuários dessas máquinasmaravilhosas, passamos a ter com tudo isso, e o

que podemos esperar para o futuro.

Desde o começo, os instrumentos musicais usufruíram dos recursos tecnológicos disponíveis.Mesmo nos tempos antigos, quando a tecnologia era primitiva, confeccionar bons instrumentos jádependia de ferramentas e materiais de alto nível. Os luthiers e artesãos dedicados à fabricação deinstrumentos musicais sempre foram considerados profissionais especializados, altamentequalificados e, por isso, muitíssimo respeitados.

De algumas décadas para cá, assim como aconteceu em outros setores, a indústria musical passou ase utilizar maciçamente dos recursos de alta tecnologia, mais precisamente dispositivos eletrônicos.Essa conjugação teve várias conseqüências muito importantes para a evolução não só dos própriosinstrumentos - qualidade, preço, etc - mas também da música como um todo (novos estilos,comportamentos, etc).

O uso da eletrônica na música começou primeiramente como forma de se amplificar sons.Posteriormente foram se desenvolvendo novos dispositivos que possibilitavam a gravação e areprodução. Paralelamente - aproveitando-se a mesma tecnologia - aconteciam experiências nageração de sons, usando-se osciladores eletrônicos. Os recursos ainda eram muito rudimentares,mas a semente já estava lançada.

Dó, ré, mi, 10010110, 10110100, 11010101... 

Decorreram-se apenas algumas décadas desde o início da era eletrônica até começar a era doscomputadores. Mas a transição foi brutal, principalmente quando surgiram os microcomputadores, eo "cérebro eletrônico" deixou de ser personagem de filme de ficção científica e entrou nosescritórios, nas indústrias, nos lares e - por que não? - nos estúdios, passando a ter uma importânciafundamental para seus usuários. Se você utiliza o computador no seu trabalho, então responda:poderia viver sem ele? Provavelmente sim; da mesma forma que também poderia viver sem águaencanada, sem luz elétrica, sem televisão... mas a sua vida seria muito pior, não seria?

Pois bem, voltando ao ponto que nos interessa: no final da década de 70 a indústria musicalcomeçou a sofrer (sofrer ou se beneficiar?) uma mudança bastante radical: empresas pequenas,

novas e desconhecidas no cenário da música, apareceram com máquinas que realmenteimpressionavam. Eram elas: E-mu Systems, Sequential Circuits, Polyfusion, New England Digital,Oberheim, Fairlight, Synergy e algumas outras. Os nomes nem de longe sugerem algum vínculo

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 65/124

com a música, mas por trás havia um seleto grupo de engenheiros e técnicos com duas coisas emcomum: o gosto pela música e o conhecimento da tecnologia digital.

Algumas fábricas de sintetizadores que tinham uma boa reputação - e sucesso - no começo dos anos70, como a ARP e a Moog, sucumbiram frente à "nova onda" que surgia. Em grande parte pelo fatode não terem conseguido acompanhar o passo da evolução, ou até mesmo por não terem

vislumbrado a tempo o começo da nova era, e acabaram por amargar dias cada vez mais difíceis, atéfecharem as portas definitivamente (com a onda "retrô", muitas pessoas têm ressuscitado algunsdesses instrumentos, ultimamente).

O ponto-chave para a ascensão daquelas novas empresas foi o seu domínio sobre a tecnologiadigital. Embora (aparentemente) nada tivessem a ver com música, o conhecimento que possuíam naárea de informática era suficiente para transformar sons em processos computacionais, e a partir daí obter resultados bastante aceitáveis. Ainda que a tecnologia digital daquela época não fosse dasmelhores para os padrões atuais, o potencial de vantagens era muito promissor. Isso encorajououtras pessoas e empresas a entrar na "onda", assim como também sacudiu alguns fabricantes bem-estabelecidos, como a Yamaha e a (àquela época, ainda jovem) Roland, que logo trataram de

acelerar suas pesquisas no assunto. Embora várias das fábricas pequenas tenham fechado apósalguns anos, grande parte de seu material humano foi aproveitado pelas que sobreviveram ou pelasmais novas que vieram depois.

O resultado dessa "corrida" foi um surto fantástico de desenvolvimento de instrumentos musicaiseletrônicos - principalmente sintetizadores - que produziram alguns resultados fabulosos. Vejamosalgumas máquinas marcantes:•  Prophet-5 (Sequential Circuits): primeiro sintetizadorpolifônico (5 vozes) programável que podia memorizar timbres(40 patches); ano: 1978.•  Emulator (E-mu Systems): primeiro sampler (8 bits), comarmazenamento de timbres em disquete, seqüenciador interno einterface para comunicação com computador; ano: 1982.•  DX7 (Yamaha): instrumento revolucionário que produziatimbres nunca antes ouvidos usando síntese por modulação defreqüência (FM); incorporava MIDI, possuía polifonia de 16vozes e teclado com sensibilidade a key velocity e aftertouch; memória com 32 patches, mais 64 emcartucho; tudo isso a um preço abaixo de dois mil dólares; ano: 1984.

Esses são apenas alguns exemplos. Se você folhear as revistas americanas de música da época,encontrará anúncios de diversos outros instrumentos de que nunca ouviu falar, mas que tiveram seu

valor na evolução dos sintetizadores.Os benefícios diretos 

Uma das maiores vantagens que os instrumentos digitais (ou híbridos) trouxeram para os músicosfoi a estabilidade da afinação. Os sintetizadores analógicos sofriam de um mal intrínseco àcircuitaria que usavam, que era a dificuldade de permanecer afinado frente a variações detemperatura do ambiente. Isso era o terror dos projetistas. Para se ter uma idéia do problema queisso representava, basta ver os catálogos originais do Minimoog e do ARP 2600, onde o termo"estabilidade" merece destaque nas especificações técnicas. Com os circuitos digitais, a precisão e aestabilidade deixaram de ser um problema (alguém se preocupa com isso hoje?), uma vez que os

instrumentos passaram a usar osciladores controlados por quartzo.

À medida que foram sendo usados mais e mais circuitos digitais dentro dos sintetizadores, e

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 66/124

posteriormente microprocessadores, outras facilidades foram sendo incorporadas. Uma delas foi osistema de comunicação MIDI, que talvez tenha propiciado a maior revolução nos processos decomposição e execução de música, desde que Guido d’Arezzo criou o sistema de notação em pauta,por volta do século X.

Não cabe aqui entrar em detalhes sobre MIDI, mas vale a pena destacar as vantagens que ele trouxe:

controle, controle, controle... Com o MIDI, o músico passou a poder controlar cada vez maisinstrumentos, e não só isso: passou a controlar e a manipular sua música com rapidez e precisão.Diversos recursos surgiram como conseqüência do MIDI: softwares musicais de todo o tipo,intercambialidade musical (General MIDI, Standard MIDI File) e uma aproximação maior entre osfabricantes, pois usam o mesmo padrão (no setor de samplers, por exemplo, é cada vez maior acompatibilidade entre equipamentos, quanto à utilização de amostras). O MIDI propiciou atémesmo o surgimento de "instrumentistas do mouse", compositores antes incapazes de fazer músicausando as ferramentas convencionais (instrumentos acústicos) que passaram a extravasar suasensibilidade musical através de softwares no computador, controlando sintetizadores via MIDI.

O uso de microprocessadores dentro dos instrumentos também viabilizou a implementação de

sintetizadores polifônicos, onde as vozes (polifonia) são alocadas eficientemente para que asdiversas notas possam ser executadas (outro enorme problema nos sintetizadores analógicos). E acapacidade polifônica vem crescendo a cada ano (64 vozes é o padrão atual). Adicione-se a isso acapacidade de detectar a intensidade com que uma nota é executada pelo músico ("key velocity"), eentão poder aplicá-la de diferentes formas no som produzido (além de transmitir essa informaçãopara outros instrumentos, via MIDI).

À medida que chips microprocessadores mais avançados foram surgindo, mais funções foram sendoincluídas nos sintetizadores, ampliando sua capacidade ainda mais. O processamento digital desinais (DSP) permitiu não só aprimorar a qualidade sonora dos timbres, como também incorporar aoinstrumento módulos de efeitos (reverb, chorus, etc).

Surgiram então os sintetizadores multitimbrais, capazes de executar vários timbres simultâneos, emultiplicando a eficiência do equipamento, que se tornava capaz de acumular as funções de baixo,bateria, piano, base, pad, solo, etc, etc. Tudo muito bem gerenciado pelo microprocessador. Depoisvieram as workstations (Korg M1 e similares), instrumentos que integram sintetizador (teclado egerador de timbres multitimbral), processador de efeitos e seqüenciador MIDI.

Nessa altura dos acontecimentos, a tecnologia digital de 16 bits se estabeleceu e foi atingido umnível de qualidade sonora extremamente alto. Os timbres dos sintetizadores passaram a ter umaperfeição e uma clareza tão grandes, que até mesmo tecladistas acústicos "de carteirinha" se

deixaram vencer pela eletrônica, pois apesar de ainda ter limitações sonoras (principalmente emtermos de expressividade) é muito melhor usar um piano digital, quando a outra alternativa é umpiano acústico com problemas afinação, captado por microfones ruins.

A evolução da tecnologia de memórias digitais vem pondo no mercado chips com capacidade dearmazenamento cada vez maior. Isso permitiu aos fabricantes colocarem mais e mais timbres dentrodos sintetizadores, o que passou a ser um enorme valor agregado aos instrumentos. Só para citar umexemplo verdadeiro: o Roland JV-1080 vem de fábrica com 640 timbres (sem contar asbaterias/percussões), e você pode adicionar um card e mais quatro placas de expansão, o que podechegar a um total de mais de 1.200 timbres em um único equipamento! (haja música para usar issotudo). No passado recente, tecladistas como Rick Wakeman precisavam levar uma dezena de

teclados para o palco, para que pudessem ter disponibilidade imediata de diferentes timbres. Hoje,basta pressionar um botão.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 67/124

Esse aumento na capacidade de armazenamento trouxe também um outro grande benefício diretopara o músico, que não precisa mais perder tempo programando o sintetizador. Com umaquantidade tão grande de timbres, dificilmente será necessário programar um novo, já que namemória do sintetizador já terá praticamente tudo o que deseja. Se não tiver, o músico pode adquiriroutros timbres de empresas especializadas, vendidos em disquete, card, CD-ROM ou via Internet.Outra vantagem conseqüente da capacidade de memória é que o instrumento, por conter uma

enorme variedade de timbres, torna-se cada vez mais versátil, e podendo ser usado em qualquer tipode música.

Benefícios indiretos 

Além de tudo o que já falamos até agora, existem ainda outros aspectos relevantes. À medida que oscomputadores foram se tornando objetos de uso quase obrigatório no dia-a-dia das pessoas, seuscomponentes foram se tornando mais padronizados e mais comuns. Dessa forma, com osinstrumentos musicais se "computadorizando" cada vez mais, os fabricantes do setor musical foramprocurando aproveitar não só a tecnologia disponível, mas também os próprios componentescomerciais e dispositivos já existentes no mercado.

Vejamos alguns exemplos desse aproveitamento positivo do que já existe no mercado deinformática: praticamente todo sintetizador que possui unidade (drive) de disquete, utiliza disquetesde 3.5" e formatação compatível com o sistema operacional MS-DOS (o dos computadores PC);diversos instrumentos podem ter sua memória expandida, e para isso utilizam plaquetas de memóriaSIMM, também usados em "motherboards" de computadores comuns; alguns instrumentos utilizamcards do padrão PCMCIA, usados em computadores portáteis (notebooks); vários samplers eequipamentos de gravação de áudio podem acoplar unidades de armazenamento do tipo SCSI(discos rígidos, unidades de CD-ROM, unidades magneto-ópticas), também de fácil obtenção nomercado.

Uma conseqüência imediata desse aproveitamento industrial é não só a redução de custos de projetoe de fabricação (o que faz o instrumento chegar ao músico com um preço mais baixo), mas tambéma maior facilidade de manutenção, pois os componentes deixam de ser exclusivos e proprietários,podendo ser encontrados com mais facilidade.

Embora não seja uma prática comum da indústria de instrumentos, a tecnologia digital permite queum equipamento seja "atualizado", pela simples substituição do seu software de controle. Emalguns casos, o usuário pode adquirir (às vezes até recebe gratuitamente) do fabricante uma novaversão do software de controle, substituindo o chip interno de memória EPROM ou o disquete departida do equipamento. A indústria de softwares musicais adota essa política desde muitos anos, o

que aliás é uma forma muito inteligente de manter o cliente.Mas não são só os sintetizadores que estão se aproximando dos computadores, pois o inversotambém já ocorre. Com os computadores "multimídia", pode-se dispor de recursos de geração desom num computador comum. É bem verdade que o sintetizador OPL-3 que existe nas"soundblasters" da vida não se compara de longe a um instrumento "de verdade", mas é só umaquestão de tempo. Já existem placas de som para computadores que vêm com chips sintetizadoresde sonoridade bastante razoável, a um preço demasiadamente baixo, se comparado com uminstrumento musical. Alguns desses sintetizadores permitem ao usuário carregar novos timbres;existem até placas de som que são verdadeiros samplers (SampleCell).

Por outro lado, à medida que o poder de processamento dos computadores aumenta, os softwarespodem fazer mais coisas. E assim começam a surgir os "software synthesizers", como oCyberSound VS, da InVision. Isso poderá tornar os sintetizadores mais computadores, e vice-versa.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 68/124

De preferência com as vantagens de cada um, é claro. Imagine então um músico falando com outro:"Já fiz upgrade para a nova versão 2.0 do Korg X600dx-4, pagando uma taxa de $100." E o outroresponde: "É, eu já tenho também. Agora a polifonia é de 512 vozes, e ele também já pode usar ostimbres do Emulator 200."

Pagando menos por mais 

Não poderíamos deixar de falar do aspecto econômico associado à evolução dos instrumentosmusicais eletrônicos. É bastante interessante mostrarmos alguns fatos, sob o ponto-de-vista decusto/benefício.

Em 1980, o Minimoog custava US$ 1995. Era um instrumento monofônico, não memorizavatimbres (tinham que ser programados por botões no painel), seu teclado não tinha sensibilidade, eainda sofria dos problemas de estabilidade da afinação. Os sons que produzia - embora sensacionais- eram puramente sintéticos, isto é, era impossível tocar um som parecido com piano acústico, comsax, etc.

Em 1996, é possível adquirir por pouco mais de US$ 1000 um sintetizador multitimbral (16 partes),polifônico (64 vozes), com um teclado mais longo e com sensibilidade a key velocity e aftertouch,com mais de 640 timbres na memória (vários sintéticos, vários de instrumentos acústicos),possibilidade de expansão, processador de efeitos embutido, MIDI, etc, etc.

Isso só foi possível graças à redução de custos da tecnologia digital, que passou a ser a matéria-prima fundamental dos instrumentos modernos.

Só a título de comparação: quanto custava um piano acústico no começo do século? É bem possívelque esse mesmo tipo de piano custe mais caro hoje, apesar de já se terem passado quase cem anos.Isso porque a matéria-prima (madeira) ficou mais escassa e sua exploração ecologicamenteproibitiva (teclas de marfim, nem pensar).

O que nos espera no futuro 

Uma vez que os instrumentos musicais modernos estão intimamente ligados à tecnologia doscomputadores, não é tão difícil imaginar o que poderá vir nos próximos anos. Basta acompanhar asprevisões dos especialistas da área de informática, e transportar para o nosso meio aquilo quepodemos aplicar.

O aumento impressionante da capacidade de processamento dos chips será um fator cada vez maispreponderante daqui para a frente, o que ajudará aos sintetizadores terem um aumento crescente derecursos. A maioria dos instrumentos provavelmente terá uma polifonia superior a uma centena devozes nos próximos três anos. Da mesma forma, a capacidade multitimbral também será ampliada.Os recursos de síntese serão aprimorados ainda mais, e surgirão novos processos, como a adoção detécnicas de modelagem física para melhor controlabilidade do som. Com o barateamento dasmemórias digitais e outras mídias de armazenamento, certamente os sintetizadores terão umacapacidade ainda maior de memorização de timbres. O disquete será substituído por discos ópticos.

Os instrumentos musicais terão cada vez mais afinidade com os computadores, compartilhando

cada vez mais componentes e dispositivos do que hoje. Por que não ter um barramento PCI dentrodo sintetizador, para inserir uma placa de vídeo ou uma controladora SCSI comum do mercado?Isso dará maior expansibilidade ao equipamento. Além disso, a padronização cada vez maior poderá

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 69/124

propiciar a intercambialidade entre equipamentos de fabricantes diferentes, até porque cada vezmais vêm sendo usados os mesmos dispositivos disponíveis no mercado.

Apesar dessas especulações, não tenho a menor intenção de profetizar qualquer coisa, mas apenasraciocinar em cima de fatos presentes e tendências mais evidentes. Mas uma coisa eu tenho comocerta: qualquer que seja a velocidade dos acontecimentos, o usuário sempre terá vantagens.

Texto publicado na revista Música & Tecnologia no.63 em nov/96

Este artigo foi publicado no music-center.com.br em 1998

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

O computador.

Gravação de áudio no computador PC 

por Miguel Ratton

Uma primeira análise dos sistemas de baixo custo que possibilitam usar o computador para gravaráudio com qualidade de CDNeste artigo mostraremos, de uma forma resumida e objetiva, o estágio atual dos recursos paragravação de áudio em computadores PC-compatíveis com Windows, abordando os sistemas maissimples (e mais baratos), mas que nem por isso ofereçam uma qualidade ruim, sendo que sualimitação maior está relacionada ao número de canais de áudio. Os sistemas mais sofisticados,chamados de Digital Audio Workstations (DAW), operam com muitas pistas de áudio, mas utilizamequipamentos adicionais ao computador e custam alguns milhares de dólares (poderemos falarsobre eles em outra oportunidade).Para se montar um sistema básico para trabalhar com áudio digitalizado no computador, a primeiraprovidência é adquirir uma placa de som, que atua como conversor, transformando os sinaisanalógicos de um microfone em sinais digitais (bits e bytes), de forma que possam ser manipuladospelo computador. Atualmente, há placas de som de 8 e de 16 bits (o número de bits estáintimamente relacionado com a qualidade do som, reveja esse conceito no artigo sobre princípios deÁudio Digital), sendo que as placas de 16 bits, mais modernas, também podem operar em 8 bits.Evidentemente, essa qualidade tem preço: uma placa de 8 bits pode ser adquirida hoje, no Brasil,por cerca de US$ 80, enquanto as de 16 bits variam desde US$ 150 até US$ 500. Praticamente

todas as placas de áudio operam em estéreo (dois canais de áudio) e também podem ser ajustadaspara trabalhar com diferentes freqüências de amostragem (veja também no informus nº2). Suainstalação no computador é igual à de qualquer placa, requerendo configurar endereço, interrupção

(IRQ) e a instalação de um arquivo de driver para oWindows. Adicionalmente, é necessário configurar umcanal de DMA (acesso direto à memória) para que a placapossa transferir os dados de áudio diretamente para amemória do computador. Nas placas de 8 bits, costuma-seconfigurar o canal 1, mas nas placas de 16 bits érecomendável usar um dos canais de DMA acima de 5(que operam em 16 bits).

Figura 1: Processo de gravação digital de áudio nocomputador

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 70/124

A placa de som, como dissemos, efetua a conversão A/D e D/A do áudio, mas só pode operar sehouver algum software para controlá-la. No ambiente Windows, existe um padrão para searmazenar áudio digitalizado em disco, sob a forma de arquivo. Esse padrão é o formato WAV, e éusado pela maioria dos softwares que manipulam áudio digital, de forma que, semelhantemente aopadrão MIDI, uma gravação digital feita por um determinado software pode ser usada em outro,sem problemas de compatibilidade. A maioria das placas existentes hoje oferecem outros recursos,

além da possibilidade de gravação/reprodução de áudio digital. A maioria delas contém umsintetizador incorporado (sob a forma de um chip), que pode tocar música MIDI executada por umseqüenciador, embora quase todas usem sintetizadores FM, que têm qualidade sonora muito aquémdo que os instrumentos mais baratos. Outras também oferecem interface MIDI, o que possibilitausar a placa de som também para transmitir e receber comandos MIDI externos ao computador.Quanto à qualidade da gravação/reprodução do áudio digital - que nos interessa nessa abordagem -é necessário fazer uma comparação entre os dados fornecidos pelos fabricantes, nos parâmetrosreferentes a resposta de freqüências (fidelidade da placa na gravação/reprodução de graves eagudos), distorção harmônica total, faixa dinâmica e separação de canais [continua].Tive a oportunidade de experimentar as placas Multisound (Turtle Beach) e RAP-10 (Roland), queaos meus ouvidos (e de algumas outras pessoas) apresentaram qualidade bastante satisfatória. Não

pude efetuar testes de laboratório, de forma que não tenho números para cada uma.O funcionamento de um sistema simples de gravação de áudio digital no computador é descrito aseguir (veja também a figura 1).Durante a gravação, o sinal de áudio produzido por um microfone ou um instrumento musicalconectado à placa de som é digitalizado por esta e transferido, sob a forma digital (bytes), para odisco rígido do computador. Para armazenar estes dados no disco, se for usada qualidadecomparável à dos CDs (resolução de 16 bits e taxa de amostragem de 44.1 kHz), serão gastos cercade 10 MB para cada minuto de áudio (estéreo). Para reproduzir o som gravado, é efetuado oprocesso inverso, com os dados digitais sendo enviados à placa de som, que os converte novamenteem sinal de áudio, que será ouvido pelos alto-falantes. O software controla a placa de som,determinando as características de conversão do sinal de áudio, bem como gerencia o

armazenamento no disco.

Figura 2: Os trechos de áudio (arquivosWAV) são disparados pelo seqüenciador pormeio de comandos MCI.Uma vez armazenado sob a forma de dadosdigitais, o som pode ser manipulado pelosoftware, que pode ser usado para editar ascaracterísticas originais. Dentre os recursos de

edição estão o cut-and-paste (cortar-e-colar) e inversão de trechos, processamento de efeitos

(reverb, eco, chorus, flanger, etc), compressão de tempo (encurtar o trecho sem alterar a afinação),transposição de tom, robotização de voz, mixagem de arquivos de áudio, etc. Há uma variedade desoftwares para placas de som, e devido a características próprias de cada um, o procedimentooperacional para a produção dos trechos de áudio pode variar.Nos softwares mais simples, como o Wave for Windows 2.0 (Turtle Beach), é necessário rodarsimultaneamente tanto o software de áudio quanto o seqüenciador e, enquanto este último executa aseqüência MIDI (que serve de guia) o cantor (ouvindo a guia) grava a voz no editor de áudio. Paraeconomizar espaço no disco, os trechos em silêncio não são gravados, ficando a parte vocalregistrada em forma de fatias de gravações. Depois de gravados todos os trechos, é necessário usarum seqüenciador que seja capaz de reproduzir os arquivos WAV na placa de som, por meio decomandos MCI (Multimedia Command Interface) do Windows (o Cakewalk e o Master Tracks Pro

4 oferecem esse recurso), de forma que as fatias de áudio são reproduzidas (em estéreo) graças acomandos MCI incluídos manualmente na seqüência, que fazem os arquivos WAV seremexecutados pela placa de som nos instantes corretos (veja Figura 2). Nesses softwares, é muito

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 71/124

difícil - quase impossível - fazer-se overdub (superposição de gravações de áudio), de forma quepraticamente só servem para gravar um canal (voz) além da música MIDI.

Figura 3 - Os arquivos de áudio são executados conjuntamentecom a seqüência.Softwares mais sofisticados, como o Audio Toolworks da

Roland e o SAW - Software Audio Workstation, da Innovative,  já são capazes de operar simultaneamente com mais pistas deáudio e funcionam de forma bem mais eficiente, trabalhandoconjuntamente com seqüenciadores MIDI (Figura 3). Neles hárecursos para se posicionar graficamente e com precisão ostrechos de áudio no decorrer da música. O Audio Toolworkspossui um seqüenciador integrado, que serve de guia para acriação e edição dos trechos de áudio, enquanto o SAW pode

enviar sincronismo SMPTE para um seqüenciador (externo), que executa a música MIDI comoguia. O recém-lançado QUAD (Turtle Beach) consegue manipular 4 pistas independentes de áudio,mas só opera com as placas de 16 bits da própria Turtle Beach (Multisound, Monterrey e Tahiti).

Uma das vantagens de se usar áudio digitalizado é a possibilidade de se aproveitar um mesmoarquivo WAV para duas ou mais passagens, como, por exemplo, de um refrão. Isso não sóeconomiza espaço no disco, como tempo de gravação (grava-se apenas uma vez aquele trecho).Texto publicado no Informus no.3 - set/94

Este artigo foi publicado no music-center.com.br em 1996

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Ligando seu instrumento MIDI ao computador 

por Miguel Ratton

Você comprou seu computador completo, com kit multimídia, etc e tal. E agora, claro, quer fazermúsica com ele. O que você precisa?

Bem, há algumas formas diferentes de se fazer música com o computador, mas se você quer usá-loem conjunto com seu teclado MIDI, a peça fundamental para isso é a interface MIDI. Essedispositivo é o circuito eletrônico que faz a passagem dos códigos (sinais) MIDI de e para ocomputador. Sem ele, "babau". A interface MIDI em geral é uma placa instalada dentro docomputador, ou então uma caixinha externa ligada ao conector da impressora. Ela possui tomadas

para conectar instrumentos MIDI, e há diversos modelos, com diferentes recursos, que serãoabordados por nós nesta coluna.

Se o seu computador possui o chamado "kit multimídia", então não se preocupe, pois a interfaceMIDI provavelmente já está lá. Basta você ter o cabo/adaptador (infelizmente, já vi pessoas que,embora tendo uma placa de áudio em seu computador, foram orientadas erradamente a adquirir umaoutra placa de interface MIDI adicional).

O kit multimídia é composto por uma unidade ("drive") de CD-ROM (por favor, não pronuncie"CD-RUM"; rum é bebida - o nome é CD-ROM mesmo!), placa de som (ou placa de áudio) eeventualmente um microfone e um par de caixinhas de som, que em geral têm pouca qualidade para

aplicações mais sérias, mas que dão para "quebrar o galho", pelo menos quando se está começando.

A placa de áudio é a peça-chave nessa história. É ela quem faz não só o controle do drive de CD-

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 72/124

ROM (embora os drives padrão IDE possam ser conectados diretamente à "placa-mãe" docomputador), a gravação e reprodução de som digital, e também a gravação/execução de músicaMIDI. Em artigos futuros, abordaremos com mais detalhes a gravação e a reprodução de som, poiso assunto que nos interessa agora é o interfaceamento MIDI.

Há alguns anos atrás, uma empresa chamada Creative Labs lançou uma placa de áudio - Sound

Blaster - que unia o útil com o agradável. Ela podia gravar/reproduzir som digital (na época, 8 bits),controlar drive de CD-ROM (na época, velocidade 1X), possuía um sintetizador interno (um chipcom tecnologia FM da Yamaha), e ainda por cima (ou seria "por dentro") dispunha de quase todo ocircuito para interfaceamento MIDI. Digo "quase todo", porque o complemento dessa interfaceMIDI é o cabo/adaptador "MIDI Adapter Kit". A Sound Blaster se tornou tão popular quepraticamente todos os outros fabricantes que surgiram passaram a produzir clones dela, isto é,placas totalmente (ou quase) compatíveis com a original.

Hoje, a Sound Blaster continua sendo o padrão industrial em termos de placas de áudio não-profissionais(*), mantendo-se líder no mercado de multimídia para PCs. Por isso, com raríssimasexceções (que dificilmente você vai encontrar por aí), todas as placas de áudio do mercado utilizam

o mesmo tipo de cabo/adaptador para MIDI.

O "MIDI Adapter" 

Na face externa (painel) da placa de áudio, você verá três ou quatro tomadas para mini-plugs deáudio (stereo), que são usadas para se gravar (MIC IN e LINE IN) e ouvir (LINE OUT eSPEAKER) os sons, e também verá uma tomada cheia de furinhos (para ser mais exato: 15 furos).Essa tomada, chamada de DB-15, serve para se conectar o"MIDI Adapter" (cabo/adaptador MIDI), peça que há poucosanos era dificílima de ser encontrada no Brasil, mas que agora é"figurinha fácil".O cabo/adaptador MIDI possui um conector macho DB-15, queentra na tomada DB-15 da placa, e na outra extremidade possuiuma entrada MIDI In, uma saída MIDI Out, e um conectorfêmea DB-15 (para se conectar um "joystick" - alavanca decontrole para jogos). A maioria das pessoas desconhece isso,mas o cabo/adaptador possui um pequeno circuito dentro dele,que "complementa" o circuito da interface MIDI existente naplaca.

De posse do MIDI Adapter, basta conectá-lo à placa (sugiro que você faça isso com o computador

desligado). Os plugs do MIDI Adapter vêm identificados, como MIDI In e MIDI Out. Isso significaque o plug MIDI In é a entrada (In) de MIDI da placa, enquanto o plug MIDI Out é a saída (Out) deMIDI da placa. Conecte então o plug MIDI In do adaptador à tomada MIDI Out de seu tecladoMIDI, e o plug MIDI Out do adaptador à tomada MIDI In do teclado (ou módulo). Se você errar asconexões, não vai causar qualquer dano, mas nào vai funcionar. Essas conexões podem ser feitascom o computador e instrumentos ligados.

Atualmente, há alguns modelos ligeiramente diferentes de "MIDI Adapter". A maioria deles vemcom cabos MIDI de cerca de 1 metro de comprimento, e plugs MIDI do tipo macho. Isso significaque você deverá conectar esses cabos diretamente ao seu teclado, e por isso o teclado deverá estarbem próximo do computador. Há, no entanto, alguns tipos de "MIDI Adapter" que, ao invés de

terem cabos MIDI, possuem tomadas MIDI fêmeas, de forma que você poderá conectar nelas doiscabos MIDI comuns, vindos das tomadas MIDI do teclado.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 73/124

Quer montar um MIDI Adapter? 

Quem tiver alguma habilidade com eletrônica, poderá se aventurar a montar um cabo/adaptadorMIDI para placas Sound Blaster, com componentes que podem ser encontrados sem dificuldade nasboas lojas de eletrônica. O único problema é o "empacotamento" do circuito: nos MIDI Adaptersproduzidos industrialmente, o circuito é todo embutido no próprio conector DB-15 que encaixa na

placa. Mas você poderá fazer uma montagem mais simples, colocando o circuito em uma pequenacaixa plástica, de onde sairão os cabos e conectores.

No próximo artigo, vamos falar um pouco sobre configurações essenciais de MIDI no Windows,sem as quais, mesmo que o instrumento esteja conectado corretamente ao computador, nadafunciona! É um procedimento que deveria ser fácil, mas que algumas vezes dá muita dor de cabeçaaos usuários. Mas tudo se resolve... Até lá!

(*) A Creative Labs lançou posteriormente a Sound Blaster AWE64 Gold, com qualidade de áudio

bem melhor (inclusive com entradas e saídas digitais), um sintetizador com timbres sampleados e,

obviamente, interface MIDI. Ainda que não seja uma placa para aplicações altamente

 profissionais, já está num estágio de qualidade muito superior ao de suas ancestrais. 

Artigo publicado na revista Backstage em 1997

Este artigo foi publicado no music-center.com.br em 1997

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Os canais de MIDI 

por Miguel Ratton

No artigo anterior, vimos alguns exemplos de como interconectar equipamentos MIDI, masalertamos para o fato de que não basta haver a conexão física para que o sistema funcione. É precisoque os equipamentos estejam ajustados adequadamente.

Para transmitir informações de notas e outros eventos musicais (como oacionamento de pedais, por exemplo), o sistema MIDI dispõe de 16 canais.A coisa funciona de forma bastante semelhante ao sistema de TV: se otransmissor utiliza um determinado canal MIDI (digamos, canal 1), oequipamento receptor só poderá efetivamente receber as informações se

estiver ajustado também para mesmo canal MIDI (no caso, o canal 1). Osequipamentos atuais possuem ajustes separados de canal de transmissão ede recepção, o que significa, por exemplo, que umsintetizador pode estar configurado para transmitirMIDI pelo canal 2, e receber pelo canal 4. Na verdade, como osinstrumentos mais modernos são "multitimbrais" (veja adiante), podemreceber em vários canais simultâneos, independentemente do ajuste do seucanal de transmissão.

Então, uma providência essencial ao se conectar dois ou maisequipamentos MIDI é verificar se eles estão configurados corretamente

quanto aos canais de transmissão e recepção. Sem isso, provavelmente osistema não funcionará. Nos sintetizadores e equipamentos MIDI, osajustes de canais de transmissão e recepção são efetuados em funções em

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 74/124

geral denominadas MIDI TX CH e MIDI RX CH.

O número máximo de canais de MIDI "trafegando" pelo cabo é 16, mas esse limite não significaque você não poderá trabalhar com mais do que 16 instrumentos individuais. Nos estúdiosprofissionais, para se ultrapassar o limite dos 16 canais, usam-se equipamentos (ex: interfacesMIDI) com múltiplas portas de saída MIDI Out, de forma que por cada uma são transmitidos

simultaneamente 16 canais MIDI. Assim, um sistema com oito saídas MIDI Out (o que não é tãoraro assim) pode trabalhar com até 128 canais de MIDI, o que significa poder comandar até 128instrumentos diferentes, ao mesmo tempo (imagine uma banda com 128 músicos!). Na verdade,como o MIDI é utilizado para controlar outros equipamentos além dos instrumentos musicais,alguns canais são usados para controlar processadores de efeitos, mesas de mixagem e outrosrecursos de estúdio.

Sintetizadores multitimbrais 

Este tipo de sintetizadores começou a se popularizar no final dos anos 80, ehoje é difícil encontrar um instrumento que não tenha essa característica. Num

equipamento multitimbral é como se existissem vários sintetizadoresembutidos na mesma "caixa". Em geral, eles possuem 16 "partes timbrais",onde cada uma delas pode tocar um timbre (instrumento) diferente. Dessaforma, o mesmo equipamento pode executar todo o arranjo de uma música(bateria, baixo, paino, cordas, sax, etc). Cada parte timbral atua como uminstrumento "receptor", operando em seu próprio canal de recepção MIDI (ocanal 10 é reservado para bateria e percussão). Se duas partes timbraisestiverem configuradas para receber pelo mesmo canal de MIDI, elasexecutarão juntas exatamente as mesmas notas.

A multitimbralidade viabilizou uma redução muito grande de custo nos estúdios MIDI, pois hojeum sintetizador multitimbral pode fazer sozinho o que antes só era possível com váriosequipamentos separados. Além disso, ganha-se em espaço e em praticidade também (com ummenor número de equipamentos dentro do estúdio).

Artigo publicado na revista Backstage em 1997

Este artigo foi publicado no music-center.com.br em 1997

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Seqüenciadores: conceitos básicos 

por Miguel Ratton

O seqüenciador MIDI tem um papel fundamental na música atual, pois traz imensos recursos para acriação e experimentação de idéias, mas também pelo fato de agilizar o processo criativo,aumentando a eficiência do trabalho, condição extremamente importante no mercado cada vez maiscompetitivo da música profissional.

O seqüenciador pode ser um software ou um eqüipamento (normalmente portátil), sendo que os

softwares são mais poderosos no que diz respeito a recursos e facilidades de trabalho. Oseqüipamentos seqüenciadores, por outro lado, tem a vantagem da portabilidade, o que faz delesrecursos complementares para o músico: o trabalho é criado no computador (software seqüenciador)

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 75/124

e executado em shows no eqüipamento seqüenciador. Se você possui um computador notebook,então já tem meio caminho para um seqüenciador portátil: basta instalar nele um software e umainterface MIDI externa (falaremos sobre as interfaces MIDI em outra oportunidade).

Vejamos, então, algumas características dos softwares seqüenciadores:

Trilhas (pistas) 

O material musical é armazenado sob a forma de uma seqüência de "eventos" MIDI (daí o nomeseqüenciador). Esses eventos, na maioria dos casos, são comandos de execução de notas (note on enote off), mas podem ser também comandos de controle (ajuste de volume, pan, pitchbend, pedais,etc). Os eventos são "armazenados" pelo seqüenciador, à medida que o músico os executa em seuteclado (ou outro instrumento controlador, como uma guitarra-MIDI). No final da execução, aseqüência conterá todos os eventos registrados cronologicamente, um a um.

Para facilitar o processo de armazenamento, o seqüenciador organiza os eventos em trilhas (pistas),de forma que o músico escolhe uma trilha para gravar a execução, e todos os comandos enviados

pelo instrumento ficarão registrados naquela trilha. Assim, cada parte do arranjo pode ser registradanuma trilha separada: ao criar um arranjo de três instrumentos (timbres), como por exemplo piano,baixo e bateria, o músico executa cada parte separadamente, registrando-as em trilhas individuais(ao gravar uma nova trilha, o músico pode ouvir simultaneamente a execução das trilhas jágravadas, desde que possua um instrumento MIDI multitimbral (que pode executar vários timbressimultâneos, cada um num canal de MIDI diferente).

A idéia da separação da seqüência em trilhas oferece grandes facilidades:•  desativar (mute) uma ou mais trilhas, de forma que as partes do arranjo registradas nelas nãosejam executadas; isso é ótimo para se ouvir isoladamente certas partes do arranjo;

•  escolher outro timbre para executar amesma trilha; permite experimentar a mesmaexecução com outras sonoridades;•  efetuar algum tipo de edição somentenuma trilha, como efetuar a transposição de umou mais instrumentos do arranjo, sem alterar osdemais;•  efetuar uma mixagem inicial entre astrilhas, indicando valores de controles de volumee pan;

Figura 1: Janela de visualização de trilhas (Track View) do software Cakewalk, com alguns dosdiversos ajustes que podem ser feitos individualmente, para cada trilha.

Portas MIDI 

As portas MIDI são os caminhos que o seqüenciador dispõe para receber/transmitir os eventosMIDI de/para os instrumentos e eqüipamentos MIDI. Elas estão diretamente relacionadas com astomadas de MIDI In e MIDI Out das interfaces MIDI instaladas no computador (exceto no caso dossintetizadores internos das placas de som, e dos sintetizadores virtuais, implementados por software,

em que as portas MIDI não "existem" fisicamente como tomadas MIDI In/Out).

Vejamos um exemplo bastante prático: se você possui uma placa de som Sound Blaster ou similar,

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 76/124

e estando ela devidamente instalada e configurada em seu computador e no Windows, as portasMIDI que aparecerão disponíveis para seu software seqüenciador são as seguintes:•  porta de entrada: MIDI In da interface MIDI da placa de som (geralmente do tipo MPU-401);•  porta de saída: MIDI Out da interface MIDI da placa de som (geralmente do tipo MPU-401);

•  porta de saída: sintetizador interno daplaca de som (geralmente do tipo FM);•  porta de saída: MIDI Mapper do Windows(recurso de mapeamento do Painel de Controle);

Figura 2 - Relação de dispositivos MIDI disponíveis para o seqüenciador: portas de entrada (inputport) e portas de saída (output port).

Em algumas placas de som (ex: Roland RAP-10), o sintetizador interno e a saída MIDI Out são a

"mesma porta", de forma que qualquer nota MIDI transmitida irá comandar tanto o sintetizadorinterno quanto o instrumento MIDI conectado à tomada MIDI Out.

A grande maioria dos softwares seqüenciadores podemanipular múltiplas portas MIDI, de forma que sevocê tiver uma placa de som e mais uma interfaceMIDI de múltiplas saídas, todas as portas MIDIaparecerão disponíveis no software. Osseqüenciadores também podem reconhecer múltiplasportas de entrada MIDI simultâneas.

Figura 3 - Exemplo de seqüenciador operando com várias portas MIDI. Observe que na coluna"Port" aparecem quatro portas diferentes: as duas portas MIDI Out da interface MIDI MQX-32, asaída MIDI Out (tipo MPU-401) da placa de som, e o sintetizador FM interno da placa de som.

Artigo publicado na revista Backstage em 1997

Este artigo foi publicado no music-center.com.br em 1997

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Seqüenciadores: selecionando timbres no sintetizador 

por Miguel Ratton

Usaremos como referência o mesmo exemplo do artigo anterior (computador + softwaresequenciador + interface MIDI conectado por um cabo MIDI a um teclado multitimbral), onde osequenciador executa um arranjo MIDI para piano, baixo e bateria.

Dessa forma, para que as pautas do arranjo sejam executadas corretamente, é necessário que naspartes timbrais do sintetizador sejam selecionados os registros de piano, baixo e bateria. Ou seja, se

as notas do piano serão transmitidas através do canal MIDI no.1, então a parte timbral que recebepelo canal MIDI 1 deve estar configurada para tocar um som de piano; da mesma forma, a partetimbral que recebe pelo canal MIDI 2 deve estar configurada para tocar um som de baixo; e idem no

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 77/124

que diz respeito à bateria (canal MIDI 10).

Na maioria dos sintetizadores (teclados e módulos), pode-se escolher o timbre de cada parte timbralpelos botões do painel, o que geralmente é uma coisa muito chata de se fazer, por causa daquantidade de botões que se tem que apertar. O ideal mesmo é tornar o sequenciador o centro decontrole de tudo, não só da execução de notas, mas de tudo o que tem que ser realizado pelo(s)

equipamento(s) a ele conectado(s). E o MIDI oferece todos os recursos para isso.

Para selecionar timbres de um sintetizador via MIDI, é necessário enviar um comando (mensagem)MIDI de program change ou “troca de programa de som” (também chamado de patch change). Estamensagem leva três informações básicas:•  tipo de comando (neste caso: troca de programa de som - “program change”)•  número do canal de MIDI (de 1 a 16) em que está sendo transmitido o comando•  número do programa de som (de 0 a 127)

Nos sintetizadores compatíveis com o General MIDI (GM), a numeração de timbres (programas)obedece à uma determinada ordem (0 = Acoustic Piano, 1 = Bright Piano, 2 = Electric Grand Piano,

etc). Portanto, ao se enviar uma mensagem MIDI de program change no.0 para um sintetizador GM,ele sempre muda o som para um piano acústico (exceto no canal MIDI 10, que é usado parabateria/percussão, e não para instrumentos cromáticos).

Pode-se incluir eventos de program change na sequência, de forma que o sequenciador comande atroca de timbres automaticamente. Na maioria dos sequenciadores, na janela principal (“Tracks”)existe uma coluna (“Patch” ou “Program”) onde se pode indicar o timbre a ser selecionado, em cadaparte timbral do sintetizador, ao iniciar a sequência. Ou seja, antes do sequenciador enviar as notasde cada trilha (através dos respectivos canais de MIDI nelas indicados), ele envia um comando deprogram change com o número do timbre desejado para aquela parte do arranjo (veja figura 1).

Figura 1: Para cada trilha da sequência, é indicado o número (coluna “Patch”)do timbre do sintetizador que deverá ser usado para executar as respectivas notas.

Importante: Se houver mais de uma trilha operando no mesmo canal de MIDI, o número do timbre(patch) deve ser indicado apenas em uma delas (isso se aplica também aos demais comandos MIDIde volume, pan, reverb e chorus, que abordaremos em outras oportunidades).

Evidentemente, memorizar todos os números de timbres do sintetizador é uma coisa um tantoquanto impraticável, ainda mais nos sintetizadores atuais, que além dos 128 timbres GM em geralcontêm uns dois ou três bancos de timbres, cada qual com mais 128 timbres! É humanamenteimpossível decorar 500 ou mais nomes de instrumentos... Além do mais, existem sintetizadores quenumeram a partir do 0, outros a partir do 1, outros usam A00, A88, etc. É muita confusão!

Por causa disso, alguns softwares sequenciadores oferecem facilidades (mesmo) para isso,permitindo ao usuário “montar” listas com os nomes dos timbres do(s) seu(s) sintetizador(es), deforma que ao indicar o timbre na sequência, ele possa escolher a partir de nomes, e não de números.

Geralmente, o sequenciador já vem com uma biblioteca de listas, com os nomes dos timbres quevêm de fábrica na maioria dos sintetizadores do mercado. Se o seu sintetizador não estiver lá, ou sevocê reprogramou os timbres dele (e por isso não poderá usar a lista de nomes dos timbres defábrica), ainda assim é possível criar uma lista específica, que embora seja um processo um pouco

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 78/124

trabalhoso, é feito uma única vez.

Figura 2: Alguns sequenciadores oferecem o recurso de listas de instrumentos,para que o usuário não precise memorizar os números, e possa escolher os timbresdiretamente por seus nomes.

Assim, uma vez configurado qual o sintetizador que está sendo utilizado com o softwaresequenciador, todo o processo de indicação de timbres (program change) é feito facilmente pelosnomes.

Os comandos de program change se limitam a selecionar até 128 timbres. Como a maioria dossintetizadores modernos possui centenas deles em sua memória, é necessário usar um outro

comando complementar, para selecionar qual o banco (grupo) onde está o timbre desejado. No  próximo artigo, veremos como é feita a seleção de bancos (bank select) de timbres nossintetizadores, através de comandos MIDI.

Artigo publicado na revista Backstage em 1997

Este artigo foi publicado no music-center.com.br em 1997

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Seqüenciadores: selecionando bancos de timbres 

por Miguel Ratton

Continuando nosso assunto sobre sequenciadores, neste artigo apresentaremos como o

seqüenciador faz a seleção de bancos de timbres no sintetizador. 

No último artigo, vimos que os timbres do sintetizador podem ser selecionados via MIDI usando-secomandos do tipo program change (ou patch change), que identifica o número do timbre (de 0 a127). Entretanto, como os sintetizadores passaram a ter bem mais do que 128 timbres em suamemória, os fabricantes resolveram organizá-los em bancos, cada qual com 128 timbres. Nossintetizadores compatíveis com o padrão GM (General MIDI), um dos bancos contém os 128timbres GM, que obedecem à numeração padronizada, enquanto os demais bancos contêm outrostimbres, com sonoridades próprias daquele sintetizador.

Dessa forma, para selecionar via MIDI um determinado timbre de um sintetizador moderno, énecessário enviar para ele dois comandos MIDI: um de bank select, para selecionar o banco detimbres, e outro de program change, para selecionar o timbre desejado naquele banco. Como ocomando de program change já foi abordado no artigo anterior, enfocaremos agora apenas osdetalhes do bank select.

O processo de seleção via MIDI dos bancos de timbres do sintetizador foi concebido de tal formaque é possível selecionar 16.384 bancos diferentes (não existe ainda um sintetizador com tantostimbres assim, mas isso é só uma questão de tempo...). O comando MIDI de bank select é

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 79/124

composto, na verdade, de dois comandos (control change 0 e control change 32) que, dependendodo sintetizador, podem ser usados em conjunto ou separadamente.

Figura 1: A seleção de timbres nos sintetizadores é feita selecionandoprimeiramente o banco, e em seguida o timbre dentro daquele banco.

Alguns sintetizadores utilizam apenas o comando de control change 0 para selecionar o número dobanco. O comando de control change 0 também é chamado de MSB (“most significant byte”).Nesse caso, a seleção de um timbre deve ser feita com os seguintes comandos:

- control change 0 (MSB) indicando o número do banco- program change indicando o número do timbres

Os sintetizadores mais modernos utilizam o comando de control change 0 e o de control change 32(LSB - “least significant byte”), juntos, para selecionar o número do banco. Usando-se o MSB e oLSB pode-se selecionar até 16.384 bancos. Nesse caso, a seleção de um timbre deve ser feita comos seguintes comandos:•  control change 0 (MSB) indicando a parte mais significativa do número do banco•  control change 32 (LSB) indicando a parte menos significativa do número do banco•  program change indicando o número do timbres

Há ainda alguns poucos sintetizadores que só usam o control change 32 (LSB).

Agora você deve estar imaginando como deve proceder para fazer seu software seqüenciador enviaros comandos corretos de bank select e program change para seus sintetizadores. Felizmente, ossoftwares mais modernos são bastante “amigáveis”, e se já não vêm com os sintetizadores pré-definidos, permitem que você os defina, de maneira que o sofware possa “saber” qual é o modo deseleção de bancos (com MSB, com MSB+LSB, ou com LSB). Uma vez que o software já “sabe”,você não precisa mais se preocupar com números de bancos, mas apenas com seus nomes (“BankA”, “User Bank”, etc), e bye-bye MSBs e LSBs (veja Figura 2).

Figura 2: Num software que oferece configuração de instrumentos,você não precisa se preocupar com os números dos bancos ou patches,pois pode selecioná-los pelos nomes. O software se encarrega de enviaros comandos MIDI necessários.

Se o seu software não tem como configurar essas coisas, você terá que verificar quais os valores deMSB e LSB de cada banco, e sempre que quiser selecionar um determinado banco deverá inserir naseqüência os comandos corretos de control change 0 e control change 32, antes (sempre antes!) do

comando de program change.

Por exemplo: No Roland JV-90, para se selecionar o banco “Preset A”, é necessário enviar os

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 80/124

comandos de control change 0 (MSB) = 81, e control change 32 (LSB) = 0, seguidos de umcomando de program change com o número do patch desejado (veja Figura 3).

Figura 3: Exemplo de como selecionar o timbre 45 do banco Preset A do JV-90.

Os números de MSB e LSB dos bancos geralmente estão documentados no manual do equipamento(naquela seção que tem letrinhas miúdas...).

Artigo publicado na revista Backstage em 1997

Este artigo foi publicado no music-center.com.br em 1997

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Sequenciadores: canais de MIDI 

por Miguel Ratton

Continuando nosso assunto sobre sequenciadores, vamos falar sobre o recurso de canalização de

eventos, que é essencial para que se possa controlar corretamente os diversos equipamentos de um

sistema MIDI. 

Vamos usar um exemplo bem simples para explicar o processo de canalização: um sequenciador

(computador + software sequenciador + interface MIDI) conectado por um cabo MIDI a um tecladomultitimbral (que pode executar timbres diferentes, simultaneamente).

Imagine que o sequenciador esteja enviando as informações para a execução das notas de umarranjo musical, para piano, baixo e bateria:

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 81/124

 

Figura 1: Um arranjo de piano (1), baixo (2) e bateria (3) criados no sequenciador MIDI. As notasde cada pauta têm que ser executadas por partes timbrais diferentes do sintetizador, cada uma com otimbre respectivo (piano, baixo e bateria).

Como o teclado pode identificar as notas de cada instrumento, e executá-las corretamente? Aresposta está nos canais de MIDI (“MIDI channels”).

Os idealizadores do sistema de comunicação MIDI conceberam-no com a capacidade de “segregar”informações, de forma que, num mesmo cabo, pode-se identificar quais mensagens destinam-se a

quais equipamentos, identificando-as por meio de canais diferentes. A coisa funciona, basicamente,como o exemplo a seguir:

Quando o sequenciador manda uma nota via MIDI para ser executada por um instrumento, codificaesse comando numa mensagem digital, que leva quatro informações básicas:

- tipo de comando (neste caso: execução de nota - “note on”)- número do canal de MIDI (1 a 16) em que está sendo transmitido o comando- número da nota a ser executada (de 0 a 127; o dó central é a nota 60)- intensidade (“key velocity”) com que a nota deve ser executada (de 0 a 127)

Assim, o número do canal funciona como se fosse uma identificação do destinatário da mensagem;e somente os equipamentos que estejam configurados para receber mensagens naquele canal deMIDI (“MIDI Receive Channel”) é que irão efetuar o respectivo comando.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 82/124

 

Figura 2: Através de um único cabo MIDI, podem passar, simultaneamente, mensagens de até 16canais diferentes.

Na grande maioria dos sequenciadores, é possível indicar qual o canal de MIDI que será usado parase transmitir os eventos de cada trilha. Essa indicação é feita numa das colunas de parâmetrosexistentes na janela principal das trilhas (“Tracks”), geralmente designada como “Channel” (ouabreviada como “Chn”). O número do canal de MIDI não tem qualquer ligação com o número datrilha, podendo, inclusive, haver duas ou mais trilhas operando no mesmo canal de MIDI.

Indicando um número de canal nessa coluna, todos os eventos da mesma serão transmitidos -obrigatoriamente - através daquele canal de MIDI, mesmo que aquelas notas (e outros eventos)tenham sido transmitidas (gravadas) pelo teclado para o sequenciador usando um outro canal deMIDI (“MIDI Transmit Channel”). Ou seja, é o canal indicado na coluna “Channel” que identificaráas notas quando o sequenciador transmiti-las de volta para o teclado.

Figura 3: Na maioria dos sequenciadores, pode-se indicar o canal de MIDI a ser usado por cadatrilha (coluna “Chn”). Observe que, neste caso, não existe a obrigatoriedade do número do canal deMIDI ser igual ao da trilha.

Observações importantes:1.  O canal de MIDI no.10 é sempre usado para bateria e percussão.2.  Se você for salvar sua sequência em formato “Standard MIDI File”, tenha em mente oseguinte: o “Standard MIDI File formato 0” mistura numa só trilha todas as trilhas da suasequência, preservando os canais indicados para os respectivos eventos; já o “Standard MIDI Fileformato 1” preserva cada canal de MIDI numa trilha separada.

Artigo publicado na revista Backstage em 1997

Este artigo foi publicado no music-center.com.br em 1998

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 83/124

 

Dicas para os micreiros musicais 

por Miguel Ratton

 Embora a tecnologia possa parecer tão complicada, na verdade ninguém precisa ser engenheironem programador para poder usá-la e obter os resultados que deseja, como usuário. Muitas vezes,

é apenas uma questão de organização e metodologia de trabalho. Neste artigo, trazemos algumas

informações importantes para que o trabalho musical no computador seja mais eficiente. 

1. A importância da documentação 

Nos dias de hoje, informação é vital. Principalmente para quem usa o computador, e é obrigado asaber uma série de coisas que extrapolam a sua atividade-fim (no nosso caso: a música). O micreiromusical muitas vezes depende de certas informações técnicas para poder prosseguir seu trabalho:manipular um arquivo, configurar uma impressora, ajustar os canais de MIDI corretamente, etc. Por

isso, é muito importante que as informações lhe estejam disponíveis, a qualquer momento.

Os bons softwares e equipamentos modernos em geral vêm acompanhados de farta documentação,mas a linguagem técnica quase sempre desanima o usuário a lê-la. Por outro lado, é muito comumencontrarmos num pequeno parágrafo do texto de um manual a solução exata de um determinadoproblema.

Então, aqui vão algumas regras fundamentais em relação à documentação:•  Ao adquirir um equipamento, um software ou uma placa de computador, leia primeiramente,e com atenção, a documentação referente a instalação e "colocação em funcionamento". Isso, alémde deixá-lo familiarizado com o novo produto adquirido, evitará que você cometa algum engano noprocesso de instalação e configuração. Em seguida, antes de começar a usar efetivamente o novoproduto, "dê uma olhada" em todo o manual, para saber o que lá existe documentado. Isso lhe daráuma visão geral, e você certamente se lembrará onde procurar quando precisar saber sobredeterminado assunto.•  Tenha a documentação sempre à mão. Guarde num local de fácil acesso todos os manuais eoutros textos relativos aos seus equipamentos e softwares. Assim, quando você precisar de algumainformação, saberá onde estão as referências.•  Ao ler um manual, se você tiver alguma idéia ou conclusão específica sobre determinadotópico, anote (à lápis) na própria página. Isso garantirá que essa observação será encontrada no localcerto.

2. Cuidados ao instalar e desinstalar softwares 

A facilidade de se obter softwares hoje em dia, é um convite ao usuário para instalar um monte decoisas em seu computador. Muitas revistas vêm com CDs cheios de programinhas (a maioria inútilpara você), e pela Internet também temos acesso à uma infinidade de versões de demonstração desoftwares.

No entanto, antes de instalar qualquer coisa em seu computador, esteja ciente do seguinte:•  Antes de instalar, tente saber o que exatamente faz o software, e se ele será útil para você.Não ocupe desnecessariamente espaço em seu disco rígido que poderia ser usado para outras

finalidades mais importantes. Deixe sempre espaço livre em seu disco, para quando você precisarguardar algo importante.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 84/124

•  A menos que a fonte onde você obteve o software seja realmente confiável, não instale-osem antes passar um anti-vírus (veja detalhes no tópico seguinte).•  Cuidado com softwares que alteram configurações do computador. Muitos softwares avisamque vão alterar alguma coisa; acompanhe atentamente todo o processo de instalação, e leia comcalma todas as mensagens que são apresentadas na tela (principalmente aquelas que têm botões deresposta - "Yes" ou "No").•  Cuidado com softwares que possuem vídeos. Muitos deles instalam o recurso do Video forWindows sem antes verificar se este já está instalado (e normalmente já está). Pode acontecer deleinstalar uma versão mais antiga do que a que estava instalada (isso acontece muito quandoaplicativos multimídia feitos para Windows 3.1 são instalados no Windows95).•  Quando quiser remover algum programa, verifique antes se ele possui um ícone de"desinstalação". Caso afirmativo, efetue a desinstalação, ao invés de sair apagando você mesmo osarquivos e diretórios. Os softwares criados para Windows95 podem ser desinstalados através doPainel de Controle.

3. Vírus 

Embora essa palavra deixe muito micreiro com medo, há muita gente que nem se importa com isso(às vezes, até por desconhecimento).

Embora os computadores sejam máquinas, eles estão sujeitos a certos males, que podem afetar seufuncionamento. O vírus de computador é um pequeno software que tem a propriedade de sófuncionar em determinadas condições. Enquanto essas condições não ocorrem, o vírus fica alojadodentro de outro arquivo (em geral, um software executável). Normalmente, o vírus vem dentro dealgum software, algum aplicativo que você instala em seu computador e, durante a instalação, ele sealoja em algum arquivo do sistema operacional, tornando-se então um enorme perigo, pois poderáatuar a qualquer momento.

Cabe ressaltar que o vírus não é criado pelo desenvolvedor do software em que ele veio alojado. Elese instala em disquetes formatados em um computador "infectado", ou se transfere para arquivosexecutáveis no computador "infectado", que quando são copiados para um disquete, acabamlevando a "doença" para outras pessoas.

Por isso, é importante que você tenha cuidado com disquetes trazidos por amigos, principalmenteamigos de seus filhos! A garotada adora joguinhos, que copiam descontroladamente entre eles. Seuma máquina está "infectada", poderá passar para todas as demais.

Você deverá estar pensando: Mas quem cria os vírus? Bem, em geral, pessoas que querem mostrar

(talvez para si mesmas) sua capacidade de interferir na vida de milhares ou milhões de usuários.Infelizmente, elas não se importam com os prejuízos que podem causar. Alguns vírus vão apagandoaos poucos o conteúdo do disco rígido, ou simplesmente deteriorando os arquivos (o que dá nomesmo!). Outros, menos malignos, apenas mostram mensagens na tela. Há uma enorme variedadedeles, cada um com sua própria maneira de perturbar.

As recomendações acima servem para diminuir bastante o risco de ter o computador infectado porum vírus. O procedimento, portanto, é idêntico ao de qualquer doença humana: evitar antes.

Mas se você tiver o dissabor de ter seu computador infectado (o que em geral você só vai sabertarde demais), o jeito é usar um "antídoto", ou seja, um anti-vírus. Existem várias empresas que

produzem aplicativos cuja função é procurar os vírus e, ao encontrar algum, proceder a "limpeza".Milhares de vírus são conhecidos e podem ser eliminados, mas nem sempre se pode descobrir osvírus novos. Alguns dos softwares anti-vírus monitoram permanentemente a memória e o disco

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 85/124

rígido do computador, e são capazes de detectar alguma anormalidade (mesmo se o vírus não éconhecido), informando o arquivo suspeito, que você deverá eliminar. Dentre os anti-vírus, os maispopulares são: Norton, McAffee Viruscan, Thunderbyte, e outros. Os anti-vírus não são caros, e amaioria oferece atualizações periódicas (para cobrir os novos vírus).

4. A importância do "backup" 

Certamente, você guarda cópias de seus documentos pessoais (carteira de identidade, título deeleitor, etc), pois sabe que, se perder os originais, fica mais fácil conseguir outra via se tiver umacópia. No computador, também é importante você ter cópias dos arquivos mais essenciais para oseu trabalho.

Imagine que você está fazendo um arranjo MIDI para as músicas de um cantor, e esse trabalho jálhe consumiu três semanas. Um belo (ou melhor, triste) dia, você tenta abrir os arquivos com asmúsicas e recebe uma mensagem do tipo "Unable to open file." ("incapaz de abrir o arquivo"). Vocêtenta de novo, e recebe sempre a mesma mensagem. Um friozinho corre pela sua espinha, e umaterrível sensação de mal-estar lhe vem quando você se lembra de que tem mais dois dias para

entregar o trabalho pronto!

Não quero deixar ninguém apavorado, mas isso pode ocorrer com qualquer um. É como seguro deautomóvel: pode custar um pouco caro, mas se acontecer do seu carro ser roubado, você estarágarantido. É uma questão de probabilidade, que as estatísticas comprovam. Eu já passei pelas duasexperiências (já perdi arquivos importantes, e já tive meu carro roubado), mas felizmente souprecavido, e recuperei os arquivos e o carro.

O procedimento de fazer "cópias de segurança" dos dados importantes de seu computador é o que,em computês, nós chamamos de "fazer backup". A cópia backup é nada mais do que uma réplica doarquivo original, e a forma mais simples de fazer backup é salvar o arquivo em dois lugaresdiferentes: se um deles se estragar, usa-se o outro. Você pode salvar o arquivo em dois lugares, nomesmo disco rígido, mas isso não resolverá seu problema no caso de um defeito no disco (também

 já tive essa experiência!).

O melhor mesmo é você ter cópias backup de seus arquivos importantes em outro dispositivo dearmazenamento como disquete ou CD-R. Nesse caso, se o disco de seu computador "pifar" (o que éraro, mas não impossível), você compra outro disco, reinstala os softwares, e copia seus trabalhosdo backup. É uma solução rápida, e barata (um CD-R custa cerca de R$ 1). Se você trabalhaprincipalmente com arquivos de MIDI e de textos, o disquete resolve fácil. No entanto, se o seutrabalho musical no computador também envolve gravação de áudio digital, então o disquete não

poderá armazenar todos os dados. A solução então é gravar os dados em um CD-R.Para fazer as cópias backup, uma opção simples é copiar os arquivos (usando o Windows Explorer,ou então salvar sempre o trabalho em duplicata também no disco de backup. Se você tem muitosarquivos que precisam ser copiados em backup, existem softwares específicos para gerenciar oprocesso, onde você indica todos os arquivos que deseja copiar, e o software efetua as cópias,inclusive compactando os dados, para caber mais arquivos no disco de backup.

O Windows 95/98 vem com um aplicativo para backup, que não só efetua a cópia backup dosarquivos que você indicar, mas também facilita muito o processo de recuperação de qualquer dessesarquivos, no caso de você perder o original. Existem também outros softwares no mercado que

fazem backup.

A frequência para você fazer backup depende do volume de trabalho que você realiza. Se você

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 86/124

trabalhou muito num arquivo num mesmo dia, seria interessante fazer um backup desse trabalho.

5. Internet 

A Internet é, sem sombra de dúvida, a mídia mais interessante da atualidade. Através dela, podemostransferir e apresentar para outras pessoas textos, imagens, sons, etc. A maioria das empresas já está

presente na Internet, inclusive as empresas da área de música.

"Estar presente", nesse caso, vai muito além do que simplesmente possuir um endereço paracorrespondência via correio eletrônico (e-mail). Uma empresa pode disponibilizar uma coletâneaimensa de informações sobre seus produtos ou serviços, o que certamente facilita a divulgação dasua imagem, mas também é uma forma de assistência extremamente barata.

A maioria das empresas de música possui sites na Internet, onde mantêm inúmeras páginas comtextos informativos e ilustrações sobre seus produtos. Visitando um desses sites, você normalmenteencontra novidades sobre a empresa, novas versões de softwares, novos produtos, dicas deinstalação e operação, e uma infinidade de outras facilidades. Muitos sites contêm bancos de

informações com as dúvidas mais frequentes dos usuários ("FAQ - Frequently Asked Questions"),que você pode consultar, e em geral encontra a resposta para o seu problema também.

Fabricantes de software costumam disponibilizar em seus sites as versões de demonstração de seusprodutos, que você pode transferir diretamente para seu computador, e experimentar antes decomprar. Existem também os grupos de discussão, onde você pode deixar mensagens e outraspessoas irão ler e responder. Normalmente, isso é uma boa forma de encontrar ajuda, e até de fazeramizade com usuários do mesmo software que você usa.

A vantagem disso tudo é que as informações na Internet são de graça! Exceto em poucos sites quesó permitem o acesso de clientes cadastrados previamente (mediante pagamento), o restante está lá,esperando por você. Além das empresas, muitas pessoas criam sites para apresentar informaçõespara outras que tenham os mesmos interesses.

Um bom exemplo disso é o nosso site http://www.music-center.com.br/ , que oferece umainfinidade de informações sobre tecnologia musical, com um acervo imenso de textos, análises eoutras coisas interessantes para os aficionados da computer music. Tudo de graça!

No próximo artigo, vamos falar sobre os sequenciadores.

Artigo publicado na revista Backstage em 1997Este artigo foi publicado no music-center.com.br em 1998

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

O que é "computer music"? 

por Miguel Ratton

Com este artigo, estamos dando início a uma nova coluna periódica, que vai abordar os "segredose mistérios" do uso do computador na música. Na verdade, nosso objetivo é trazer as informações

 práticas que lhes permitam escolher, instalar e usar - de forma "indolor" - os recursos modernos

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 87/124

da informática. Para isso, não iremos nos preocupar muito com detalhes estritamente técnicos ou

científicos, mas apresentaremos, sempre que preciso, os conceitos fundamentais. A idéia é que essa

seção seja prática e objetiva, nos níveis da necessidade do usuário. Viajaremos por temas que vão

desde a interligação de instrumentos MIDI até os softwares sequenciadores, passando pelas

interfaces MIDI e placas de som, arquivos de música e outros assuntos interessantes, sempre

 procurando dar dicas úteis para você aplicar na prática. 

O termo computer music poderia ser traduzido como "música de computador", mas acho que issopoderia dar uma idéia errônea sobre o que realmente significa. Em geral, quando as pessoas ouvemfalar de coisas "feitas por computador", acabam pensando em robôs, vozes estranhas, e outrascoisas que ficaram marcadas pelos filmes de ficção científica dos anos 60, quando muita genteachava que os "cérexbros eletrônicos" eram perfeitos o suficiente para dominar o mundo, mas umtanto imbecis para fazer música ou pintar quadros.

Prefiro definir computer music como "informática musical", isto é, não é a música que écomputadorizada, mas na realidade são os recursos do computador (e da informática como um todo)que são aplicados para a criação, manipulação, execução e reprodução da música (esses quatro

estágios são importantes, e em nossos encontros eles serão abordados muitas vezes). O uso docomputador não significa que é ele quem faz (cria) a música (embora possa fazê-lo, a partir dedados pré-definidos). A aplicação da informática na música está muito além disso, pois coloca àdisposição do artista (músico, compositor, arranjador, projetista de sons) um arsenal de ferramentascujo potencial é enorme. Em nenhum momento o artista será prescindível; sua atuação é essencialno processo, e quanto mais competente e talentoso, melhor será o resultado obtido.

E se alguém ainda faz alguma objeção quanto ao uso de máquinas na música, então eu pergunto: e oque são os instrumentos acústicos? São instrumentos, ferramentas, máquinas de fazer som,construídos com a tecnologia disponível. E é dessa forma que eu vejo o computador na música, ecreio que todos os artistas que usam computadores vêem da mesma forma: um novo instrumento àdisposição do artista. Com a grande diferença do enorme potencial (muita coisa sequer foiimplementada ainda), que pode ajudar muito se você dominar a técnica de como usar (assim comose aprende a tocar um instrumento), e souber conviver com os limites que existem (nada éperfeito!).

PARA QUEM ACHA QUE TECNOLOGIA MUSICALÉ COISA RECENTE, VALE A PENA OBSERVARO MECANISMO DE UM PIANO VERTICAL(DESENVOLVIDO NO INÍCIO DO SÉCULO XIX)

Portanto, computer music, para nós, é todo o universo tecnológico vinculado ao computador (e àinformática em geral) que dispomos para fazer nossa arte, a música. E assim é preciso que saibamos

como usar tudo isso da melhor forma, para produzirmos o melhor resultado, em todos os aspectos,mas principalmente em termos artísticos.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 88/124

MIDI: o princípio de tudo 

Embora o uso de computador para fins musicais exista praticamente desde que o computador existe,seu uso só se tornou verdadeiramente intensivo a partir da década de 80, por duas razões: obarateamento e consequente popularização dos microcomputadores, e o advento do MIDI.

O MIDI ( Musical Instrument Digital Interface) é um padrão de transmissão digital de informações("comunicação de dados") desenvolvido especificamente para fins musicais. Assim como umterminal bancário pode transferir informações de e para uma central de processamento, osinstrumentos musicais dotados de MIDI também podem "falar" entre si. Da mesma forma que ossistemas bancários, o sistema MIDI usa também códigos digitais (bits e bytes), só que os códigosnão carregam informações de saldo, saques, depósitos, etc, mas sim informações que dizem respeitoa execução musical, como notas musicais, volume, acionamento de pedais, troca de timbres, etc (naverdade, há também algumas outras informações não-musicais, como configurações deequipamentos de estúdio, por exemplo).

Definido em 1983, como resultado de um acordo tecnológico entre os principais fabricantes de

sintetizadores norte-americanos e japoneses, o MIDI foi introduzido no mesmo ano, equipando osintetizador Prophet-600, fabricado pela Sequential Circuits (empresa que apresentou a propostaoriginal do MIDI, que foi revisada e aprovada por todos). A partir daí, a indústria eletrônica musicalpassou a ter um padrão de comunicação, que viabilizou o surgimento de inúmeros instrumentos eequipamentos compatíveis entre si.

A importância de um padrão como o MIDI é enorme. Antes disso, vários fabricantes tentaramcomercializar sistemas semelhantes, mas que só eram compatíveis com eles mesmos. Além disso,como o MIDI não tem "dono" (a especificação é de domínio público), qualquer empresa pode usá-lo em seus produtos, não tendo que pagar absolutamente nada por isso. Padrões são muitoimportantes nos dias de hoje (imagine se os fabricantes de lâmpadas usassem roscas diferentes!), e agratuidade do uso do MIDI foi um fator essencial para a sua disseminação.

Com os computadores cada vez mais baratos, e um sistema padronizado para a transferência deinformações entre eles e os instrumentos musicais, criaram-se as condições básicas para umarevolução global - e irreversível - na música, em todos os níveis.

No próximo artigo, são apresentadas algumas coisas práticas sobre a conexão de equipamentosMIDI. Até lá!

Artigo publicado na revista Backstage em 1997

Este artigo foi publicado no music-center.com.br em 1998

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Dicas e truques utilizando seqüenciadores 

por Miguel Ratton

Aqui vão algumas informações úteis sobre como usufruir dos recursos disponíveis na maioria dos

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 89/124

sequenciadores atuais, de forma a se conseguir efeitos e resultados mais realistas nos trabalhosmusicais.

Criando nuances nos sons de instrumentos de percussãoUma das coisas que mais caracterizam um timbre eletrônico de percussão é a sua extremauniformidade sonora, sem variações a nível de composição harmônica ("coloração" do som).

Mesmo em equipamentos sample-players, que reproduzem amostras digitais de instrumentosacústicos, as batidas sucessivas em um instrumento de percussão (um contra-tempo, por exemplo)acabam por soar sempre iguais. Já um baterista real, por sua vez, jamais consegue percutir um pratoseguidamente no mesmo exato ponto, e por isso algumas características do som, como sua"coloração", nunca se repetem identicamente.Para tornar mais reais as execuções de bateria efetuadas por um sequenciador, pode-se simularaquelas diferenças ou nuances utilizando comandos MIDI "alteradores" que possam interferir dealguma maneira no resultado final dos sons executados pelo equipamento eletrônico de percussão (aparte rítmica/percussiva de um teclado ou módulo de som multitimbral). O primeiro passo, então, édescobrir como se pode alterar essas características (parâmetros) de sons, em tempo-real,diretamente via MIDI.

Figura 1

O meio mais simples é usar o controle de pitchbend, que pode produzir alterações globais naafinação do instrumento. Usando-se o pitchbend de forma bem branda, pode-se conseguir alteraçõesbastante sutis na afinação, que podem simular parte das nuances mencionadas anteriormente. Paraque isso funcione com um determinado instrumento gerador de sons de percussão, primeiramentedeve-se verificar se a parte percussiva/rítmica dele é capaz de receber pitchbend - geralmente é - eajustar a faixa de resposta ao pitchbend para uma gama adequada (diferente de zero).Como exemplo, imaginemos um teclado MIDI sendo usado como controlador, comandando osinstrumentos de percussão em uma das parte timbrais de um módulo multitimbral (Fig.1). Tocando-

se seguidamente a tecla que controla o contratempo, e ao mesmo tempo movendo-se suavemente aalavanca (ou roda) de pitchbend poder-se-á perceber ligeiras variações de afinação no som do pratodo contratempo, o que acaba por simular as nuances obtidas no caso de um baterista real (Fig.2).

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 90/124

 Figura 2 - Usando o pitchbend para criar nuances

O único inconveniente deste exemplo é que todos os instrumentos que estiverem no mesmo canalde recepção do contratempo (provavelmente, toda a bateria) irão ser alterados pelos comandos dopitchbend. Uma maneira de se contornar isso é usar dois ou três canais de MIDI para controlar osinstrumentos de percussão: um canal para os instrumentos que não precisam sofrer alterações pelopitchbend (bumbo, tom-tons), outro canal para controlar um grupo de instrumentos "alteráveis"(caixa, pratos) e outro canal para um outro grupo de "alteráveis" (contratempo, pandeiro).Evidentemente, as alterações de pitchbend em cada grupo de instrumentos "alteráveis" deverão serfeitas separadamente, e cada qual deverá usar o canal do grupo em questão. Há instrumentosmultitimbrais que possibilitam designar partes timbrais em diferentes canais MIDI de recepção paraatuarem simultaneamente como partes percussivas, e também há baterias eletrônicas quepossibilitam designar canais de recepção diferentes para cada peça do kit de bateria. É importante

tomar cuidado para não ficar variando demais o pitchbend, pois isso geraria uma quantidade muitogrande de mensagens MIDI, o que acaba ocupando muita memória. Nesse caso, ao invés de segravar os movimentos manuais sobre o pitchbend, pode-se usar os recursos do sequenciador paracriar as variações de pitchbend (sem executá-las manualmente), o que possibilita criar somente osvalores de variação desejados. Isso normalmente é feito inserindo "eventos" de pitchbend nospontos desejados da sequência, e indicando seus valores (usar valores próximos de zero, para nãocausar desafinação demasiada).Em alguns equipamentos com estrutura mais sofisticada, é possível designar controles MIDI paraatuarem sobre determinados parâmetros de seus sons (entende-se por controle MIDI qualquercomando enviado através de mensagens MIDI chamadas tecnicamente de Control Change Message,entre elas: volume, pan e outras). Dessa forma, ao invés de se usar o pitchbend, é possível efetuar-se

a alteração sugerida anteriormente usando-se um outro controle MIDI (o controle 12 seria uma boaopção). O parâmetro afinação foi citado como um primeiro exemplo, mas em alguns instrumentoshá também a possibilidade de criar nuances sonoras variando a frequência de corte ("cut-off") dofiltro, o que às vezes pode ser feito também em tempo real, via MIDI. Nesses casos, pode-se adotarum procedimento semelhante ao descrito para o uso do pitchbend, e usar um determinado controleMIDI para alterar sutilmente a frequência de corte, o que causará consequentemente em umavariação sutil no timbre do instrumento, simulando também o efeito desejado.

Mantendo comandos devidamente afastadosUsando um sequenciador, é muito comum programar-se na sequência para que um instrumentomude de timbre no meio da música. Para isso, usa-se o comando MIDI de program change ou patch

change (há ainda fabricantes que chamam-no de preset change). Entretanto, é preciso tomar algunscuidados na utilização deste comando no meio de uma sequência, de forma a evitar alguns possíveisproblemas.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 91/124

Alguns instrumentos, principalmente os mais antigos, quando comandados para mudar o timbrecorrente para um outro (por exemplo, mudar de piano para flauta) primeiro silenciam abruptamenteo som que está tocando, e então mudam para o seguinte. Isso, evidentemente, é indesejável no meiode uma música, e de alguma forma deve ser evitado que aconteça.Nesses instrumentos, se o timbre que está sendo usado possui relativa sustentação (as notassilenciam somente algum tempo dspois do note off), é necessário esperar que as últimas notas

executadas silenciem normalmente para então trocar para o novo timbre, do contrário, haverá umcorte forçado no som das notas, no momento em que for comandada a mudança de timbre (programchange). Por outro lado, se for comandada a mudança de timbre muito "em cima" da execução daprimeira nota do novo timbre, poderá haver problemas, pois alguns instrumentos requerem maistempo para estabilizarem a troca de timbre em sua memória (Fig. 3).

Figura 3 - Posicionamento de comandos de program change e de notas

Além disso, quando se inserir um evento de program change no sequenciador, deve-se tomarcuidado também para que ele não seja posicionado no mesmo tick (os tempos no sequenciador sãorepresentados sob a forma de compasso:tempo:tick) em que ocorre uma nota do mesmo canal deMIDI, pois, embora na lista de eventos mostrada pelo sequenciador o program change estejaposicionado antes da ocorrência da nota, e mesmo estando ambos no mesmo tick, um destes eventosdeve ocorrer antes do outro (lembre-se que a transmissão MIDI é serial), e portanto pode acontecerdo sequenciador mandar primeiro a nota, e depois o program change (Fig. 4). Para garantir aexecução do program change antes da nota, deve-se posicioná-lo no tick anterior.

Tempo Evento Valor

: : :

021:03:45 PrgmChge 47

021:03:45 Note 63 89 34

021:03:47 Note 66 90 36

: : :

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 92/124

Figura 4 - Lista de eventos no sequenciador. Observe que o evento de "program change" 47 está

  posicionado exatamente no mesmo tempo e mesmo tick da nota 63, o que não garante

necessariamente que a mudança de timbre ocorrerá antes da nota ser executada .

Os instrumentos mais modernos, felizmente, possuem um funcionamento mais inteligente, pois nãosilenciam o timbre que está tocando, mesmo que tenha sido mudado para outro. Ou seja, se está

sendo executado um acorde com som de cordas, por exemplo, e é mudado o timbre para piano,enquanto aquele acorde não for desfeito, o som de cordas continuará ativo para aquelas notas (atéelas silenciarem normalmente), mas qualquer nota executada após a troca de timbre já soará com onovo som.Quando o sequenciador tiver que enviar mensagens de sys-ex para algum instrumento no meio deuma sequência, também devem ser tomados cuidados especiais. Como uma mensagem de sys-exenvolve mais dados (e portanto mais processamento) do que uma recepção de program change, nãosó devem ser tomados os cuidados já citados anteriormente, como deve ser deixada uma distânciamaior entre a mensagem de sys-ex e a próxima nota, pois, na maioria dos casos, o instrumentonecessitará de um tempo maior para efetuar a recepção/processamento de sys-ex do que umprogram change (Fig.5).

Figura 5 - Pode-se ter uma idéia do que ocorre em uma recepção de mensagens sys-excomparando-a com uma recepção de mensagens de program change

Atente para o fato de que durante a transmissão da mensagem, a linha de MIDI permanece ocupada,e portanto nada mais pode ser feito até que a mensagem termine. Em um sistema MIDI complexo,com vários equipamentos, o uso demasiado de mensagens sys-ex também deve ser evitado. Cadamensagem destas contém muito mais bytes do que as mensagens ordinárias MIDI (controles, porexemplo), de forma que o uso intenso de sys-ex acaba trazendo problemas de congestionamento dalinha de comunicação, o que pode acarretar atrasos nos comandos encadeados serialmente. Nessessistemas, é aconselhável equipamentos controladores (sequenciadores) com múltiplas portas desaída.

Glossário: composição harmônica: uma das três características básicas de um som (as outras são a frequênciae a amplitude); é responsável pela caracterização do timbre do instrumento, e define a presença emagnitude dos harmônicos do som;multitimbral: diz-se que um instrumento é multitimbral quando ele é capaz de gerar, simultanea eindependentemente, dois ou mais timbres diferentes (piano e flauta, por exemplo);filtro: dispositivo em um sintetizador que atua sobre a composição harmônica, suprimindo ourealçando harmônicos originais; normalmente implementado como "passa-baixa" ("low-pass");frequência de corte ("cut-off frequency"): parâmetro do filtro que estabelece o limiar dafiltragem de harmônicos;

note on: comando que determina o início de uma nota (ao abaixar uma tecla);note off: comando que determina a finalização de uma nota (ao soltar uma tecla);sys-ex: abreviatura de "System Exclusive Messages" (Mensagens Exclusivas), categoria de

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 93/124

mensagens MIDI destinadas a transmissão de informações genéricas (mesmo não relativas àexecução musical), contendo normalmente grande quantidade de dados (parâmetros de sons, porexemplo);

Texto publicado na revista Música & Tecnologia em 1994

Este artigo foi publicado no music-center.com.br em 1996

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Latência - áudio digital no Windows 

No NAMM Show de 2000, a Cakewalk convidou representantes da Microsoft e de mais de 30fabricantes de hardware e software para o primeiro "Windows Professional Audio Roundtable". O

objetivo deste debate é trabalhar em conjunto no sentido de se obter soluções que tornem oWindows a plataforma ideal para áudio profissional. Este artigo apresenta os resultados dasdiscussões.

Latência: o que é desejado e o que é possível 

O critério mais importante para o desempenho de uma workstation de áudio digital (DAW) é a"latência", isto é, o atraso que existe para que uma alteração no som feita pelo software sejaefetivamente ouvida. A latência afeta a resposta global da DAW à ação do usuário, assim como suaaplicabilidade para monitoração em tempo-real do sinal na entrada. A tendência atual desintetizadores virtuais ("software synthesizers") também destaca a influência da latência naexecução ao vivo com instrumentos musicais baseados em software.

Quão baixa deve ser a latência? Um engenheiro de áudio experiente pode ouvir diferenças sutis desensibilidade na gravação de uma bateria se mover o microfone algumas dezenas de centímetros,uma distância equivalente a um atraso de cerca de 1 milisegundo. Estudos mostram que o serhumano pode perceber diferenças interaurais (estéreo) de cerca de 10 microsegundos (0,01milisegundos). Assim, quanto menor o atraso, melhor.

Qual o melhor que podemos conseguir? A despeito das divulgações feitas por fabricantes de

hardware e software, ninguém ainda mediu cientificamente a latência do áudio numa DAW.Entretanto, sabemos com certeza de que há três grandes limitações para estabelecer um limitemínimo na latência de um aplicativo.•  Os conversores digital/analógico (DAC) e analógico/digital (ADC) de uma placa de áudiotêm um atraso inerente. A latência típica de um conversor está na faixa de 30 a 50 amostras deáudio (samples), o que representa 1 a 1,5 milisegundos de atraso quando se opera com uma taxa deamostragem de 44.1 kHz.•  O sistema operacional (Windows 98, NT ou 2000) introduz uma latência de interrupção, oatraso que ocorre entre o pedido de interrupção (IRQ) do hardware e o controle de recepção maisbásico do driver. A latência de interrupção é um fator fundamental para o desempenho de umsistema operacional e não está disponível para otimização.

Uma análise sobre a latência de interrupção no Windows foi apresentada por Erik Cota-Robles e

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 94/124

James Held no evento OSDI’99, e os resultados mostraram que o melhor valor de latência é daordem de 1 milisegundo, e o pior valor é da ordem de 100 milisegundos.•  A ordem de processamento no sistema operacional acarreta temporizações imprevisíveisquando a tarefa de uma aplicação precisa disparar um fluxo de dados de áudio. Com um projetomais apurado isso pode ser mais previsível, de forma que poderíamos superar essa limitaçãoespecífica.

Quando consideramos os efeitos da latência dos conversores e da latência de interrupção, fica claroque o menor valor que poderemos atingir no Windows está em torno de 2 milisegundos. Narealidade, a influência da carga do sistema na latência de interrupção e a ordem de processamentoacaba levando a um desempenho inconsistente (que acarreta drop-outs aleatórios), e por isso naprática a latência de áudio será muito maior.

Dessa forma, minimizando a incerteza que surge sob condições pesadas de operação ajuda a reduzira latência de áudio. Como o Windows NT e o Windows 2000 têm latências de interrupção bempequenas, essas plataformas seriam as mais adequadas para as aplicações de áudio. Acreditamosque no Windows 2000 se possa obter uma latência inferior a 5 milisegundos, mesmo sob condições

pesadas de operação.

Desenvolvimento de Software e Hardware - Observações e Conclusões 

Os fabricantes de software enfrentam um desafio desanimador. Os usuários pedem a menor latênciapossível, mas conseguir isso requer conhecimento de características do sistema operacional que nãosão documentadas nem mesmo conhecidas. Como foi demonstrado pela tecnologia WavePipeintroduzida no Cakewalk Pro Audio 9, é possível obter baixa latência com os drivers comuns, masisso é ainda muito dependente da qualidade do driver.

Os fabricantes de hardware têm um desafio ainda maior. Na plataforma Windows, há umavariedade de formatos de drivers a se considerar: VxD, NT e WDM. E em cima desses driversvivem uma diversidade de APIs: MME, DirectX, ASIO e EASI.

Por isso, os fabricantes de hardware precisam desenvolver muita programação para poder suportartantos modelos de drivers e tantas APIs. E o resultado é o comprometimento geral do desempenhodo driver.

Veja as etapas que o fabricante de hardware precisa para planejar qual driver criar:•  Escolher a API: MME, DirectX, ASIO ou EASI.• 

Escolher o sistema operacional: Windows 98, Windows NT.•  Desenvolver o componente kernel (.VxD ou .SYS), utilizando o conjunto de ferramentas dedesenvolvimento de drivers da Microsoft DDK para o sistema operacional escolhido.•  Desenvolver o componente para suportar a API (.DRV ou .DLL).

Observação 1: Muitos drivers 

Para que um dispositivo suporte tanto o Windows 98 quanto o Windows NT é necessáriodesenvolver 2 drivers diferentes de kernel (um driver VxD e um driver SYS ). Acima disso, parasuportar MME, ASIO e EASI é necessário desenvolver 3 drivers diferentes no nível de modo

usuário.

Para poder suportar todas as plataformas e APIs populares, o fabricante de hardware precisa

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 95/124

implementar e testar cinco componentes de driver.

Observação 2: Pouco suporte ao modo kernel 

Alguns fabricantes nunca deixam o modo kernel fazer seu processamento. Exemplos claros disso

são os sintetizadores virtuais WDM KMixer e DirectMusic. Além disso, os fabricantes de softwaresde gravação digital precisam passar mais tarefas de mixagem e DSP para o modo kernel.

As APIs de modo usuário como DirectX, ASIO ou EASI não oferecem o suporte adequado para oprocessamento em modo kernel.

Observação 3: O termo "driver" é mal compreendido 

Voltando às quatro etapas do desenvolvimento do driver, vemos que todos os caminhos levamatravés do Microsoft DDK, e somente o DDK fornece as ferramentas para interfaceamento do

hardware de forma padronizada. A maior parte do interfaceamento do hardware deve ser feita nomodo kernel, dentro dos arquivos VxD ou SYS.

O verdadeiro "driver" roda no kernel e está empacotado como um arquivo VxD ou SYS. Astecnologias MME, ASIO e EASI são meramente APIs de modo usuário, e não drivers.

A melhor forma de gerenciar a complexidade do driver e ao mesmo tempo oferecer suporteadequado para futuras tecnologias é desenvolver um único driver de áudio no modo kernel, que é narealidade uma marca do Windows Driver Model (WDM).

Texto original de Ron Kuper (Cakewalk Music)Tradução: Miguel Ratton

Este artigo foi publicado no music-center.com.br em 2001

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Masterização / Pós-produção 

Muitas pessoas não entendem o que é o processo de masterização ou  pós-produção, e o vêem como um gasto desnecessário. Apósterem levado meses de trabalho num projeto, é comum teremdificuldade em entender como um estranho possa melhorar oproduto final. Afinal de contas, se a mixagem não estava boa nãodeveria ter saído do estúdio!

Basicamente, a masterização acontece após a gravação ter sido

mixada, e antes da fabricação do CD. Ou seja, é a última etapacriativa do projeto mas também é a primeira etapa no processo defabricação. Todo lançamento de uma grande gravadora é

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 96/124

masterizado para prepará-lo para a execução em rádio e venda ao público. A razão? Um bomengenheiro de masterização pode colocar todo o trabalho em perspectiva, equilibrando sutilmente aconexão entre as faixas, mantendo o foco no projeto como um todo.

No estúdio, o artista grava uma música de cada vez, o que pode resultar em níveis e equalizaçõesdiferentes para cada uma. O engenheiro de masterização procura uniformizar o projeto com o uso

hábil da equalização, compressão e outros recursos, de forma a manter o som consistente de umafaixa para outra, e também garantir o resultado desejado num equipamento de áudio stereo comum.Esse processo de masterização também permite ao engenheiro aumentar o nível global do trabalho,de forma a deixá-lo tão bom quanto as gravações dos melhores selos.

A masterização também pode ser útil para corrigir problemas como "pops", defasagens e ruído emgeral, mas a principal vantagem da pós-produção é a avaliação imparcial de um profissional quepode assim determinar se a qualidade do trabalho está boa ou não.

Fonte: Disk Makers Guide do Master Preparation

Este artigo foi publicado no music-center.com.br em 2001

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Processadores de Efeitos 

por Miguel Ratton

A adição de efeitos em gravações musicais não é uma novidade dos dias atuais. Nos estúdios maisantigos, podia-se criar alguns efeitos naturalmente, como a reverberação, usando-se recintosespeciais com paredes revestidas de material acusticamente reflexivo e que proporcionavam aambiência desejada à gravação. Posteriormente, com o desenvolvimento da tecnologia eletrônica,esses efeitos passaram a ser criados por dispositivos cujos circuitos eletrônicos efetuavam certasalterações - ou processamentos - sobre o sinal de áudio captado dos instrumentos e vozes. Comesses recursos, surgiu uma nova era onde podem ser criados tanto efeitos acústicos naturais, como oeco e a reverberação, quanto artificiais, como o vocoder.Atualmente, na grande maioria dos casos, os efeitos de áudio são processados digitalmente, usando-se equipamentos dotados de circuitos DSP (digital signal processor), que digitalizam o som original,manipulam-no por meio de recursos computacionais e convertem o resultado novamente em som.

Os processadores digitais de sinais podem ser encontrados em equipamentos específicos (ex: AlesisQuadraverb, Yamaha SPX-900, Roland SE-70), que são acoplados a microfones, mesas demixagem e instrumentos musicais eletrônicos, ou então embutidos e incorporados nos própriosinstrumentos musicais.A maioria dos instrumentos atuais possui um ou mais módulos internos para a criação de efeitosadicionais sobre o som gerado pelo instrumento. A quantidade (e a qualidade) desses efeitos variamuito de um equipamento para outro, bem como os recursos e métodos para ajustá-los.A seguir é feita uma breve descrição técnica dos tipos de efeitos mais usados em aplicaçõesmusicais.Reverberação A reverberação (reverb) é o resultado de múltiplas reflexões do som em diversas direções, com

diversos tempos de atraso. Em ambientes acústicos naturais, a reverberação se dá graças à reflexãodo som em diversos pontos das diversas superfícies (paredes, teto, chão, etc), e como as distâncias

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 97/124

percorridas pelo som entre as superfícies são diferentes, a percepção do sinal refletido é difusa, nãointeligível como no caso do eco, por exemplo.A reverberação é aquela ambiência sonora encontrada em um banheiro de paredes revestidas deazulejos (sem toalhas ou cortinas que possam absorver o som). A reverberação natural tem comocaracterística a atenuação gradual das reflexões no decorrer do tempo (chamado de reverberationtime). As reflexões mais próximas (rápidas) são chamadas de early reflections. Os processadores de

efeitos criam reverberação somando ao sinal de áudio original (seco) diversas cópias dele comatrasos e amplitudes diferentes (veja figura 1). A qualidade tonal da reverberação em um ambientedepende do tipo de material usado em suas superfícies, e em muitos processadores é possível ajustaresta qualidade ou coloração, filtrando freqüências na reverberação.A reverberação é usada com o objetivo de criar ambiência ou profundidade ao som, produzindouma sensação mais natural.

Figura 1 - ReverberaçãoEco O eco (delay) é um efeito obtido também pela soma do sinal de áudio original com uma cópia sua,atrasada, mas enquanto a reverberação é o resultado de diversas cópias, com diversos atrasosdiferentes (que simulam as inúmeras reflexões), o eco caracteriza-se por uma ou mais reflexões, que

ocorrem com atrasos determinados, que permitem ao ouvinte distinguir o som atrasado e percebê-loclaramente como um eco.O tempo entre a ocorrência do som original (seco) e a primeira repetição é chamado de delay timee, assim como a reverberação, a repetição ou repetições do sinal ocorrem com amplitudes(intensidade) reduzindo-se gradualmente. Para criar as várias repetições ou ecos, os processadoresusam um recurso em que o próprio eco é realimentado à entrada do processador, produzindo ecosdo eco. Dessa forma, o número de repetições pode ser controlada pela quantidade de realimentação(feedback). Os processadores atuais permitem que sejam criados ecos especiais, onde as repetiçõesse alternam nos lados do estéreo, produzindo o chamado ping-pong delay.O eco em geral também é usado para dar profundidade, mas muitas vezes é aplicado mesmo comoum efeito.

Figura 2 - EcoChorus 

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 98/124

O chorus começou a ser muito usado pelos guitarristas nos anos 80 e caracteriza-se pelo efeito dedobra do som. Ele é obtido somando ao som original uma cópia sua ligeiramente defasada, sendoque essa defasagem varia ciclicamente no tempo. Na maioria dos processadores, pode-se controlar avelocidade da variação cíclica da defasagem, por meio do parâmetro modulation speed, e também amagnitude da defasagem, por meio do parâmetro modulation depth.O chorus é muito usado em guitarras, pianos (para encorpar o som) e em órgãos e timbres de camas

(pads).Flanger O flanger é um efeito produzido por características similares às do chorus, usando, no entanto,defasagens menores. Por isso, ao invés de dar uma impressão de dobra, o flanger produz narealidade uma alteração cíclica de composição harmônica (coloração), que às vezes dá ao ouvinte asensação de semelhança ao som de um avião a jato passando.Assim como no chorus, no flanger também muitas vezes é possível ajustar a velocidade da variaçãode defasagem e sua intensidade, e o flanger em geral é aplicado em instrumentos com umacoloração rica em harmônicos, onde ele sobressai mais, como guitarras, cordas e pratos de bateria.Distorções São usadas basicamente por guitarristas. Há diversos tipos de distorções, que vão desde as

saturações mais leves como o overdrive (obtido naturalmente em amplificadores valvulados) até ofuzz e distorções mais sujas. As distorções são conseguidas pela saturação do sinal de áudio, queintroduz e realça harmônicos antes pouco perceptíveis, alterando assim substancialmente acoloração do som.A maneira de se usar efeitos sobre o som é uma questão um pouco subjetiva, pois para algumaspessoas o processamento pode piorar o material original. Há regras básicas, porém, como aaplicação de reverberação à voz e a outros instrumentos, para torná-la mais natural e eliminando acaracterística morta ou seca. A quantidade de efeito também é uma questão de gosto mas, comosugestão, não se deve usar um efeito carregadamente, pois ele irá sobressair e portanto mascarar osom original. A não ser que este seja o objetivo...

Texto publicado no Informus no.5 em nov/94

Este artigo foi publicado no music-center.com.br em 1996

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Quantização - princípios básicos 

por Miguel Ratton

Dentre as facilidades que vêm sendo incluídas nos seqüenciadores atuais, uma das maisinteressantes é a quantização por grooves. Vejamos o que é isso, e para que serve.Fundamentos Quantização é uma ferramenta de edição que existe na maioria dos seqüenciadores, e que permiteao músico acertar no tempo adequado as notas MIDI gravadas na seqüência. A necessidade de sequantizar notas ocorre porque muitas vezes, por inabilidade do músico que as executa na gravação,algumas delas acabam ficando perceptivelmente fora de seus tempos corretos, dando à música umresultado ruim. Nesses casos, recorre-se à quantização que, quando bem aplicada, pode consertar oque porventura tenha ficado errado na gravação. Na figura abaixo, temos um trecho de bateria, commuitas imperfeições de tempo.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 99/124

 Entretanto, usando-se referências puramente matemáticas para a quantização, acaba fazendo amúsica ficar perfeita demais, pois nenhum músico humano é capaz de tocar as notas com tamanhaprecisão. Dessa forma, seqüências totalmente quantizadas soam extremamente mecânicas, oumelhor, eletrônicas... (observe na figura abaixo, o mesmo trecho de bateria, totalmente quantizado).

Para contornar esse efeito colateral, muitos seqüenciadores permitem efetuar quantizaçãopercentual, onde o usuário pode definir um percentual de acerto, para que as notas sejamaproximadas dos tempos perfeitos, de acordo com o valor desejado (se for definido 100%, aquantização será total). Esse recurso é bastante útil, pois permite melhorar a execução gravada, sem,no entanto, perder a naturalidade original, o que a tornaria irreal.Existe um aspecto muito importante no processo de quantização, que é a escolha da figura deresolução ou aproximação. Ao se determinar ao seqüenciador que quantize determinado trecho denotas, é necessário definir qual a figura musical de referência (colcheia, semicolcheia, etc) que deveser usada, isto é, para quais tempos (ou frações de tempos) as notas deverão ser movidas. Dessaforma, se um trecho de música contém notas com duração presumível de colcheia, então dever-se-á

quantizá-las usando resolução de colcheia. Se for usada uma figura de resolução maior (umasemínima, por exemplo), então as notas serão aproximadas para os tempos de semínimas, o que farácom que execuções de meio-tempo sejam levadas para o tempo inteiro. Por outro lado, se for usadauma figura de resolução menor, a aproximação não será adequada, e algumas notas que estejammuito longe de sua posição ideal acabarão se afastando ainda mais.Apesar desses eventuais efeitos colaterais, a quantização é verdadeiramente uma ferramenta deextrema utilidade, permitindo recuperar-se, com eficiência e rapidez, execuções originalmenteincertas. Por isso, ela é aplicada com freqüência por quase todos os usuários de seqüenciadores, epor isso o fabricante que não inclui tal facilidade fatalmente estará fora do mercado.Get Into The Groove A competição cada vez mais acirrada no mercado dos seqüenciadores - notadamente dos softwarespara computador - tem feito os fabricantes oferecer sempre novos recursos em seus produtos. Nessacorrida, a maioria dos softwares profissionais top line já inclui recursos especiais de quantização dotipo Groove Quantize.A idéia básica da quantização por groove é mais ou menos a seguinte: você grava no seqüenciadoruma execução MIDI de bateria, preocupando-se com os tempos, é claro, mas sem se preocuparmuito com a dinâmica com que está tocando as notas. Depois de gravados os compassos ou padrõesrítmicos, você coloca a sua execução em uma fôrma ou máscara, que então dará vida àquelaexecução, tanto no aspecto do tempo, quanto na dinâmica. Ou seja, essa fôrma ajusta as ocorrênciasdas notas para as posições adequadas e modifica suas intensidades (key velocity) para os valoresdefinidos na fôrma. Com isso, uma execução cha-cun-tum pode ganhar o swing e o feel

preestabelecidos na fôrma.A fôrma, no caso, é o groove, e deve ser escolhido aquele que melhor se adapta não só ao estilodesejado, mas também à execução original que se quer alterar. Os softwares mais poderososoferecem uma quantidade razoável de grooves já prontos, para que o usuário possa experimentar o

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 100/124

mais adequado a cada caso. Alguns softwares permitem também que o músico crie seus própriosgrooves, para serem aplicados em outros trabalhos. Mesmo seqüenciadores que não são softwarespara computador também já estão oferecendo recursos de groove quantize, como é o caso doteclado workstation Roland XP-50.

Este artigo foi publicado no music-center.com.br em 1996

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Modelagem Física Uma nova era para a síntese de sons

por Miguel Ratton

Embora a tecnologia eletrônica tenha se esforçado muito para oferecer instrumentos musicais com

recursos comparáveis aos dos instrumentos acústicos, ainda há uma boa distância entre eles,principalmente quando se trata de expressividade.É bem verdade que a popularização da tecnologia e sua aceitação por profissionais não se deu à-toa,pois os instrumentos eletrônicos também têm seus pontos fortes, como a praticidade: é melhor, maisprático e mais barato, por exemplo, usar um módulo eletrônico de piano do que ter de microfonarum piano acústico, se este último não estiver afinado e a captação não for bem feita. Além disso, oinstrumento eletrônico também tem a grande vantagem de poder criar sons jamais obtidos, o que otorna mais um instrumento musical, e não apenas um equipamento que serve para simular ou copiaro que já existe. Mas, em certos aspectos, a tecnologia ainda não conseguiu oferecer recursossuficientes que possam colocar os instrumentos eletrônicos em mesmo nível de comparação comseus ancestrais acústicos.

SonoridadeOs instrumentos eletrônicos ainda são incapazes de produzir ou reproduzir os sons dos instrumentosacústicos. Essa dificuldade - ou quase impossibilidade - deve-se, basicamente, a característicasinerentes aos próprios processos ora usados para gerar os sons.Os sintetizadores antigos, que usavam osciladores eletrônicos analógicos e só podiam gerarsenóides, ondas triangulares, quadradas e pulsos, embora tenham trazido novos timbres para ocenário musical, jamais poderiam substituir um piano - como ele o é - ou qualquer outroinstrumento acústico. Processos científicos de síntese aditiva (usando osciladores) chegaram umpouco mais perto, mas também não se viabilizaram, devido a problemas relacionados ao custo para

a sua implementação e a complexidade para o controle do processo.O grande salto foi dado pelos samplers, que podem fazer amostras digitais de sons naturais ereproduzi-los com grande fidelidade. Esses instrumentos se tornaram bastante populares, graças àredução do custo dos microprocessadores e dispositivos de armazenamento (memórias digitais).Hoje, quase todos os instrumentos musicais eletrônicos usam amostras digitais, quer sejam samplers(nos quais o músico pode criar suas próprias amostras) ou simplesmente sample-players (nos quaisas amostras já vêm prontas).No entanto, os samplers e sample-players sofrem do mesmo mal intrínseco: as amostras existentesrepresentam o som em determinada situação, estaticamente, não preservando as nuanças e variaçõesdinâmicas que acontecem durante a produção do som. Essa amostra estática muitas vezes émelhorada quando são usados filtros variáveis, que simulam aquelas nuanças sem, no entanto,

conseguir um resultado perfeito. Além disso, em instrumentos acústicos, como o piano, porexemplo, quando se produzem duas notas há mais do que somente duas notas individuais sendoproduzidas, mas sim uma interação delas através do meio físico de ressonância (cordas, tampo, etc).

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 101/124

Nenhum desses fatores pode ser obtido com perfeição em um sampler e, embora algunsinstrumentos usem mais do que uma amostra para cada nota, ainda assim a tecnologia eletrônica sóconsegue uma falsificação do som real.

Expressividade e controleUm outro aspecto bastante importante em um instrumento musical é a sua capacidade de controle

sobre o som. Sem isso, o instrumento torna-se um dispositivo estático, de pouca aplicação artística,onde as alterações e, muitas vezes, a sutileza com que elas são conseguidas, são o ponto maisimportante para o artista.Os instrumentos acústicos passaram por centenas de anos de desenvolvimento até chegarem aoponto em que chegaram. E com eles evoluiu a técnica de como tocá-los e extrair o máximo emtermos de nuanças.Os sintetizadores começaram com poucos recursos, pois eram monofônicos e usavam teclados semsensibilidade, mas já ofereciam alguns meios de controle interessantes, como pedais que podiamcontrolar diversos parâmetros do som, e outros dispositivos, como as rodas de pitch e modulation.Na maioria dos casos, entretanto, eram adaptações ou tentativas de adaptações de recursos que, eminstrumentos acústicos, são facilmente obtidos apenas pelos dedos. Depois vieram os teclados

sensitivos, a maior polifonia e o controle MIDI, mas, na realidade, até hoje é impossível a ummúsico obter em um instrumento eletrônico os efeitos de expressividade como os que um bomguitarrista consegue facilmente em sua guitarra, ou um violinista em seu violino.

Physical modelingDe olho nesses detalhes é que algumas pessoas - cientistas e músicos - vêm pesquisando já háalgum tempo um processo em que se possam parametrizar todos os detalhes existentes na produçãodos sons, para então recriá-los, com total fidelidade. Pelo que sabemos, as pesquisas nesse sentidovêm sendo feitas desde antes dos anos 70, mas até bem pouco tempo esbarravam em problemasligados às limitações de processamento dos computadores.Essa tecnologia é chamada de Physical Modeling (modelagem física), e consiste basicamente em sedesenvolver algoritmos que descrevam todas as características sonoras e de execução deinstrumentos acústicos, considerando, evidentemente, o aspecto dinâmico, isto é, o comportamentoao longo do tempo em que o som ocorre.Graças aos crescentes aperfeiçoamentos dos computadores e, principalmente, por causa do aumentode poder e velocidade de processamento, começou a se tornar viável o desenvolvimento dealgoritmos para a modelagem física de instrumentosmusicais.É sabido que qualquer evento físico pode serdescrito por uma equação matemática, mesmo se oevento se altera constantemente no tempo. A idéia

parece bastante simples, mas o grande problema érealmente implementar o processamento de taisequações de forma que elas possam produzir algumresultado externo, isto é, gerar sons em tempo-real.Tomando o exemplo de uma corda vibrando,poderíamos pensar inicialmente que seucomportamento é simplesmente um movimentoharmônico (oscilação) amortecido (pois vaidiminuindo, até silenciar). Entretanto, durante todoo movimento da corda, diversos outros fatoresinfluem sobre o processo, como a deformação da

corda (que se estica e encolhe periodicamente), ainteração dela com seus pontos de apoio e muitosoutros parâmetros, que aqui não teríamos espaço

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 102/124

para enumerar.Para recriar matematicamente o comportamento de um instrumento musical, os cientistas eespecialistas no assunto dividem o modelo em partes, sendo cada uma delas tratada separadamentepor equações (que também levam em conta as interações com as demais partes) que depois sãocombinadas em um algoritmo final, descrevendo o comportamento do conjunto como um todo. Nocaso de um violino, por exemplo, são descritas em fórmulas matemáticas as características

individuais do arco, das cordas, do corpo e da ponte do instrumento, a partir das quais é possívelconstruir a situação real do instrumento sendo tocado. Se as equações e o algoritmo estiveremcertos, um computador poderá simular com perfeição o comportamento daquele instrumento. Pode-se então usar algum dispositivo externo (um comando MIDI, por exemplo) para disparar oprocesso, e uma vez que o som está definido matematicamente, basta convertê-lo para o mundoreal, transformando-o em som audível.Pelo que foi dito até agora, podemos entender que a modelagem física seria capaz de criar asonoridade original de um instrumento. Entretanto, em um instrumento real, o processo não seresume apenas a um disparo do som, pois há uma série de intervenções do músico sobre oinstrumento, que alteram o processo original, e que precisam ser permitidas e computadas peloalgoritmo.

Muitas formas de controle já existem, e outras também vêm sendo pesquisadas e poderão estardisponíveis brevemente. Mas como a indústria musical não pode abandonar certos padrõesuniversais, como teclados, MIDI e outros dispositivos, as implementações que têm surgido utilizamos recursos convencionais, como pedais, key velocity, aftertouch, breath control. Embora taisrecursos venham sendo usados há anos, a diferença é que sua atuação nos instrumentos baseados emmodelagem física se dá em parâmetros jamais acessíveis ao instrumentista. Mas o preço desse novopotencial de sonoridade e controlabilidade é o tempo e o empenho que os músicos terão quedespender para desenvolver as novas técnicas para os novos instrumentos.

A Yamaha sai na frenteNa corrida tecnológica, a Yamaha tem sido reconhecida por seus investimentos nas pesquisas denovos processos. Assim foi com o legendário DX7, fruto de um esforço industrial que viabilizou aprodução de um instrumento incomum para a sua época, e que, sem qualquer sombra de dúvida,tornou-se um divisor de águas para a tecnologia de instrumentos musicais.O DX7 utilizava modulação de freqüência (FM) para produzir formas-de-onda inusitadas e decomposição harmônica extremamente rica. Além disso, devido à estrutura como os operadores FMpodiam ser configurados, era possível ao músico obter timbres cujas características sonoras (emparticular, o timbre) fossem alteradas por meio de diversos parâmetros, dentre eles a intensidade danota (key velocity). Isso colocou o DX7 em posição de destaque, pela gama de nuanças timbraisque podiam ser obtidas pela expressividade dos dedos do músico. Devido à dificuldade de se criarcom realismo alguns timbres convencionais, como o piano acústico, por exemplo, a tecnologia FM

(DX7 e seus descendentes) foi perdendo terreno para os instrumentos sample-players, mas muitosmúsicos ainda preservam seu velho DX, pois muitas sonoridades e nuanças de expressividade  jamais puderam ser conseguidos com outrosinstrumentos.Agora, a Yamaha aposta na síntese por physicalmodeling, e já apresentou um primeiro modelo deinstrumento que utiliza esse processo. Trata-se doVL1 Virtual Acoustic Synthesizer, apresentado comgrande entusiasmo no último NAMM Show, em

  janeiro, nos EUA, que possui um teclado de 49teclas, com sensibilidade a key velocity e aftertouch.

Dentre os parâmetros usados na programação de seus sons, há alguns convencionais, já conhecidopela maioria dos músicos, como pitch e amplitude, e mais outros totalmente novos para sintesistas,como embouchure, absortion e throat formant.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 103/124

Basicamente, a estrutura do VL1 é formada por dois elementos, cada um contendo três blocos. Oprimeiro bloco, chamado de Instrument, é a peça-chave do processo e define o timbre oucaracterística fundamental do som a ser produzido. Ele utiliza conceitos encontrados nosinstrumentos acústicos convencionais e é constituído por um tipo de driver (reed, mouthpiece, bow)e um tipo de resonant system (tube, air column, string), sendo possível compor qualquercombinação desses elementos. No segundo bloco, Controllers, estão os parâmetros que determinam

a controlabilidade do som, como a embocadura, a pressão do sopro e a velocidade do arco. Ao todosão 14 parâmetros desses (pressure, embouchure, pitch, vibrato, tonguing, amplitude, scream,breath noise, etc), que podem ser programados para serem controlados por pedais, alavanca demodulation e breath control. O terceiro e último bloco contém os Modifiers, que atuam diretamentesobre o bloco Instrument, alterando-o. São cinco seções disponíveis: harmonic enhancer, dynamicfilter, frequency equalizer, impulse expander e resonator.Com essa estrutura, a Yamaha garante que é possível obter simulações extremamente realistas dassituações observadas nos instrumentos acústicos, pois pode-se controlar com perfeição e precisãoparâmetros muito mais expressivos do que o que normalmente é conseguido na maioria dossintetizadores atuais, que só oferecem controle - com restrições - sobre amplitude, pitch ecomposição harmônica. Além disso, no VL1 pode-se obter interações entre duas ou mais notas

executadas em seqüência, como ocorre na maioria dos instrumentos acústicos.Entretanto, se para tocar o VL1 já é necessário um aprendizado que dê a habilidade necessária paratirar proveito dos novos recursos de expressividade e seus efeitos, programá-lo então será aindauma tarefa restrita àqueles que estão podendo acompanhar de perto o desenvolvimento dessa novatecnologia.O VL1, infelizmente, ainda não pode ser considerado um instrumento popular, como foi o DX7,pois, apesar de sua extraordinária capacidade sonora, possui uma polifonia bastante restrita (2vozes) e um preço bastante alto (US$ 5.000). Mas é uma realidade, e coloca a Yamaha mais umavez na frente da corrida da tecnologia.

Sound Morphing: uma proposta interessante

Embora não utilize exatamente o conceito de modelagem física, o novo módulo multitimbralMorpheus, da E-mu Systems (EUA), é capaz de oferecer timbres extremamente interessantes, comgraus de controlabilidade e expressividade muitograndes.A estrutura das vozes do Morpheus segue o modeloconvencional usado pela maioria dos instrumentossample-players atuais, com um oscilador (quereproduz amostras digitais - waves), um filtro (que altera a composição harmônica - coloração - do sominicial) e um amplificador (que controla a amplitude dinâmica do timbre). A grande diferença,

entretanto, está na forma que o filtro pode atuar sobre o som original, gerado pelo oscilador.O filtro do Morpheus - chamado de z-plane filter - é na realidade um conjunto de filtros passa-faixa,cada um atuando em uma fatia do espectro, que podem ser configurados de maneiras diferentes eindependentes. Além disso, esse filtro (ou conjunto de filtros) pode alterar sua configuração emtempo-real, por meio de algum parâmetro (pedal, por exemplo). Como a quantidade deconfigurações possíveis é imensamente grande, a E-mu criou cerca de 200 e colocou-as na memóriado instrumento. Cada uma delas produz formantes, naturais ou não, que podem levar tanto asonoridades bastante realistas quanto a timbres extremamente sintéticos e impressionantes.Mas as qualidades do Morpheus não param por aí. O z-plane filter pode passar de uma configuração(formante) para outra, em tempo-real sob o controle do músico (por meio de um pedal, alavanca demodulação, etc), de forma que é possível fazer um som se transformar em outro gradualmente

(inclusive de trás para a frente). Esse processo, chamado pela E-mu de morphing, faz com o somalgo parecido com o que já se vê há algum tempo em efeitos visuais criados por computaçãográfica, em que uma imagem se transforma em outra.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 104/124

O Morpheus é um instrumento que pode produzir sons pouco usuais, e por isso certamente não seráusado de forma tão popular, até que se descubram todas as suas possibilidades. Mas é uma propostabastante interessante, que oferece recursos novos e impressionantes de controle e expressividade, aum preço ainda convencional.

Texto publicado na revista Música & Tecnologia no.47 em set/94

Este artigo foi publicado no music-center.com.br em 1997

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

M-Audio Audiophile 2496 - placa de áudio/MIDI

por Miguel Ratton

A Audiophile 2496 é uma placa multifuncional de alta qualidade,e indicada para uma ampla variedade de aplicações, desdegravação multitrack de áudio até sistemas de home-theater. Asentradas e saídas analógicas utilizam conectores RCA, e possuemos mesmos conversores de 24 bits / 96kHz das placas Delta-44 eDelta-66. As conexões S/PDIF e MIDI In/Out permitem ligar aAudiophile tanto a dispositivos digitais quanto ao mundo MIDI.

Além disso, a Audiophile 2496 inclui um poderoso mixer e roteador digital, e permite ativar oudesativar a proteção de cópia SCMS (Serial Copy Management System). A placa vemacompanhada de um pacote de softwares.

ESPECIFICAÇÕES:•  Faixa dinâmica: D/A 104,0 dB (a-weighted); A/D 100,4 dB (a-weighted)•  Distorção harmônica THD: menos de 0.002%•  Resposta de freqüências: 22 Hz a 22 kHz•  drivers para Windows 95/98, NT, WDM, ASIO/ASIO2, Direct Sound, EASI, Multi-card95/98 e Multi-card NT (até 3 em um sistema), Gigasampler, Mac Sound Manager e Mac ASIO

Requisitos mínimos para PC:•  Windows 95/98, ME, 2000, NT4, XP•  Pentium II 266MHz c/ 128 MB de RAM PC100 (para operação em 96 kHz)•  Pentium 200 MMX c/ 64 MB de SDRAM (para operação em 48 kHz)•  disco rígido UDMA EIDE ou SCSIRequisitos mínimos para Mac:•  G4, G3 ou G3•  System 8.5.1 ou superior•  128 MB RAM para operação em 96 kHz•  96 MB RAM para operação em 48 kHz

Este texto foi publicado no music-center.com.br em janeiro de 2001

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 105/124

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Os aplicativos.

Encore 4 - software para edição de partituras

por Miguel Ratton

É cada vez maior a utilização do computador para fins musicais, e porisso o mercado de softwares MIDI tem se diversificando eaprimorando ano após ano. Existem hoje inúmeros produtos que

permitem ao músico criar, editar e executar músicas com a ajuda dainformática, sendo os editores de partituras os softwares dedicados àescrita musical, na notação convencional. Com eles, pode-se produzirpartituras impressas em papel, com um alto nível de qualidade,usufruindo-se de eficientes recursos de edição gráfica e tendo-se as facilidades da manipulação damúsica em formato MIDI, o que permite a audição do que está escrito na pauta, dando assimcondições de se ouvir imediatamente aquilo que está escrito. A evolução desses softwares tem sidoimpressionante, de forma que hoje o usuário dispõe de facilidades que permitem obter um resultadofinal de impressão tão bom quanto as obras musicais publicadas pelas editoras especializadas.

O Encore é um bom exemplo disso. Um dos melhores softwares musicais disponíveis no mercado,ele é um produto que vem sendo freqüentemente aperfeiçoado sem perder, no entanto, asimplicidade operacional que lhe conferiu um lugar de destaque entre o público usuário. A versão 4para PC/Windows, recentemente lançada, preserva a excelente operacionalidade, mas incluialgumas funções novas e muito úteis.

Instalação e operação 

O procedimento de instalação do Encore se dá como qualquer software para Windows. No caso daversão 4, entretanto, foi incluído um teste prévio da interface MIDI, de forma que o usuário já

define as portas MIDI de saída (A e B) no ato da instalação (podendo alterá-las posteriormente, sepreciso) e, ainda na instalação, pode verificar se as mesmas estão operando devidamente, evitandoassim problemas futuros.

Para que o software possa mostrar na tela e imprimir os caracteres e símbolos usados nas partituras,é necessário instalar no Windows as fontes especiais de símbolos de música, denominadasAnastasia e Frets, que vêm incluídas nos disquetes do Encore. Este procedimento também segue ospadrões de instalação de fontes do Windows.

Sendo um software dedicado à escrita de símbolos musicais, o Encore destaca-se pelos recursosgráficos que oferece. Tudo que se escreve na pauta é interpretado pelo software como sendo um

objeto, de forma que as tarefas de edição ficam bem mais eficientes, como, por exemplo, no caso damanipulação de arcos de ligadura e textos inseridos na partitura. Para se escrever qualquer símbolona pauta, basta selecioná-lo a partir de uma das 11 paletas, cada qual contendo um grupo de

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 106/124

símbolos (Notes, Clefs, Graphics, Tools, etc). Para facilidade de operação, o usuário pode manterabertas, simultaneamente, todas as paletas de símbolos que desejar.

O usuário pode usar três formas distintas para entrar com as notas na pauta. Pode usar o teclado ouo mouse do computador, um instrumento MIDI ou o teclado virtual (uma das inovações da versão4), que mostra na tela a representação de um teclado de piano, que pode ser controlado pelo teclado

do computador ou pelo mouse. A escrita via mouse é muito fácil, pois o usuário escolhe na paleta osímbolo que deseja e coloca-o na pauta, aonde quer. Mover notas de posição, alterar suas alturas emuitas outras alterações são procedimentos também extremamente fáceis. Na operação de edição noEncore, pode-se manipular notas individuais, compassos inteiros ou pautas inteiras, sendo que épossível selecionar notas e/ou compassos consecutivos ou não, tornando a seleção de trechosbastante versátil.

A versão 4 traz a novidade da toolbar configurável, onde o usuário pode criar uma barra horizontalde ferramentas, personalizada, contendo botões com as funções que mais usa. Uma outra inovação éa possibilidade de se aplicar o zoom a qualquer trecho da partitura, com graus de ampliaçãodefinidos também pelo usuário. Além disso, a edição das pautas no Encore agora conta com

facilidades de cores, pois o usuário pode definir cores para determinados objetos (notas, textos, etc),o que melhora bastante a visualização do trabalho. O usuário pode configurar a janela de operaçãopara que fique adequada ao seu uso específico, e salvar esta configuração para que seja sempreusada como padrão pelo Encore.

A música, obviamente, é visualizada na partitura, mas esta pode ser mostrada como uma página,mostrando as pautas em sistemas/linhas, ou então como uma tripa (Line View). Em uma janelaespecífica (Staff Sheet), pode-se selecionar - para cada pauta - os canais de MIDI, os timbres(patches), bem como volume. É possível também ajustar as dimensões de cada pauta, dentre quatrotamanhos diferentes.

A operação do Encore é bastante user-friendly (amigável), de forma que, mesmo para quem nãotem experiência com o computador, é relativamente fácil escrever uma partitura comum. Quasetodas as operações efetuadas pelo usuários podem ser desfeitas (Undo), evitando assim qualquerintervenção desastrosa. Não há um texto de Help On-line, mas segundo a NovaMente, empresa quedistribui o produto no Brasil, isso será implementado nas versões futuras, possivelmente já emPortuguês.

Trabalhando com o Encore 

Em cada partitura pode-se ter até 64 pautas (staffs) por sistema, o que permite criar grades deorquestra com grande número de instrumentos. O software suporta todos os tipos de claves usuais,incluindo percussão, e o usuário pode criar alterações de claves, compassos e tonalidades emqualquer ponto da pauta. Um recurso especial permite que se crie uma linha de tablatura, paramostrar a execução das notas de violão ou guitarra, com todos os símbolos especiais para este tipode representação.

Quando entrando com as notas via MIDI, o Encore mostra imediatamente as cabeças das notas, emtempo-real, à medida que as mesmas são tocadas. Pensando nos muitos usuários que têm placa desom mas nenhum teclado MIDI, a Passport incluiu um teclado virtual, que transforma o teclado docomputador em um teclado musical, onde as teclas executam notas musicais, inclusive acordes, o

que facilita bastante a entrada de notas. O teclado virtual também pode ser tocado pelo mouse. Nagravação via MIDI, as notas executadas podem ser quantizadas, corrigindo leves erros de tempo(com facilidades para interpretação de quiálteras). O Encore pode operar sincronizado com outro

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 107/124

equipamento MIDI, pois pode gerar e reconhecer MIDI clocks, e permite que sejam filtradosdeterminados eventos MIDI na gravação.

Pode-se também entrar com as notas passo-a-passo, escolhendo a figura (duração) na paleta eclicando com o mouse na posição da pauta, ou então tocando a nota no teclado virtual ou noinstrumento MIDI externo.

A notação de bateria e percussão mereceu uma atenção especial na versão 4. As cabeças das notasda pauta de percussão podem ser representadas por oito símbolos diferentes (X, losango, quadrado,etc), usados para esse propósito, e agora o Encore é capaz de representar corretamente, em termosde pauta de percussão, as figuras e alturas referentes aos instrumentos de percussão (bumbo, caixa,prato, etc), independentemente da sua altura real no mundo MIDI. Isso resolve um problema mortalque havia até então, pois as notas reais que disparam os sons de bateria e percussão nosequipamentos MIDI não estão nas mesmas alturas de suas representação convencional. Com omapeamento, o Encore permite ao usuário criar tabelas para cada equipamento que usar,correlacionando as notas reais MIDI com sua representação específica na pauta. Também foramincluídos nesta nova versão alguns símbolos especiais para pratos e baquetas.

Numa partitura do Encore, cada pauta pode conter até oito vozes, que podem ser alocadas em canaisdiferentes (e com timbres diferentes). Pode-se ter uma visualização separada das notas de cada voz(inclusive usando-se cores diferentes), e a edição também pode ser feita separadamente para notasde cada voz. Isso é de extrema utilidade para quem escreve uma pauta para naipe de metais, porexemplo, e depois precisa separar as notas de cada instrumentista, pois é possível extrair cada voz,para então montar as partituras individuais. E o Encore ainda permite que o usuário trabalhe comvárias partituras simultaneamente, de forma que é possível copiar trechos de uma em outra.

A apresentação gráfica da partitura é excelente, havendo facilidades para o usuário manipular oespaçamento entre símbolos, quer seja de forma automática, quer seja manualmente. Pode-se ajustara posição horizontal ou vertical de pautas individuais, de forma a se obter o melhor resultado visuale estético possível. É possível incluir textos como título, sub-título, nome do autor, designação degênero e andamento, instruções extras, informação de copyright e numeração de páginas e decompassos. As pautas da grade podem ser ligadas por chaves, colchetes ou barras, e as divisões decompassos podem ser livremente posicionadas na horizontal, podendo atravessar ou não as pautasdo sistema.

Há recursos para ajustar as dimensões da partitura impressa às características do papel a ser usadona impressora, podendo-se efetuar reduções ou ampliações da imagem a ser impressa. Com orecurso do zoom, o usuário também pode visualizar uma página inteira da partitura.

Diversos símbolos podem ser incluídos à partitura, alguns deles podem ser vinculados às notas(uma fermata, por exemplo), de forma que quando uma nota é movida de sua posição, os símbolos aela associados também são movidos de lugar. Também é possível escrever textos na partitura, naposição e com a fonte de letra (dentre as disponíveis no Windows) que se desejar. A letra da músicatambém pode ser escrita - em qualquer posição (abaixo ou acima da pauta) - e as sílabas daspalavras são vinculadas às respectivas notas na pauta.

As cifras de acordes e os respectivos símbolos de sua armação no violão também podem serincluídos na partitura. O usuário define o tipo de acorde e o baixo (ex: Dm/F#), e o Encore seencarrega de inserir a cifra e/ou o símbolo com a posição dos dedos no braço do violão. O software

contém uma enorme coletânea das cifras comuns, e ainda permite ao usuário criar cifras especiais.

Alguns símbolos de dinâmica que são inseridos na partitura da música são interpretados e

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 108/124

executados quando a música é tocada pelo Encore em algum instrumento MIDI. É o caso deindicações de pedal, crescendos, indicações de oitava (acima/abaixo), e demais alteração de volume(p, pp, mp, mf, ff). Também as designações de repetições, finalizações e coda podem serinterpretados, se o usuário assim quiser.

Acompanhando a tendência atual dos softwares MIDI, o Encore oferece facilidades para o que o

usuário trabalhe com nomes de instrumentos, e não com os números de patches de seussintetizadores. Para isso, basta selecionar o equipamento que está sendo usado para a execuçãoMIDI da música. Se ele não constar da lista, deverá ser incluído, definindo-se a tabela com osnomes dos timbres para cada número de patch.

Obviamente, o Encore pode importar arquivos em formato Standard MIDI File, mas também podeabrir arquivos de partitura do Music Time, e arquivos de seqüências feitos no Master Tracks, outrossoftwares da Passport. Todo trabalho executado no Encore deve ser salvo em seu formato próprio(.ENC), que preserva todos os símbolos de notação musical, mas é possível exportar a música emformato Standard MIDI File ou no formato do Master Tracks, que não preservam todos os símbolosda partitura.

Conclusões 

Originalmente desenvolvido para Macintosh, o Encore acabou por tornar-se um padrão de fatodentre os softwares de edição de partituras para PC/Windows. Esse sucesso deve-se à combinaçãoque a Passport Designs conseguiu fazer entre capacidade e facilidade, isto é, criar um softwarepoderoso e ao mesmo tempo fácil de operar. Um software editor de partituras deve possuir recursosde manipulação de dados MIDI em tempo-real e, ao mesmo tempo, fornecer ferramentas paraedição gráfica, mantendo sempre uma perfeita harmonia na vinculação entre eles. Além disso, osdesenvolvedores de softwares ainda têm que satisfazer a todas as necessidades requisitadas pelosusuários - compositores, arranjadores e copistas - que exigem que o produto atenda a todas asparticularidades possíveis em um trabalho de escrita musical. E isso tudo sem criar dificuldades deoperação. É evidente que ainda há limites, mas temos observado nestes últimos anos uma melhoriaespantosa nos recursos e potencialidades dos softwares desse gênero, sendo que muito poucos têmconseguido um lugar na ponta da disputa tecnológica.

A versão 4 do Encore prossegue no mesmo caminho original, não promovendo grandes alteraçõesao que já havia, mantendo os mesmos procedimentos operacionais que seus usuários já estavamacostumados, mas incorporando algumas funções extremamente úteis, como os aprimoramentos nanotação de percussão, que certamente compensam a atualização para quem já possui as versões

anteriores.

Novidades da versão 4.2

GERAL

•  versão para Windows 95; melhorias na velocidade;

•  faz preview e exporta arquivos EPS

•  até cinco nomes de instrumentos para cada pauta (posicionados em qualquer lugar)

•  melhorias no posicionamento e aparência dos arcos de ligadura

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 109/124

•  melhorias no controle sobre o traço de união de hastes de notas

•  melhor controle sobre o posicionamento e remoção de tipos de barras de divisão decompassos

•  possibilidade de selecionar compassos verticalmente, para editar todas as pautas de umavez

•  novo algoritmo dá mais acurácia à resolução a notas até semifusas

•  normalização inteligente de notas após a transposição e outras operações

•  melhoria na manipulação de arquivos importados de MIDI Files e Master Tracks Pro

•  remoção e colocação de marcas e símbolos em lotes

•  melhoria no controle de texto permite solid box, fundos e bordas

TRANSCRIÇÃO E COMPOSIÇÃO

•  Notação de grades de até 64 pautas por sistema, com até oito vozes por pauta;

•  Traços de união de hastes de notas podem atravessar de uma pauta para outra; ideal parainstrumentos que usam mais de uma pauta;

•  Notação para violão permite a escrita automática em tablatura de até oito cordas, emqualquer afinação com posicionamento ajustável dos trastes;

•  Pautas de percussão para a escrita de ritmos com múltiplas opções de formato de cabeçade nota, e posicionamento configurável na pauta;

•  Durações de notas e múltiplas vozes são detectadas automaticamente, e grupadasapropriadamente;

•  Espaçamento automático das notas;

•  Símbolos adicionais para acordes de partes rítmicas, arpejos e números de dedilhado;

•  Inserção e remoção de compassos, pautas, sistemas e páginas, em qualquer lugar damúsica;

•  Transcrição de músicas a partir de arquivos Standard MIDI File e Master Tracks Pro;

•  Transcrição direta de execução MIDI a partir de instrumento MIDI, em tempo-real;

•  Recurso de "Linear View" permite visualizar toda a partitura num único sistema;

•  Diagramas de acorde de violão e seus nomes (cifras);

•  Aceita compasso de anacruze;

EDIÇÃO

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 110/124

•  Inserção de informação MIDI para controle de dinâmica;

•  Barra de ferramentas configurável, para acesso imediato das funções de edição;

•  Zoom in e Zoom out para edição mais precisa;

•  Paleta "Expressions" permite que você salve suas próprias configurações de fonte,tamanho e estilo para as indicações de expressão;

•  Inúmeros símbolos de tablatura de violão;

•  Ligadura de grupos de notas automática ou manual;

•  Posionamento livre de objetos em qualquer lugar da página;

•  Selecionamento de regiões, páginas, pautas, sistemas ou a pauta inteira, para edição;

•  Transposição altera automaticamente as cifras e símbolos de acordes;

•  Teclas de função para editar duração de notas, acidentes, etc;

•  Transposição, alteração de tonalidade, compasso, e pautas, em qualquer ponto dapartitura;

•  Mostra e executa via MIDI as estruturas encadeadas de repetição, inclusive múltiplasopções de finalização;

•  Recursos de corte, colagem e cópia de trechos;

•  Inúmeros símbolos de notas, pausas, acidentes, arcos de ligaduras, grace notes, quiálteras,

acentuações, marcações, ornamentos, oitavas e símbolos de dinâmica;

•  Ajuste de altura e ângulo de arcos e grupamento de notas;

•  Espaçamento adequado de notas, alinhando com o tempo de execução;

•  Separação de notas de uma pauta em duas pautas, tanto por altura quanto por vozes;

•  Oito tipos de formato de cabeça de nota, incluindo os tipos usados para percussão e cantoGregoriano;

•  Extração automática de partes com controle sobre a letra da música e marcações;

•  Letra da música pode ser escrita em qualquer ponto da partitura, usando qualquer tipo defonte e tamanho, e permitindo hifens e melismas;

MIDI

•  Interpreta via MIDI as indicações de dinâmica, grampos (crescendo), repetições,finalizações e articulações;

•  Suporte a OMS e Mac Synthesizer (somente na versão para Mac);

•  Nova janela de Tempo; suporte a Bank Select; teclado virtual;

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 111/124

•  Indicações de pedal de sustain afetam a execução MIDI;

•  Quantização por "Swing", para dar efeito humano à música;

•  Indicações de andamento afetam a execução MIDI;

•  Até oito vozes por pauta podem ser designadas para canais de MIDI diferentes;

•  Suporte a MIDI Song Position Pointer e MIDI Clocks para sincronização;

•  Suporte a ilimitado número de portas MIDI via OMS (versão para Mac) ou até 32 canaisde MIDI;

IMPRESSÃO E LAYOUT

•  Arquivos Encore EPS podem ser importados no QuarkXpress, Microsoft Word e Aldus

PageMaker;•  Espaçamento selecionável (estético ou exato);

•  Compressão de diversos compassos com pausa num só compasso;

•  Configurações globais do usuário para os padrões de espaçamento de pautas, claves, letra,acordes, etc;

•  Indicações de mudança de armadura no final da linha (pode ser mostrada ou não);

•  Permite o uso de qualquer fonte de letra para textos, letra da música, cifras de acordes,nomes de pautas, números de compasoss, etc;

•  Cabeçalhos e rodapés de páginas configuráveis;

•  Impressão da partitura inteira ou em partes; em formato reduzido ou ampliado;

OUTROS RECURSOS

•  As versões para Mac e Windows compartilham o mesmo formato, de maneira que osarquivos podem ser transferidos entre as duas plataformas;

•  Versão para Mac é compatível com MultiFinder e System 7, e suporta Apple MIDIManager e OMS;

•  Versão para Windows é compatível com Windows Multimedia Extensions;

•  Suporte a Standard MIDI Files;

•  100% compatível com o sistema NoteStation (MusicWriter');

REQUISITOS:Versão para Windows: PC 486 ou melhor, 8 MB de RAM, Windows 3.x ou Windows 95,

interface MIDI ou placa de som, impressora laser ou jato de tinta;Versão para Macintosh: Macintosh Classic II, System 7, 4 MB de RAM ou mais, hard disk,

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 112/124

impressora LaserWriter ou TrueType;

Texto publicado na revista Backstage em nov/95

Este texto foi publicado no music-center.com.br em 1995

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

PG Music Band-in-a-Box 7 - software para arranjo musical

por Miguel Ratton

Nesta versão do Band-in-a-Box foram incluídos váriosrecursos interessantes, que fazem com que o softwarecontinue sendo uma excelente ferramenta para quemprecisa compor com rapidez e qualidade.

Se você usa computador com alguma finalidade musical,provavelmente já conhece alguma coisa do Band-in-a-Box, o software mais famoso para a criação de arranjo. Aprimeira versão foi criada em 1989 pelo músico canadense

Peter Gannon, e rodava em sistema operacional DOS (na época ainda não havia Windows). Gannondecidiu criar seu próprio software musical depois de muitas frustrações e dificuldades com osoutros que experimentou. Desde então, o Band-in-a-Box tornou-se bastante popular, e tem sidoconstantemente aprimorado em cada nova versão.

Para quem gosta de música, e quer criar bons arranjos sem ter muito trabalho, o Band-in-a-Box éuma "mão-na-roda". A razão do sucesso deste software é não só o resultado final excelente, mas afacilidade para usá-lo. Como nas versões anteriores, o Band-in-a-Box 7.0 também vem com osequenciador Power Tracks incluído no pacote, o que é, sem dúvida, um brinde de grande valor.Neste artigo, mostraremos, em linhas gerais, como o software funciona, dando destaque para osrecursos incorporados na nova versão.

Visão geral 

O Band-in-a-Box pode criar uma música a partir de informações da harmonia (cifras) indicadas pelousuário. Esse processo é muito similar ao usado pelos teclados de acompanhamento automático,exceto pelo fato de que no Band-In-A-Box você escreve a harmonia previamente, ao invés deexecutá-la no teclado, em tempo-real. A criação dos arranjos se baseia em condições peculiares decada estilo, que você determina previamente. Dessa forma, o grau de naturalidade e "não-repetitismo" vai depender tão somente da qualidade dos padrões usados por cada instrumento. Ospadrões são "trechos de compassos" que já vêm com o software (mas você também pode criar osseus), formando assim uma "biblioteca" de pedaços de acompanhamento, que é utilizada nomomento da "composição". No Band-in-a-Box, há uma infinidade de recursos que permitem que oarranjo seja montado conforme os critérios mais naturais e humanos desejados.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 113/124

 É como se o software tivesse "capturado" a característica de execução de cada instrumento (piano,baixo, bateria, violão, etc) para cada estilo. Digamos que no estilo "Balada" o piano toque arpejado;então, para esse estilo, há diversos tipos de padrões (trechos) com variações de arpejos. Cada umdesses padrões é utilizado pelo software ao compor o acompanhamento de "Balada", de acordo comcritérios definidos previamente (exemplo: um padrão que tenha sido definido como "pre-fill" só

poderá ser usado no arranjo antes de uma "virada").

Cerca de 100 estilos já vêm com o software, e outros mais estão disponíveis como opcionais, emdisquetes. Muitos deles são excelentes. Mas se por acaso você não gostar de alguma coisa nosestilos prontos, ou se quiser criar um novo estilo que não está disponível, poderá usar o recurso do"StyleMaker" e alterar os padrões de estilos existentes, ou criar seus novos padrões.

Facilidade de uso 

Para configurar o Band-in-a-Box, o usuário seleciona o setup específico de seu equipamento, dentre

os que estão em uma lista. Uma vez configurado adequadamente, o software é capaz de controlar deforma correta os timbres no sintetizador que está sendo usado. Ah, mas e se o seu sintetizador nãoestiver nessa lista? Bem, então você pode criar um setup específico, que irá atender plenamente àscaracterísticas do seu equipamento. No caso de sintetizadores compatíveis com os padrões GM,Roland GS e Yamaha XG, o software pode controlar inclusive os respectivos processadores deefeitos (reverb e chorus). Você pode configurar todos os recursos de MIDI, ajustando à sua vontadeos canais desejados por onde quer que o software transmita cada parte do arranjo.

A tela principal do software traz um painel onde o você pode definir, para cada "músico virtual" quetoca no arranjo, qual o timbre que vai ser utilizado (piano, órgão, etc), e os respectivos volumes,posição no stereo (pan), e intensidade dos efeitos de reverb e chorus (no caso de sintetizadores quepossuam esses recursos). Nesse mesmo painel, você pode cortar ("mute") quaisquer das partes, quenão quiser ouvir (ótimo para ouvir as partes individuais do arranjo). Ainda na janela principal, doisteclados "virtuais" mostram as notas que estão sendo tocadas, em tempo-real, para todas as partesdo arranjo (em cores diferentes): isso não é só um "feature" visual, mas também uma grande ajudapara quem aprender a tocar de verdade.

Se você prefere trabalhar com música em notação convencional, o Band-in-a-Box oferecerepresentação em forma de partitura, onde você pode visualizar, separadamente, as execuções decada parte do arranjo (piano, baixo, bateria, violão/guitarra, cordas), juntamente com as cifras daharmonia. Na partitura, você pode também editar (alterar) notas. Nesse caso, somente as alterações

da melodia são preservadas; as demais só podem ser preservadas se, após a edição, se a música forexportada para um arquivo Standard MIDI File. A partitura também pode ser impressa, mostrandoas cifras e até mesmo a letra da música, caso você a tenha digitado. Caso você queira usar o Band-in-a-Box para executar música de fundo, enquanto trabalha ao computador, há o recurso doJukebox, que permite que as músicas/arranjos existentes no disco sejam executadas pelo softwareuma a uma, em determinada ordem, ou aleatoriamente.

Criando um arranjo 

De uma forma geral, o processo de criação do arranjo é relativamente simples, bastando você

indicar as cifras da harmonia, ao longo da música, para cada compasso. Isso pode ser feito em umquadro onde os compassos são representados por retângulos, ou então escrevendo-se as cifras nostempos desejados, numa pauta convencional. O Band-in-a-Box aceita quatro tipos alternativos de

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 114/124

notação de cifras. Uma vez escritas as cifras da harmonia, então você seleciona o estilo da música(Jazz, Blues, Waltz, etc) e indica também a sua estrutura e tamanho: onde ela começa (Intro), ondeacaba (Tag) e onde está o trecho que deve ser repetido (Chorus), e o número de repetições. Esseartifício permite que você escreva o Chorus uma única vez, e o software se encarrega de repeti-lotantas vezes quantas forem indicadas.

Da mesma forma que nos teclados de auto-acompanhamento, no Band-in-a-Box também há umaopção de "Variation", pela qual você pode definir pontos na música onde o arranjo passa para aoutra variação (A ou B) do estilo. As variações são precedidas de uma virada de ritmo ("fill").

Os estilos que já vêm com o Band-in-a-Box cobrem uma boa gama de gêneros: Jazz, Blues, Rock,Pop, Funk, Ballad, Bossa-Nova, Country, Waltz, Jazz Waltz, Reggae, Rhumba, Cha-Cha, Irish,Ethnic, e mais diversas variações deles. Os estilos ficam armazenados em arquivos individuais, nodisco rígido do computador. Cada estilo possui informações particulares de como devem ser usados,indicando como são executadas as partes de arranjo (piano, baixo, bateria, violão/guitarra, cordas emetais).

Há inúmeros parâmetros condicionais que são ajustados pelo usuário, ao criar o arranjo. Algunsdeles são indicados na própria música, como é o caso das viradas ("fills"), variações de estilo eexecuções adiantadas ("pushes"). Outros são parte do estilo (intrínsecos aos padrões) e, dependendode como foram criados, podem fazer com que o arranjo fique bastante real.

Uma vez criado o arranjo do acompanhamento, você pode gravar a melodia, a partir de um tecladoou outro instrumento MIDI, ouvindo o acompanhamento. A melodia também pode ser editada,tanto na pauta quanto em uma lista de eventos MIDI. Se você prefere usar seu softwaresequenciador para gravar a melodia, não há problema: o Band-in-a-Box também pode importar amelodia a partir de um arquivo Standard MIDI File. Existem ainda outros recursos que atuam sobrea melodia, como adiantar/atrasar sua execução em relação ao acompanhamento, transposição etambém a harmonização.

A música criada no Band-in-a-Box pode ser "exportada" sob a forma de arquivo em formatoStandard MIDI File, incluindo a melodia e eventuais harmonizações e solos, podendo esse arquivoser usado por qualquer software sequenciador MIDI ou outro equipamento que possa "ler" StandardMIDI Files.

O arranjo pode ser sofisticado ainda mais, usando-se os recursos de harmonização e solista. Oprimeiro cria uma harmonização sobre a melodia, usando como referência a harmonia (cifras) quevocê escreveu nos compassos. O Band-in-a-Box já vem com dezenas de tipos de harmonização,

algumas delas "marcas registradas" de grandes músicos e arranjadores, como Glen Miller, PatMetheny, Wes Montgomery, Paul Shaffer e outros. As harmonizações podem usar instrumentosespecíficos (exemplo: a harmonização "a la Glen Miller" usa um clarinete e 4 saxes). Mas vocêtambém pode criar suas próprias harmonizações, inclusive construindo-as a partir das que jáexistem. Você pode indicar os instrumentos que executam as partes da harmonização da melodia,seus respectivos volumes e regiões (oitavas), e outros parâmetros adicionais.

O outro recurso de sofisticação é o "Soloist", que pode ser denominado como um "gerador de solose improvisos". As características do solo segue não só a harmonia (cifras) da música, mas tambémcertos critérios de estilo e "personalidade", como veremos mais adiante.

Personalizando estilos 

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 115/124

Se você quiser criar novos padrões de acompanhamento, arregace as mangas e entre nas opções do"StyleMaker". O potencial para a criação de novas possibilidades é muito grande e, embora oprocesso de edição dos estilos seja complexo, nem por isso é impossível de ser usado se você éleigo em computador. Os estilos, são montados a partir de uma coletânea de padrões para cada partedo arranjo (piano, baixo, bateria, etc), de 1, 2, 4 ou 8 tempos. Ao criar um padrão, você define asdiversas condições para que ele (o padrão) possa ocorrer dentro da música. Como já foi dito, pode-

se criar um padrão que só deva ser usado antes de uma virada (pre-fill), ou outro que só seja usadoquando houver uma mudança de harmonia de um acorde para outro que esteja uma terça acima. Ascondições são muitas, e permitem a você "amarrar" o uso dos padrões somente para onde eles foramconcebidos. Quanto mais padrões você cria - cada qual com condições diferentes para serem usados- mais realista será o arranjo, dando uma característica mais natural, mais próxima daquilo que um(bom) músico faria, ao tocar a música naquele estilo. Podem ser criados mais de duzentos tipos depadrões diferentes, para cada "instrumentista" do arranjo, sendo que a parte de bateria e percussãopode ter até 120 padrões diferentes.

Para criar os padrões das partes do arranjo (exceto bateria e percussão), você tem que tocarmanualmente as frases desejadas para eles. Este processo de gravação é relativamente simples, não

exigindo grande habilidade, pois todos os padrões são gravados em Dó (ao montar o arranjo, oBand-in-a-Box transpõe os padrões devidamente, conforme a harmonia da música). Para criar ospadrões rítmicos, no entanto, você tem que escrever em uma grade (matriz) quais são osinstrumentos de percussão que soam em cada tempo do compasso do padrão. Você pode ouvirtodos os padrões para observar o resultado, imediatamente.

Novidades da versão 7.0

De acordo com a PG Music (fabricante do software), a versão 7.0 traz mais de 60 recursos novos eaprimoramentos, mas o "Soloist" é com certeza a grande novidade. O que ele pode fazer érealmente impressionante, principalmente em músicas de gêneros apropriados para improvisos,como jazz e blues. Para o "Soloist" atuar, basta você selecionar o tipo de "solista virtual" que vocêquer usar (há mais de 100 disponíveis) e o Band-in-a-Box cria e toca o solo/improviso naqueleestilo, junto com qualquer música. Com o "Soloist Maker", você também pode configurar seuspróprios "solistas": além do estilo musical, você define os parâmetros essenciais de execução dosolo, como por exemplo o instrumento que ele usa (sax, flauta, piano, etc), os tipos de notas que elecostuma usar (colcheias, semicolcheias, etc), a extensão (região) dos solos, em que partes da músicaele tocará, e ainda outras condições. E funciona mesmo! Os exemplos que acompanham o Band-in-a-Box demostram isso. Com a inclusão do "Soloist", o software também ganhou mais uma trilhaque pode ser usada para a melodia.

A nova versão trouxe uma outra facilidade que muitos usuários vinham desejando: agora você podealterar o estilo no meio de uma música. É possível inserir informações de mudança de estilo emqualquer compasso, de forma que você pode começar uma música em Jazz e depois cair para umBlues, por exemplo.

A quantização da melodia foi aprimorada, com a inclusão de recursos de "humanização". Agora, oBand-in-a-Box pode criar efeitos mais reais na melodia, variando a quantidade de "swing" de suaexecução em colcheias ou semicolcheias, bem como alterando levemente o andamento.

Outra novidade é o reconhecimento de acordes via MIDI. Agora você pode "escrever" a harmonia

(cifra) do tempo do compasso tocando o acorde em seu instrumento MIDI. O Band-in-a-Boxreconhece instantaneamente as notas e insere a cifra correspondente na posição para onde estáapontada a música. Embora o software detecte o acorde e dê a ele uma cifra, você pode sugerir uma

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 116/124

cifra alternativa para ele.

Para aqueles que gostam de acompanhar a execução olhando para a pauta no Band-in-a-Box, agoraficou mais fácil, pois a pauta pode ser mostrada adiantada à execução, um ou dois compassos, massem atrapalhar a visualização do compasso que está tocando (o mesmo pode ser feito com a letra damúsica - o que é muito bom para karaokê). Além disso, a nota que está sendo tocada é mostrada em

outra cor (e por falar em cor: na versão 7.0 você pode personalizar as cores das telas do Band-in-a-Box). Ainda na escrita da pauta, agora os acidentes (bemóis ou sustenidos) das notas da melodia sãomostrados em concordância com a tonalidade e o acorde. E a impressão da partitura foi aprimorada,com a possibilidade de ajuste das margens do papel, símbolos de repetição e fontes escalonáveis.

Foram incorporadas diversas melhorias no suporte a equipamentos MIDI. Além de poder serconfigurado facilmente para trabalhar com sintetizadores compatíveis com o padrão Yamaha XG, oBand-in-a-Box agora também permite, de maneira muito fácil, a seleção de timbres de qualquerbanco em sintetizadores mais sofisticados, como o Roland JV-1080, por exemplo.

Se você possui um processador de efeitos de harmonização, como o Digitech Vocalist, pode usá-lo

em conjunto com o Band-in-a-Box, pois o software agora pode transmitir, por um canal de MIDIseparado, os acordes da harmonia, na posição fundamental ou não. Esse recurso também pode serusado com os módulos de arranjo da Roland (série RA).

Conclusão

O Band-In-A-Box continua atendendo às necessidades de usuários de diversos níveis. Uma de suasgrandes vantagens, fora a poderosa capacidade de criar ótimos arranjos em pouco tempo, é aversatilidade, pois você pode experimentar, na mesma música, diversos tipos de estilos diferentes,com diversas harmonizações e diversos solos. As possibilidades são infinitas.

O software pode auxiliar na composição eficiente de arranjos profissionais, principalmente quandoo prazo para a realização do trabalho é o fator limitante. Bons compositores podem desenvolverseus próprios estilos e, ainda que usando um software para compor, podem obter resultados maispersonalizados.

Para aqueles que precisam de acompanhamento para apresentações ao vivo, esta pode ser umaopção aos teclados de acompanhamento automático, principalmente para guitarristas. As músicascriadas no Band-in-a-Box e salvas em arquivos Standard MIDI Files, podem ser executadas ao vivopor qualquer sequenciador portátil acoplado a um teclado ou módulo multitmbral.

E para os amadores, o Band-In-A-Box certamente é um enorme auxílio para o aprendizado deestilos e arranjos, sem falar na possibilidade de ser usado como um simples "tocador de música",nos momentos de lazer.

FICHA TÉCNICA•  Descrição: software para composição e arranjo (PC/Windows);•  Estilos: 100 estilos incluídos na versão Pro; inúmeros estilos adicionais disponíveis; recurso"StyleMaker" permite ao usuário criar ou alterar estilos; cada estilo pode ter inúmeras opções paraviradas, padrões de acompanhamento e finalizações;•  Partes timbrais: pode compor arranjos com até sete partes (piano, bass, drums, guitar,strings, melody e soloist); controle individual de seleção de timbre, volume, pan, reverb e chorus;memorização de configurações favoritas de bandas;

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 117/124

•  Recursos operacionais: harmonia em cifras; pautas individuais das partes do arranjo podemser impressas; ajustes de andamento, tonalidade e compasso; transposição; recursos de corte ecolagem de compassos; harmonização da melodia (mais de 100 harmonizações prontas; o usuáriopode criar novas); permite mudança de estilo no meio da música; melodia pode ser gravada por umteclado MIDI; melodia automática pode ser gerada a partir do teclado do computador; mostra aexecução das notas no teclado; permite a escrita da letra da música;•  Outras facilidades: recurso "Soloist" - cria solos e improvisos sobre a harmonia/estilo damúsica; diversos "solistas" virtuais disponíveis (Django Reinhardt, John Coltrane, etc); detecta aharmonia a partir de teclado MIDI; jukebox; ajustes de cores das telas;•  Compatibilidade: salva músicas em formato Standard MIDI File; importa melodia e padrõesem formato Standard MIDI File; pode operar com qualquer sintetizador ou placa de som; suporteaos padrões GM, Roland GS e Yamaha XG; opera em conjunto com harmonizadores Vocalist emódulos arranjadores RA;•  Requisitos mínimos: computador PC (386DX ou melhor), Windows 3.x ou Windows 95, 4megabytes de memória RAM, placa de som (Sound Blaster ou similar) ou interface MIDI cominstrumento MIDI externo;

Análise publicada na revista Backstage no. 33 - agosto/97

Este texto foi publicado no music-center.com.br em 1998

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

Cakewalk SONAR 4 - software para gravação multipistas

A Cakewalk anunciou em setembro de 2004 o software SONAR 4, nasversões Producer Edition e Studio Edition. Nesta nova versão, aCakewalk adicionou vários recursos, dentre eles a capacidade detrabalhar com surround. Outras novidades são: Track Folders (clipcontendo várias pistas), "congelamento" de pistas, efeitos e sintetizadorespara liberar processamento, aprimoramentos na operação com loops e nasteclas de atalho (para operar emulando Cubase SX, Nuendo, Logic,Digital Performer, Samplitude, e outros softwares), suporte a mais de 30 configurações de mixagemsurround (5.1, 7.1, LCRS, etc), vários plug-ins inclusos (Lexicon Pantheon, Sonitus SurroundCompressor, etc), operação com vídeo com suporte para QuickTime, Windows Media Video, AVI,

MPEG.O SONAR 4 foi lançado simultaneamente com versões em inglês, francês e alemão, e os preçospara a Europa são: Producer Edition =  €629; Studio Edition =  €299.

Para mais detalhes, consulte o site da Cakewalk.

Este texto foi publicado no music-center.com.br em dezembro de 2004

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 118/124

 Sony Sound Forge 8 - software para edição de áudio

O Sound Forge é um dos softwares mais usados por profissionais paraedição de áudio, destacando-se pela sua capacidade, estabilidade e

intuitividade. Ele permite gravar, editar, produzir loops, analisar espectro,corrigir e limpar material de áudio, processar efeitos, gerar áudio paraInternet, etc.

O software oferece ferramentas completas para cortar, colar e mixar omaterial de áudio. O áudio pode ser editado em tempo-real com precisão anível de amostra, e pode maniopular um arquivo enquanto processa outrosem background. A nova ferramenta de scrub permite posicionar rápida efacilmente em qualquer ponto do arquivo de áudio.

Com os recursos de gravação através de qualquer dispositivo de áudio instalado no computador, o

software permite programar o momento da gravação, assim como ajustar para que a gravação sejaefetuada quando o sinal ultrapassar determinado nivel. A versão 8 agora suporta driver ASIO, com

baixa latência. O material de áudio pode ser gravado eeditado em resoluções de 16, 24 ou mesmo 32 bits, comtaxas de amostragem de até 192 kHz.

São mais de 40 tipos de efeitos e processamentosprofissionais, incluindo manipulação de volume, EQ, delay,chorus, processamento de dinâmica, noise gate, pitch-shift,time-stretch, flanger, etc. Os efeitos e processamentospodem ser encadeados e aplicados a trechos ou arquivosinteiros. O Sound Forge agora tem suporte a plug-insDirectX e também VST, com automação de controles.

Para quem trabalha com áudio para vídeo, o Sound Forge suporta diversos formatos de vídeo digital(AVI, WMV, MPEG), e pode sincronizar áudio e vídeo quadro-a-quadro. O Sound Forge tambémtem suporte completo para criação de loops de áudio do formato ACID, com informação deandamento e afinação.

Há recursos poderosos para a restauração ("limpeza") de áudio, redução de ruídos, clics, etc. É umdos softwares mais indicados para quem quer recuperar gravações antigas de discos de vinil e de

fita magnética.O pacote da versão 8 do Sound Forge inclui o software CD Architect 5.2, que é um gravador de CDcom suporte a vários recursos para se queimar CDs de áudio, operando diretamente a partir doSound Forge.

Para mais informações, consulte o site da Sony 

Este texto foi publicado no music-center.com.br em abril de 2005

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 119/124

 Sound Forge 8 

por Miguel Ratton

O Sound Forge é um dos softwares mais usados para edição de áudio, e tem se destacado não sópela sua enorme capacidade e estabilidade, mas também pela intuitividade. Ele permite gravar eeditar áudio, produzir loops, efetuar análise de espectro, restaurar áudio, processar efeitos, e muitasoutras coisas.

A versão 8 mantém tudo o que já era muito bom, e adicionaainda mais ferramentas, como o CD Architect. Além disso,foram incorporados dois recursos muito solicitados pelosusuários: o suporte a plug-ins VST e a drivers ASIO.

Apesar da proliferação de softwares para manipulação

digital de áudio, inclusive inúmeros produtos comcapacidade para gravar múltiplas pistas, o Sound Forge hácerca de dez anos continua sendo o mais popular paraPC/Windows, tanto entre profissionais quanto entreamadores.

As principais razões desse indiscutível sucesso são a sua estabilidade e a praticidade de uso. Criadopor programadores que conhecem a fundo a plataforma PC, e que aprenderam a "tirar leite depedra" na era jurássica do Windows, o Sound Forge consegue oferecer alto poder de processamentoe complexidade sem perder a facilidade de uso. Não é à toa que a Sony investiu milhões de dólaresna aquisição da Sonic Foundry, há cerca de dois anos atrás, e felizmente preservou o padrão dequalidade da linha de produtos daquela empresa.

O Sound Forge 8 foi lançado em março, e nossa avaliação foi feita em cima da versão 8.0 Build 53,disponível no site da Sony Media Software para experimentar por 30 dias. Neste artigo,apresentaremos os principais recursos do software, e destacaremos as novidades que foramincorporadas na versão 8.

Visão Geral 

O Sound Forge é um editor e processador de áudio que manipula arquivos em estéreo ou mono, epode funcionar sozinho, como editor/processador, ou acoplado como plug-in DirectX sobre outrosoftware que tenha suporte a esse tipo de recurso (ex: Cakewalk Sonar).

Graças a suas inúmeras funções, o Sound Forge pode ser indicado para diversos tipos diferentes demanipulação de áudio, tais como masterização, pós-produção para vídeo, sound design para jogos,edição de amostras para samplers, restauração, perícia criminal (análise de voz), e, obviamente,processamento de áudio para produção musical em estúdios de gravação.

Para rodar o Sound Forge 8 a Sony recomenda, pelo menos, um computador PC com processadorde 500 MHz, 128 MB de memória RAM, 150 MB de espaço no disco rígido. O software funciona

com Windows 2000 ou XP (infelizmente, você terá que abandonar seu velho 98!). É preciso tertambém uma unidade de CD-ROM para instalação do software (se você quiser gravar CDs, terá queter um gravador de CD).

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 120/124

 Obviamente, se você quiser ouvir o áudio terá que ter uma interface apropriada instalada noWindows. Nesse quesito o Sound Forge agora é polivalente, pois aceita qualquer dispositivo deáudio disponível, desde o som "sarapa" on-board da placa-mãe, até as interfaces profissionais maissofisticadas. A grande novidade é o suporte a driver ASIO. Este formato de driver vem sendo apreferência da maioria dos profissionais, graças à menor latência do fluxo de áudio e à comprovada

estabilidade. Esta é uma boa notícia para proprietários de hardware da Digidesign, que não podiamtrabalhar com o Sound Forge diretamente com suas interfaces. Outra novidade é a possibilidade demonitoração do sinal de entrada.

A instalação do software é fácil e não requer qualquer configuração especial (o Windows deve ter oDirectX 8 instalado). Para instalar o Preset Manager é preciso ter instalado no Windows o .NETFramework, disponível gratuitamente. A Sony disponibiliza atualizações diretamente pela Internet,bastando conectar o próprio Sound Forge ao site da empresa.

O pacote do Sound Forge inclui agora o CD Architect, um software poderoso para gravação deCDs, com inúmeros recursos que não existem no Nero e outros aplicativos populares que existem

por aí. Além disso, vários outros recursos, que outrora eram comercializados separadamente,também fazem parte do Sound Forge (Batch Converter, Spectrum Analysis, Acoustic Mirror).Falaremos mais sobre eles.

Assim como os demais softwares de edição de áudio, a janela principal do Sound Forge mostra omaterial de áudio representado graficamente no tempo (forma-de-onda). Nesta janela, pode-semarcar trechos, inserir pontos de referência (markers), e até mesmo fazer edições básicas decorte/colagem, usando as teclas de atalho universais para isso (Ctrl+C, Ctrl+V, etc). A imagem doáudio na janela pode ser ampliada ou reduzida ao gosto do usuário, permitindo ver (e editargraficamente) a onda, amostra por amostra. Pela quantidade de informações que se pode ter na tela,é recomendável usar um monitor de 17" com resolução de 1024x768.

Os controles de transporte estão disponíveis sob a forma de botões (barra de ferramentas no rodapéda janela de áudio), e também através das teclas do computador (ótimo para acesso imediato). E épossível reconfigurar todas as funções das teclas de atalho, conforme a conveniência do usuário.Nesta versão foi incluído o recurso de scrub, um controle que permite posicionar o material deáudio no ponto desejado "movendo-o" lentamente (para frente ou para trás) enquanto se ouve oáudio passando (como nos gravadores de fitas magnética). Esse procedimento pode ser feito com omouse ou pelo teclado do computador.

Você pode ter várias janelas de áudio abertas simultaneamente e, dependendo da capacidade do seu

computador, poderá ouvir o áudio de uma janela enquanto o Sound Forge processa algo em outra janela.

O processamento do áudio conta com diversas funções e efeitos, e você também pode incorporar aosoftware todos os seus plug-ins preferidos, pois agora o Sound Forge, além do suporte a plug-insDirectX, também aceita plug-ins VST.

A qualidade do áudio sempre foi um dos pontos fortes do Sound Forge, e para isso ele permitetrabalhar com resolução de até 64 bits e taxas de amostragem de até 192 kHz. Obviamente, asresoluções acima de 24 bits só podem ser usadas para edição, pois não são suportadas pelosdispositivos de áudio atuais.

O Sound Forge pode importar e exportar o áudio numa grande variedade de formatos, incluindo osmais usados para compactação (MP3, RA, WMA), onde o usuário pode escolher o nível de

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 121/124

qualidade, de acordo com a taxa de transferência desejada.

Quem trabalha com áudio para vídeo encontrará osrecursos necessários para gravação, edição eprocessamento de trilha sonora. O software pode abrirvídeo digital nos formatos usuais (AVI, QT, MOV,

etc) e permite trabalhar com monitor de vídeo externo.Para quem prefere trabalhar com o áudio sincronizadoà maquina de vídeo, o Sound Forge pode sincronizaratravés de MIDI Time Code (com suporte a todos osformatos de código de tempo).

Recursos para todas as necessidades 

Sendo um software "polivalente", é de se esperar que o Sound Forge disponha de muitos recursosdiferentes. Vejamos então alguns deles.

Em termos de efeitos de áudio, existem cerca de 40 tipos diferentes, como reverb, chorus, delay,flanger, distorção, wah, etc. Todos esses processamentos permitem configurar os valores dediversos parâmetros, e vários deles podem ser automatizados, isto é, o usuário pode determinarcomo os ajustes no efeito vão variar no decorrer da execução do áudio. Além disso, os efeitos - e amaioria dos outros processamentos - podem ser avaliados em tempo-real, através do botão dePreview. Para aumentar ainda mais a eficiência na edição, existe também o Plug-in Chainer, umquadro onde se pode encadear simultaneamente até 32 plug-ins de processamento (DirectX e VST)para atuar em tempo-real sobre o arquivo de áudio. Esse recurso funciona como se fosse um rack deefeitos, onde o usuário pode ligar ou desligar qualquer processamento, ajustar os diversosparâmetros de cada um, enquanto ouve imediatamente o resultado. A configuração do Plug-inChainer é memorizada para cada janela de áudio, e é toda restaurada automaticamente ao se iniciaruma nova sessão do software.

Outra facilidade é que em cada função de processamento do Sound Forge já existem várias opçõespré-programadas (presets) que o usuário pode experimentar, antes de ficar "futucando" os controles.

Os recursos de equalização e manipulação de dinâmica são bem completos. Existem três opções deEQs: gráfico, paramétrico e paragráfico. O EQ gráfico pode ser ajustado com 10 ou 20 bandas, ouatravés de um gráfico de envelope de freqüências. O ganho de cada banda pode ser ajustado desde -até +24 dB. O EQ paramétrico pode atuar como "low-shelf", "high-shelf", "band-pass" ou "band-

notch", todos eles com total liberdade de ajuste de freqüência ou largura de banda. O EQparagráfico oferece quatro filtros paramétricos com ajustes de freqüência, largura de banda e ganho,e mais dois filtros shelf (low e high), com ajustes de freqüência e ganho.

Nos processadores de dinâmica, estão disponíveis as opções mais convencionais de compressor,gate, limiter, etc, todos com a possibilidade de ajuste gráfico da curva de atuação. E há também umprocessador multi-bandas, que permite a manipulação discriminada da dinâmica dentro dedeterminada faixa do espectro, o que possibilita correções sofisticadas do tipo "de-esser", porexemplo.

Outro processamento interessante é o Pan/Expand, que ajuda a melhorar muitas gravações antigas e,

dependendo do material original, permite ampliar a imagem estereofônica.

Apesar de dispor de ótimos reverbs e outros processamentos, e ainda poder usar plug-ins (DirectX

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 122/124

ou VST) de outros fabricantes, o Sound Forge oferece uma ferramenta poderosíssima, que é oAcoustic Mirror. Ele permite utilizar "assinaturas acústicas", isto é, as características das alteraçõesque ambientes ou dispositivos efetuam sobre um som original. Para isso, basta obter a resposta aimpulso (IR) de um determinado recinto (ou equipamento) e aplicá-la ao material de áudio que sequer processar. A Sony oferece uma variedade de opções de IR, mas o usuário também podecapturar a resposta acústica (IR) específica de uma sala, estúdio ou dispositivo de efeito, e utilizá-la

no Acoustic Mirror.

A função Pitch Shift permite alterar a afinação do áudiopara cima ou para baixo, em passos de semitom comajuste fino (centésimos de semitom), podendo-se optarse o processamento irá ou não alterar também a duração(andamento). Este processamento é complexo e oferecemétodos diferentes, otimizados para cada tipo específicode material de áudio que se quer transpor (música, voz,instrumento solo, etc).

Para quem precisa avaliar qualitativamente acomposição do áudio, o Sound Forge oferece oSpectrum Analysis, um analisador de espectro que utiliza de FFT (Fast Fourier Transform). Esteprocessamento antes era oferecido à parte, como plug-in, mas agora está incorporado ao software. Ográfico principal do Spectrum Analysis mostra a envoltória de amplitude de todo o espectro defreqüências do material de áudio, e com ele é possível, dentre outras coisas, comparar formantes deinstrumentos ou vozes, por exemplo. O espectro do áudio também pode ser analisado na forma de"sonograma", um gráfico das freqüências (eixo vertical) no tempo (eixo horizontal), onde asamplitudes das freqüências são avaliadas por cores.

Quer saber o quanto a compactação MP3 reduz o conteúdo da sua música predileta? Basta compararno Sound Forge os espectros do material original e do material compactado. O Spectrum Analysis étambém uma ótima ferramenta para análise criminal de gravações ("grampos"), que infelizmenteestão cada vez mais comuns em nosso país.

O processamento de Time Stretch é de grandeutilidade para ajustar trilhas sonoras oulocuções dentro do tempo do vídeo, e tambémpara ajustar trechos ao se montar loops de áudiopara serem usados por outros softwares, como oACID ou o Sonar, por exemplo. O

processamento do Time Stretch também podeser otimizado conforme o tipo de material(música, fala, etc).

Com tantas opções de processamento, às vezesé difícil se lembrar qual foi o plug-in usado em determinado trabalho. Para facilitar as coisas, aSony incluiu uma ferramenta que permite organizar seus plug-ins no quadro FX Favorites, onde ousuário define quais são os seus processamentos preferidos, que passam a fazer parte de um menudo software.

O Sound Forge pode ler e escrever em diversos formatos diferentes de arquivos, e para facilitar a

manipulação desses formatos existe o Bit-depth Converter, que pode reduzir a resolução de bitsotimizando a qualidade pela aplicação de "dithering" e processos de redução de ruído, com opçõesdiferentes e adequadas a cada caso.

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 123/124

 Para a "limpeza" de áudio deteriorado, o Sound Forge dispõe de ferramentas básicas que permitemmelhorar razoavelmente a qualidade de gravações antigas ou obtido de mídias de qualidade inferior.Os processamentos de Find/Repair permitem encontrar e eliminar clics e pops existentes emgravações vindas de discos de vinil, enquanto o Audio Restoration é uma função que integraprocessamentos para eliminar clics e ruídos em geral.

Para processos de masterização, o software oferece o Wave Hammer, que integra um compressorclássico e mais um estágio para maximização de nível. O compressor pode detectar o nível pelopico ou pela média RMS, com opções inteligentes de ataque e release, além de oferecer uma opçãode saturação suave ("warm") para situações em que a alta compressão possa vir a causar distorção.

O Sound Forge pode gravar o áudio diretamente em CD-R, usando a unidade de gravaçãodisponível no computador. Mas para ampliar essa função, a Sony agora está incluindo no pacote doSound Forge o consagrado software CD Architect, com inúmeras facilidades que não existem nossoftwares de gravação convencionais que acompanham os gravadores.

Outros recursos disponíveis no Sound Forge são a possibilidade de processar em lotes (BatchConverter), isto é, efetuar o mesmo tipo de processamento em vários arquivos. Isso é muito bomquando se tem, por exemplo, várias músicas copiadas de fita cassete para restaurar, usando omesmo processo de equalização.

Para quem domina programação e deseja incrementar o software, é possível escrever rotinas deprocessamento, usando o Script Editor, e também incorporar rotinas escritas em JScript, VBScript,C#, e ainda rotinas compiladas como DLL.

Conclusão 

Este artigo procurou sintetizar os recursos principais do Sound Forge 8. São muitas funções eopções, e para que pudéssemos abordar tudo em detalhes seria preciso uma série de artigos.

O Sound Forge continua sendo uma excelente opção para profissionais e amadores, pela quantidadede ferramentas de edição e processamento e pela facilidade de uso. A versão 8 traz melhorias eincorpora recursos bastante interessantes para vários tipos de aplicações dentro do áudio.

É um software intuitivo, estável, e com qualidade sonora inquestionável, e mesmo com tantosrecursos profissionais, tem um preço relativamente acessível (US$ 299 nos EUA). Certamente

continuará sendo o produto mais popular da sua categoria.

Texto publicado na revista Música & Tecnologia em junho de 2005

Este artigo foi publicado no music-center.com.br em 2005

Copyright ©1996-2005 Miguel Ratton (http://www.music-center.com.br /)

5/11/2018 Apostila_de_computa o_em_m sica - slidepdf.com

http://slidepdf.com/reader/full/apostiladecomputacaoemmusica 124/124

 Cubase 4 

A versão 4 do Cubase incorpora alguns recursosimportantes do Nuendo, como o Nuendo Audio engine,

virtual Control Room e o suporte para encoders desurround. Há também vários outros recursos, como a adiçãode quatro sintetizadores virtuais, 33 novos plug-ins VST 3,pistas de instrumentos, modelos (templates) para pistas,melhorias na notação musical e na interface dp usuário.

Novos Plug-ins e instrumentos virtuais 

Indicado para a produção musical profissional, o Cubase 4 vem com um conjunto de novos plug-insVST3 e quatro instrumentos virtuais com mais de 1.000 timbres. Os instrumentos VST incorporamuma coletânea de sintetizadores para produção musical, e incluem o HALion One (com sons do

MOTIF), o Prologue (sintetizador analógico polifônico), o Spector (síntese por filtragem deespectro), e o Mystic (síntese por modelagem física). Há ainda 33 novos plug-ins VST 3, incluindouma coletânea de novos efeitos como ProEQ, compressores Vintage e Multibandas, GuitarAmp,Cloner, EQ gráficos de 10 e de 30 bandas, e outros.

Recursos Principais do Cubase 4: •  Gravação, edição e mixagem de MIDI e áudio•  Processamento de áudio em 32 bits com ponto flutuante•  4 novos instrumentos virtuais•  66 Plug-ins, incluindo 33 novos Plug-ins VST3•  Mixagem surround•  SoundFrame - permite gerenciar os sons de qualquer sintetizador (virtual ou real) através damesma interface (MediaBay)•  Virtual Control Room - integração com equipamentos do estúdio•  Notação musical profissional e impressão de partitura com menus dedicados, duas novasfontes de símbolos•  Compatível com Windows e Mac OS X Universal Binary

Para mais informações, consulte o site da Steinberg.

Este artigo foi publicado no music-center.com.br em setembro de 2006Copyright ©1996-2006 Miguel Ratton (http://www.music-center.com.br /)