MI Apontamentos 1

Embed Size (px)

Citation preview

  • 8/17/2019 MI Apontamentos 1

    1/19

    1

    Universidade Nova de Lisboa

    Ano Universitário de 2010-2011 – 1° semestre

    Mestrado em Artes Musicais – Estudos em Música e Tecnologias

    Seminário artístico I – Módulo 2Técnicas de síntese e estudo de sonoridades. Formas sonoras.

    ISABEL PIRES

    Nota introdutória: As páginas que se seguem são um apontamento extremamente

    reduzido de alguns dos pontos essenciais tratados nesta disciplina. Estas notasdeverão ser completadas através da bibliografia específica indicada:

    Curtis Roads (Auteur), Jean de Reydellet (Trad) L'audionumérique : Musique etinformatique, Dunod (versão traduzida em fracês de uma parte do livro The ComputerMusic Tutorial)

    Curtis Roads The Computer Music Tutorial, MIT press

    Peter Manning Electronic And Computer Music , Oxford

    Richard Boulanger, Barry Vercoe, Max Mathews The Csound Book, MIT PressMassachusetts, London, England.

    1.  Introdução à síntese sonora

    A síntese por computador começou a dar os seus primeiros passos apenas no final dosanos 50 nos Bell Telephone Laboratories. Os computadores, a que pudemos talvezchamar modernos, tinham começado a desenvolver-se há apenas uma década.

    No entanto, a síntese sonora com recurso a tecnologias eléctricas havia começadomuito antes. Mencionaremos muito rapidamente alguns momentos importantes daevolução deste tipo de produção sonora.

    As primeiras experiências no âmbito das tecnologias sonoras com recuso a fonteseléctricas remontam a 1759, em Paris onde um padre jesuíta, Jean Baptiste Delaborde,criou o primeiro instrumento electromecânico chamado "Clavecin Électrique" do qualresta apenas o esquema que se segue:

  • 8/17/2019 MI Apontamentos 1

    2/19

    2

     Os primeiros instrumentos que se poderiam considerar realmente electrónicos foramconstruídos entre 1870 e 1915 e usavam técnicas diversas para gerar sons.

    Muitos desses instrumentos foram inventados por engenheiros ou inventores queprocuravam soluções da área das comunicações, electromagnetismo, telegrafia,telefones, rádio, desenvolvimento de lâmpadas de iluminação pública, etc. Muitas“incidentes” curiosos e descobertas ocasionais levaram à construção de “máquinas defazer sons”, protótipos de instrumentos musicais.

    A electricidade é transmitida por corrente alterna a uma frequência que ronda os 50Hz – ora 50 Hz é um frequência audível. Facilmente se imagina que no decurso detrabalhos para controlar a corrente eléctrica alguns “acidentes” terão produzido som…

    Controlar a corrente eléctrica implica controlar voltagem, ora os sistemas controladospor voltagem foram a uma das tecnologias que mais contribuiu para a geraçãocontrolada de oscilações produzidas electricamente. Esses sistemas de oscilaçãocontrolada são por exemplo VCO (voltage-controlled oscillator), VCF (VoltageControlled Filter), VCA (voltage-controlled amplifier).

    Esta técnica de controlo por voltagem foi marcante no desenvolvimento das principaistécnicas de síntese analógica e ainda hoje os conhecimentos adquiridos e técnicasdesenvolvidas nessa são o fundamento das principais técnicas de síntese digital.

    Assim simulam-se por computador o funcionamento dessas técnicas e sistemas decontrolo por voltagem de frequência, nível, fase e outros parâmetros do fenómeno

    ondulatório geradores de sensações sonoras.No que respeita à síntese digital propriamente dita, os computadores, digamosmodernos, tinham começado a estar operacionais nos anos 40. Embora anteriormentese tivessem inventado muitas máquinas de calcular mais ou menos eléctricas, mais oumenos mecânicas, o primeiro computador completamente electrónico no seufuncionamento só foi oficialmente concluído em 1946, na Universidade daPensilvânia

     Era um monstro de 30 toneladas e 18 mil válvulas electrónicas, que necessitava deum edifício próprio. Esta máquina era já capaz de fazer 500 multiplicações porsegundo! Tendo sido projectado para calcular trajectórias balísticas, o ENIAC foimantido em segredo pelo governo americano até o final da guerra, sendo apenasanunciado ao mundo após o fim desta.

  • 8/17/2019 MI Apontamentos 1

    3/19

    3

  • 8/17/2019 MI Apontamentos 1

    4/19

    4

    Mas para se chegar ao primeiro som produzido completamente por computador, épreciso esperar por 1957 e por Max Mathews, engenheiro no Laboratórios e deAcústica e Psicologia da companhia de telefones Bell em New Jersey.

  • 8/17/2019 MI Apontamentos 1

    5/19

    5

    Graças a um programa de computador a que chamaram muito naturalmente “Music”,em 17 Maio de 1957, o psicólogo Newman Guttman apresentou a 1 a  obracompletamente produzida por computador “In the Silver Scale" com a duração de 15segundos. Em 1960 foi editado o primeiro álbum de música criado em umcomputador:" Música de matemática " por John Robinson Pierce e Max Mathews.

    O disco contém, entre outras coisas, a primeira “canção” de um computador "BicycleBuilt for Two" (o canto do cisne do computador Hal 9000), que ficou famosa peloseu uso no filme de Stanley Kubrick "2001 Odisseia no Espaço".

    Este seria o Music I, outras versões mais evoluídas e flexíveis viriam rapidamente juntar-se à família “Music”.

  • 8/17/2019 MI Apontamentos 1

    6/19

    6

    Rapidamente outros engenheiros compositores se interessaram por este tipo deprogramas e contribuíram para o seu desenvolvimento, é o caso de John Cage, IannisXenakis, Morton Subotnick e John Chowning.

    Em 1968, e com a colaboração de vários outros programadores, Mathews lança oMUSIC V escrito em linguagem FORTRAN (FORmula TRANslator) e que corria nasmáquinas IBM 360. Tratava-se de uma linguagem organizada em módulos dediversos algoritmos que permitiam a geração e o controlo do som.

    Music V é ainda hoje a base de muitos programas de síntese e tratamento de somentre os quais o CSound. O Groove System (Generated Real-time Output Operationson Voltage-controlled Equipment), desenvolvido por Max Mathews e Richard Mooreem 1967, e que é o primeiro sistema de computador para tratamento de som em temporeal e estará na origem do programa Max/Msp/Jitter.

    O último membro da “família Music” foi o Music 11 desenvolvido no MIT por BarryVercoe. Desta “família” de linguagem de programação para síntese sonora digital

    sobreviveu até hoje, e com uma grande vitalidade, o CSound. (Extremamente eficaz,flexível e com o qual se pode fazer tudo, mesmo tudo o que se quiser, o limite éimaginação e claro, a capacidade de programação de cada utilizador.)

    Após esta brevíssima introdução mais histórica, passemos a algumas noções básicasnecessárias para iniciar a compreensão da síntese sonora e posteriormente aabordagem do CSound.

    2.  Algumas noções básicas

    a. 

    onda sonora

    O som é uma sensação perceptiva provocada por um fenómeno ondulatório de origemmecânica. Assim, mesmo os sons que qualificamos como produzidos digitalmente,necessitam de um sistema mecânico que produza variações de pressão num meiofluido, normalmente o ar, e permita a geração de ondulações e o seu transporte até aoouvido onde serão percebidas como sons.

    O fenómeno ondulatório gerador de som pode ser periódico ou não, ou ainda uma

    mistura dos dois. As variações periódicas produzem normalmente sons harmónicos,ou com uma certa componente harmónica. Os sons aperiódicos tendem a serpercebidos como inarmónicos ou ruídos.

    À representação destes fenómenos chama-se forma de onda.

    A forma de onda é caracterizadas pela sua evolução temporal e a sua amplitude. Acada ciclo da forma de onda chama-se período (T), e a frequência ( f) apresentada emHertz (Hz) é calculada pelo número de ciclos por segundo:

     f =1/T ou T=1/ f 

  • 8/17/2019 MI Apontamentos 1

    7/19

    7

    A amplitude, é a quantidade de variação de pressão medida no ponto mais forte destae é representada num intervalo de –1 a 1 (não esquecer que a amplitude real nunca énegativa). A unidade utilizada para medir a amplitude de uma onda depende do tipode onda, sendo normalmente o Decibel (dB) para ondas sonoras. (Muitos dossoftwares utilizam outras medidas, muitas específicas, havendo a necessidade de

    utilizar conversores para trabalhar em dB).

    Diversos tipos gráficos são utilizados para representar as ondas sonoras. Sonogramase espectrogramas são os mais comuns.

    b.  do analógico ao digital e vice-versa

    As vibrações produzidas pelas perturbações mecânicas podem ser captadas comosinais eléctricas por meio de dispositivos (por exemplo, um microfone), que converteestas vibrações em variações temporais de voltagem. O resultado da conversão échamado de sinal analógico, trata-se de um sinal contínuo no sentido de queconsistem de um continuo de valores.

    Todo o sinal sonoro captado é analógico, quando se grava um som com um microfoneestá a registar-se um sinal analógico. Este sinal pode ser depois convertido em digital,através de um conversor analógico-digital , ADC (analogue-to-digital converter).Através deste tipo de conversores o sinal é transformado em valores discretos.

    Ao contrario do sinal analógico que vai conter todos os valores presentes no sinal,sejam eles inteiros ou fraccionários, o sinal digital é descontínuo, pode apenas conterum número limitado de valores que vai depender do índice de amostragem.

     A conversão de um sinal analógico em digital inclui duas fases: a amostragem e aquantificação. Estas duas operações discretizam o sinal, ou seja, transformam o

    contínuo analógico num sinal discreto e é produzida uma listagem com registos de nvalores de amplitude amostrados a espaços de tempo regulares. A amostragem refere-

  • 8/17/2019 MI Apontamentos 1

    8/19

    8

    se à observação do valor do sinal analógico de entrada a intervalos de temporegulares1.

    O índice de amostragem (sampling rate - SR) indica a quantidade de vezes que o sinalé observado, medido, por segundo. O índice de amostragem é sempre uma potênciade 2, normalmente o sinal digital actualmente tem um índice de amostragem de 44100Hz2.

    A quantificação refere-se ao ajuste feito pelo sistema digital a uma grelha de valoresinteiros. Porque se de um sinal analógico resulta uma onda contínua, de um sinaldigital resulta uma grelha de valores em código binário – em bits - binary digit . 3

    c.  breve noção de instrumento

    Consideremos muito brevemente sobre a noção generalizada de instrumento assimcomo de alguns componentes necessários a um instrumento virtual.

    O que é então um instrumento?

    No “Traité des Objets Musicaux”, publicado em 1966, Pierre Schaeffer defineinstrumento musical da seguinte forma.

    “(…) todo e qualquer dispositivo que permite de obter uma colecção variada de

    objectos sonoros – ou de objectos sonoros variados – mantendo ao mesmo tempo a

     1 Para converter um sinal analógico para um formato digital, a voltagem é amostradaem intervalos regulares, milhares de vezes por segundo. O valor de cada amostra éarredondado para o inteiro mais próximo na escala de variação de acordo com agrandeza da resolução do sinal. Assim, quanto maior for a frequência de amostragem,mais fina será a resolução do sinal. A informação perdida entre cada duas amostraspode ser determinante para a recnstrução do sinal. Perdendo-se uma parte dainformação, Os inteiros são depois convertidos para números binários.

    2 O teorema de Nyquist diz que a frequência de amostragem de um sinal deve sersempre superior ao dobro da frequências máxima possível presente no sinal. Assim, e

    visto que no sinal digital as frequências podem ir normalmente apenas até cerca de20000 Hz, uma fidelidade correcta na reconstituição do sinal, a frequência deamostragem deve ser de pelo menos 44100Hz (> 20000*2).3  O sinal digital não é apenas discreto por ser “observado apenas” n  vezes porsegundo e se perderem os valores intermédios, mas mesmo estes valores são forçadosa adaptar-se a uma grelha. Esta perda pode ser determinante na reconstituição do sinalsonoro. É essencialmente este facto, mais o facto de todas as frequências acima de20000Hz serem cortadas, que a audição de um sinal digital é tão característica eincomodativa para alguns ouvidos formados e habituados ao sinal analógico,actualmente muito raro – apenas os discos de vinil e mesmo assim já não são todos,visto que algumas das gravações mais recente, depois que os DJ’s estão na moda, sãofeitas usando sinais já tratados digitalmente em algum momento.]]]]

  • 8/17/2019 MI Apontamentos 1

    9/19

    9

    uma certa sensação de permanência de uma causa, é um instrumento de música, no

    sentido tradicional de uma experiência comum a todas as civilizações.” (TOM p. 51)

    Esta é uma noção geral, um conceito de instrumento de certa forma intelectualizado,

    mas o que é realmente necessário para o obter, para construir um instrumento demúsica?

    De uma forma muito geral e extremamente redutora, podemos dizer que uminstrumento de música precisa de ter um componente produtor de som, um interfaceno sentido lato do termo: no sentido de conjunto de meios e dispositivos sobre osquais se pode agir afim de obter um determinado efeito. Este dispositivo permite aoinstrumentista de agir sobre o corpo do instrumento de modo a produzir ondasvibratórias que gerarão a sensação auditiva de som.

    Temos então um corpo ressonante e um interface que nos permite agir sobre ele. Esseinterface permite igualmente controlar o sinal sonoro produzido ao nível das suaspropriedades físicas e por consequência das suas qualidades percebidas. Isto é,essencialmente a frequência ou altura, o nível ou intensidade, e simultâneamenteoutros elementos mais difíceis de controlar com rigor a menos que trabalhemosdirectamente no interior do sinal sonoro, como sejam por exemplo a fase ou oespectro. Serão essencialmente estes os elementos básicos que, quando manipulados,permitirão produzir todo o tipo de sons, naturais ou artificiais, mecânicos ou digitais.

    Mas um instrumento virtual? Um instrumento digital, ou mesmo eléctrico, queelementos básicos precisa para existir? Que elementos são necessários para que umsistema eléctrico produza som? Para que corrente eléctrica, ou listagens de valoresdigitais possam ser transformados em fenómenos vibratórios cujas oscilaçõesmecânicas sejam capazes de fazer vibrar o ar à nossa volta de modo que ao atingir onosso sistema auditivo produzam a sensação de som?

    Deixemos para já estas questões em aberto e avancemos para um outro elementoaparentemente indispensável à música. A partitura.

    d.  breve noção de partitura

    O que é uma partitura?

    Certamente não é a música!

    Uma partitura é um conjunto de instruções representadas através de símbolosconvencionados e que poderão ser interpretados por quem conheça a linguageminscrita em cada partitura específica de modo a reconstituir a mensagem aí codificada.No nosso caso, transformar esses símbolos em sons musicais.

    Uma partitura é tradicionalmente uma lista de notas, durações e outros símbolos quepermitem ao intérprete, tradutor habilitado para a linguagem inscrita na partitura, a

    execução das notas, durações e “modes de jeu”de maneira a produzir tão fielmentequanto possível um determinado efeito sonoro.

  • 8/17/2019 MI Apontamentos 1

    10/19

    10

    Numa partitura temos então instruções sobre alturas, instruções sobre durações emodos de controlo dos sons produzidos. Guardemos estas ideias em mente. Elasajudarão a compreender o funcionamento do CSound.

    3.  Alguns componente de um instrumento de síntese

    Afim de facilitar a compreensão dos sistemas virtuais, ou instrumentos de síntesevirtuais, programados em vários tipos de plataforma, utilizam-se esquemasrepresentativos dos vários módulos ou unidades neles contidos, os parâmetrosdefinidos e a forma como se interligam e interagem entre eles. A estes esquemaschama-se diagramas de instrumento.

    Em música por computador, o termo instrumento refere-se a um algoritmo mais oumenos complexo que permite a produção de uma evento musical. Este algoritmocalcula cada um dos valores da onda sonora a gerar (a sintetizar)

    Oscilador: unidade geradoras

    Os osciladores são uma das principais unidades geradoras de ondas periódicas. Os parâmetros a definir são a amplitude, a frequência, a fase e a forma de onda.

    Controladores

    Os controladores são unidades que permitem controlar a evolução de algunsparâmetros sonoros ao longo do tempo. É com funções de controlo que são definidas,por exemplo, as envolventes dinâmicas e evoluções no “ pitch” (altura percebida dosom). Naturalmente, estas funções podem ser aplicadas a todos os elementos que

    numa síntese sonora podem ser objecto de variação ao longo do tempo.

  • 8/17/2019 MI Apontamentos 1

    11/19

    11

    Os controladores podem ser constituídos por geradores de linhas  (rectas ouexponenciais), e geradores de linhas ou de formas de onda (paramentados a umavelocidade de amostragem – “sample rate” – e a uma frequência baixas). Existemainda funções, ou algoritmos, geradores de linhas, que são específicos para o controlode envolventes dinâmicas simples.

     As envolventes dinâmicas necessitam de um mínimo de 4 parâmetros definidos porconjuntos de valores-tempo: ataque (início e fim)/tempo – sustento/tempo – queda(início e fim)/tempo. Os geradores específicos de envolventes dinâmicas necessitamnormalmente de menos informação por estarem preparados a calcular eles mesmos ostempos de ataque e queda a partir da relação entre o tempo total do som e o ponto deinicio e de fim da sustentação do som.

    O diagrama de um instrumento muito simples comportando uma envolvente dinâmicapode ser representado como na figura que se segue. O resultado da aplicação dessaenvolvente ao som está representado à direita:

    os controladores de amplitude podem ser indiferentemente inseridos directamente na

    entrada da amplitude do oscilador (ou outro gerador de som) como aplicados à suasaída.

  • 8/17/2019 MI Apontamentos 1

    12/19

    12

    As envolventes dinâmicas podem ser igualmente implementadas através do uso deosciladores que terão um “sample rate” baixo (de 256 a 1024, havendo necessidade deuma grande precisão os valores podem ser superiores)4.

    FunçõesAs funções matemáticas são igualmente importantes, e mesmo indispensáveis, aofuncionamento destes algoritmos virtuais, assim adições, subtracções, multiplicaçõese divisões, são utilizados para representar as conexões entre os viários módulos queconstituem o instrumento virtual.

    Outros

    Os instrumentos, mesmo virtuais, necessitam de ter entradas (para a ligação porexemplo a microfones), amplificadores e saídas.

    4.  Síntese aditiva

    A síntese aditiva foi um dos primeiros métodos utilizados para obter artificialmenteespectros sonoros rico. A análise acústica de sinais áudio mostra-nos que os sonsnaturais são, na realidade, composto de uma multiplicidade de componentes simples,sendo estes, no caso de sons periódicos com altura definível, múltiplos inteiros deuma frequência fundamental.

    O conceito de síntese aditiva surgiu desde a Idade Média, aquando da construção dosórgãos que, para uma altura determinada, podem incluir vários conjuntos de tuboscujos sons individuais, adicionando-se, contribuem para a produção de umdeterminado timbre. Mais tarde, ela foi determinante para a construísse e sucesso dealguns dos primeiros instrumentos eléctricos, (por exemplo o Telharmonium em

    1906 e o órgão Hammond).A síntese aditiva consiste na adição de vários osciladores com características própriasa nível de frequência e amplitude. O diagrama que se segue é exemplificativo dasíntese aditiva.

    Para a obtenção de timbres sintéticos convincente e ricos, que possuam umcomportamento que os aproxime de alguma forma dos sons naturais, será mudarcaracterísticas ao longo do tempo e do número de harmónicos presentes no sinal. 4 Um oscilador que tenha como função a produção de uma onda sonora terá ummínimo de 2048 “samples”, sendo mais normal 4096 ou 8192.

  • 8/17/2019 MI Apontamentos 1

    13/19

    13

    Estas variações são observáveis através da análise de sons instrumentais. O gráficoabaixo mostra o espectro de um som de trompete cujos parciais comportam variaçõesao logo do tempo. O tempo flui da esquerda para a direita e a nota fundamental é a demaior amplitude.

    As mudanças evolutivas de amplitude e frequência ao logo da duração da nota sãodeterminadas pela física do instrumento.

    Mas a síntese aditiva não tem como objectivo absoluto a reprodução de sonsinstrumentais. Mas com ela podem construir-se virtualmente tanto timbresinstrumentais, como outros originais e que não poderiam existir fora do mundovirtual.

    5.  Síntese por Modulação: conceitos básicos

    A síntese sonora por modulação permite de contornar um dos problemas maiscomplicados dos primórdios da síntese aditiva: ter capacidade suficiente nasmáquinas, nomeadamente em termos de número de osciladores e de possibilidades deos parametrizar individualmente, para a obtenção de timbres suficientemente ricos einteressantes musicalmente.

    A síntese por modulação é interessante por permitir a produção de espectros ricosutilizando poucos recursos tanto a nível do número de osciladores como dasparametrizações necessárias e igualmente em tempo de cálculo.

    O que é a modulação

    Para obter um fenómeno de modulação é necessário ter um mínimo de doisosciladores. A ideia básica é utilizar um sinal para fazer variar – modular – um dosparâmetros de um outro sinal.

    Em função do parâmetro tratado assim como da forma de efectuar essa operação, diz-se que se efectua uma modulação de amplitude, modulação em anel ou modulaçãode frequência.

    (Musicalmente uma modulação de amplitude lenta corresponde a um trémulo,enquanto uma modulação lenta aplicada à frequência corresponde a um vibrato.)

    A terminologia utilizada é a introduzida aquando das suas primeiras utilizações pelos

    técnicos de rádio: AM para modulação de amplitude (amplitude modulation) ; FM

  • 8/17/2019 MI Apontamentos 1

    14/19

    14

    para modulação de frequência ( frequency modulation); RM   para modulaçnao emanel (ring modulation).

    Ao sinal sobre o qual se vai aplicar o processo de modulação chama-se ondaportadora (carrier signal), enquanto à onda utilizada para efectuar a modulação sechama modulante (modulating signal).

    6.  Síntese por Modulação de Amplitude (AM)

    A modulação de amplitude e a modulação em anel são duas técnicas muito próximas,a diferença estando apenas na forma de aplicar a modulante.

    No caso da modulação de amplitude, a técnica mais usual é a implementação de umoscilador (sinal modulante), com uma determinada frequência na amplitude dooscilador da onda portadora. Esta implementação é feita através da adição da ondamodulante à amplitude da onda portadora.

    A nível perceptivo, a aplicação de um sinal modulante de frequência inferior a 20Hzcorresponderá a um trémulo.

      O espectro do sinal resultante pode ser calculado adicionando e subtraindo àfrequência portadora a frequência da modulante - ( f P + f  M  ) et ( f P - f  M  ). No caso deuma onda sinusoidal, será produzido um espectro com 3 parciais:

  • 8/17/2019 MI Apontamentos 1

    15/19

    15

    Se a frequência portadora for de 1000 Hz e a modulante de 400 Hz, então teremos umespectro de 600 Hz, 1000 Hz, 1400 Hz.

    No caso da modulação de amplitude, o parcial correspondente à frequência portadoramantém-se presente no espectro resultante.

    Logicamente, quanto mais ricos for o espectro da onda portadora mais rico será oespectro resultante.

    A relação entre a frequência portadora e a modulante, assim como a intensidade damodulante (índice de modulação) contribuem para a determinação da amplitude dasbandas laterais. (No caso de índice de modulação = 1, portadora e modulante têm amesma amplitude, as bandas laterais terão uma amplitudes de 1/2, como na figuraprecedente).

    7.  Síntese por Modulação em Anel (RM)

    A designação de “modulação em anel” surgiu de uma tecnologia de analógica quepermitia a multiplicação de dois sinais bipolares5.

    A modulação em anel realizada por computador pode ser representada pelo diagramaseguinte:

     5 Um sinal bipolar corresponde a uma onda que tem uma amplitude que vai de –1 a 1(portanto, que tem um pólo negativo e outro positivo), enquanto um sinal unipolarserá aquele cuja amplitude está compreendida entre 0 e 1.

  • 8/17/2019 MI Apontamentos 1

    16/19

    16

    Uma onda modulante é directamente “enviada” para a entrada da amplitude dooscilador gerador da onda portadora. Multiplicar dois sinais, neste caso, é o mesmoque dizer que um deles vai ser a amplitude do outro (ou a sua variação).

    O conteúdo espectral da onda resultante pode ser calculado pela soma e subtracçãoentre a frequência portadora e a frequência da modulante - ( f P + f  M  ) et ( f P - f  M  ). Noentanto, ao contrário da síntese por modulação de amplitude, a frequênciacorrespondente à onda portadora tende a desaparecer.

    Se o sinal da portadora é complexo (composto por vários parciais) e do sinalmodulante uma onda sinusoidal, cada um dos parciais da onda portadora permitirá aprodução de um par de parciais que corresponderá às suas somas e diferenças com a ofrequência modulante.

    Se os sinais multiplicados são os dois complexos, então o espectro resultante seráainda mais rico por conter as somas e diferenças entre todas as frequências parciaisconstituintes dos dois sinais sonoros envolvidos

    Os sons resultantes da modulação de anel são geralmente de natureza inarmónica epor vezes ruidosa, especialmente se as duas fontes são complexa.

    Quanto mais complexos são os sinais envolvidos em processos de modulação maisriscos existes da aparição de fenómenos de oposição de fase.

    Como qualquer outro tipo de modulação é geralmente acompanhada de umalargamento do espectro através da geração de “bandas laterais”, teremos de estarconscientes dos riscos da rebatimento de parciais que se apresentarias em zonasteoricamente negativas (e que são rebatidas “automaticamente” para as regiõespositivas com oposição de fase), ou frequências excessivamente altas, que porultrapassarem a frequência de Nyquist6 são rebatidas para o grave.

     6 De acordo com o Teorema de Nyquist, o índice de amostragem de um sinal, deveser maior que o dobro da frequência mais alta contida no sinal. Ou seja, se osistema, como o digital actual, limita a amostragem a 44100/s, então a frequênciamais alta que pode conter o nosso sinal será de 22049. A metade da frequência deamostragem é chamada frequência de Nyquist e corresponde ao limite máximo defrequência do sinal que pode ser reproduzido.Como não é possível garantir que o sinal não contenha sinais acima deste limite(distorções, interferências, ruídos, etc...), os rebatimentos podem acontecer.Ultrapassado este limite as ondas serão rebatidas para o grave.Para prevenir estes “incidentes” que dependem em absoluto do funcionamento e dascapacidades da tecnologia digital, são usados filtros passa baixos cuja frequência decorte é igual ou inferior à frequência de Nyquist.

  • 8/17/2019 MI Apontamentos 1

    17/19

    17

    Estes “incidentes” podem provocar a duplicação de frequências com relações de faseque afectem profundamente o espectro e em consequência o timbre percebido.

    8.  Síntese por Modulação de frequência (FM)

    A modulação de frequência foi um marco importante no desenvolvimento dosmétodos modernos de síntese de som.

    Este tipo de síntese, explorando a mesma banda de frequências áudio que ermutilizadas nas transmissões radiofónicas (ditas FM, ou frequência modelada) foidescoberta em 1967 no departamento de música da Universidade de Stanford porJohn Chowning. (Uma variante deste tipo de síntese -modulação de fase, foiimplementada no famoso sintetizador DX7 da Yamaha.

    Nas transmissões rádio, o processo envolve a modulação de frequência aplicada umaonda portadora, contendo a informação a ser transmitida. A frequência da portadora

    de um sinal rádio FM é da ordem de várias centenas de mega-hertz (108 Hz, na zonados ultra-sons).

    Quando esse método é aplicado à síntese de som, a frequência portadora é trazida paraa banda das frequências audíveis (~20 a ~20 000 Hz) ficando a frequênciasmoduladora também dentro das frequências audíveis (mas inferiores à portadora) ouaté no limiar dos infra-sons.

    Se a frequência de modulação é inferior a 8 Hz, o resultado da modulação é umvibrato. Imagine o violinista que produz um vibrato variando rapidamente ocomprimento da corda (logo a altura resultante), através do movimento do punho ededo na corda. No entanto, logo que essa frequência se aproxima ou ultrapassa os 20

    Hz, começam a formar-se bandas laterais de parciais e obtemos uma modulação quetransforma o timbre.

    A forma mais simples de implementar a modulação de frequência é adicionar àfrequência da onda portadora o oscilador correspondente à modulante:

  • 8/17/2019 MI Apontamentos 1

    18/19

    18

    18O espectro resultante contém a frequência da portadora e duas bandas laterais defrequências distribuídas simetricamente em torno da frequência portadora, cujosparciais se encontram a distancias correspondentes a adicionar e subtrair asfrequências dos parciais entre si.

    Exemplo: se a fraquência portadora (P) é de 800 Hz e a frequência de modulação (M)é de 200 Hz, as bandas laterais contêm os seguintes componentes:

    P - M = 600 Hz P + M = 1000 Hz

    P - 2M = 400 Hz P + 2M = 1200 Hz

    P - 3M = 200 Hz P + 3M = 1400 Hz

    etc ..

    Neste caso a relação de frequências P : M é um valor inteiro: o resultado será umaespécie de espectro harmónico.

    Se a relaçnao P : M não não forr inteira mas por exemplo de 8: 2,1, o espectroresultante é inarmónico.

    Relação: 8: 2,1

    P = 800 Hz e M = 210 Hz, as frequências das bandas laterais serão as seguintes:

    P - M = 590 Hz P + M = 1010 Hz

    P - 2M = 380 Hz P + 2M = 1220 Hz

    P - 3M = 170 Hz P + 3M = 1430 Hz

    etc ..

  • 8/17/2019 MI Apontamentos 1

    19/19

    19

    Se o sinal da portadora for complexo, e portanto contiver vários parciais, estas bandaslaterais vão formar-se em torno de cada uma das parciais. Isso resulta em umenriquecimento considerável do espectro.