65
Alexandre C. B. Ramos Rua Vicente Vilela Viana, 391. Apto. 8. Cruzeiro. Cep.: 37500-228. Itajubá. MG. Tel.:(035) 3629-1428 Cel.: (012) 8129-690 [email protected] http://www.ici.unifei.edu.br/ramos SISTEMAS MULTIMÍDIA Teoria, ferramentas e aplicações.

SISTEMAS MULTIMÍDIA · HASIMOTO, SHUJI. Multimedia ... Os elementos de multimídia são colocados juntos em um projeto utilizando-se de programas de autoria, que são ferramentas

Embed Size (px)

Citation preview

Alexandre C. B. Ramos Rua Vicente Vilela Viana, 391. Apto. 8. Cruzeiro.Cep.: 37500-228. Itajubá. MG.Tel.:(035) 3629-1428 Cel.: (012) [email protected]://www.ici.unifei.edu.br/ramos

SISTEMAS MULTIMÍDIA

Teoria, ferramentas e aplicações.

ÍndiceObjetivos....................................................................................................................................................................1

Programa do curso.....................................................................................................................................................1

Bibliografia..................................................................................................................................................................1

Introdução..................................................................................................................................................................2

Programas de autoria.................................................................................................................................................3

Projeto multimídia.......................................................................................................................................................3

Exercícios...................................................................................................................................................................4

Textos em multimídia..................................................................................................................................................5

Fontes e faces............................................................................................................................................................6

Tamanhos e estilos de fontes.....................................................................................................................................6

Diferenças entre caracteres iguais..............................................................................................................................7

A serifa.......................................................................................................................................................................8

Exercícios...................................................................................................................................................................9

Áudio em multimídia.................................................................................................................................................10

Musical instrument digital interface - MIDI..................................................................................................................13

Digital áudio tape - DAT............................................................................................................................................14

O Som Profissional...................................................................................................................................................15

Padrões de Compactação.........................................................................................................................................15

Exercícios.................................................................................................................................................................16

Características da Visão...........................................................................................................................................18

Imagens em multimídia.............................................................................................................................................19

Resolução de imagens.............................................................................................................................................19

Resolução de imagens.............................................................................................................................................20

O Formato GIF.........................................................................................................................................................22

O Formato JPG........................................................................................................................................................23

Exercícios.................................................................................................................................................................24

Animações em multimídia.........................................................................................................................................25

Métodos tradicionais de animação............................................................................................................................25

Qualidade versus tamanho em animações................................................................................................................26

Looping e morphing..................................................................................................................................................27

Exercícios.................................................................................................................................................................28

Periféricos e plataformas de multimídia.....................................................................................................................29

Tipos de plataformas................................................................................................................................................29

Tipos de periféricos ..................................................................................................................................................30

Teclados...................................................................................................................................................................30

Mouse, joystick e TrackBall.......................................................................................................................................31

Scanner....................................................................................................................................................................31

Monitores de vídeo e projetores................................................................................................................................32

Exercícios ................................................................................................................................................................35

Software de autoria de multimídia.............................................................................................................................36

Software de autoria de multimídia – baseado em páginas.........................................................................................36

Software de autoria de multimídia – baseado no tempo.............................................................................................37

Comparação entre o ToolBook e o Director...............................................................................................................37

Extensões e facilidades............................................................................................................................................38

Acesso a banco de dados.........................................................................................................................................38

Distribuição e execução............................................................................................................................................39

Exercício...................................................................................................................................................................40

Psicologia Cognitiva..................................................................................................................................................41

Modelos mentais.......................................................................................................................................................41

A memória................................................................................................................................................................42

A memória conexionista............................................................................................................................................43

A memória cibernética computacional.......................................................................................................................43

A percepção.............................................................................................................................................................45

A percepção visual....................................................................................................................................................46

Percepção auditiva...................................................................................................................................................46

Percepção da fala.....................................................................................................................................................47

Percepção orientada.................................................................................................................................................47

Exercícios.................................................................................................................................................................48

Desenvolvimento de projeto de multimídia................................................................................................................49

Questões importantes...............................................................................................................................................49

Desenvolvimento de um projeto................................................................................................................................50

Estimativa de custos.................................................................................................................................................51

Exercícios.................................................................................................................................................................51

Produção de multimídia............................................................................................................................................52

Preparação do conteúdo...........................................................................................................................................53

Testes......................................................................................................................................................................53

Exercícios.................................................................................................................................................................54

Introdução................................................................................................................................................................55

Hardware..................................................................................................................................................................55

Características da RV imersiva.................................................................................................................................57

A RV não imersiva....................................................................................................................................................58

A linguagem VRML...................................................................................................................................................58

Projeto de animações com VRML.............................................................................................................................59

Exercícios.................................................................................................................................................................61

Índice de figuras

Capítulo

1IntroduçãoObjetivos, programa do curso e bibliografia.

Objetivos

Descrever as partes fundamentais da multimídia agrupando-as com a tecnologiae as ferramentas da atualidade.

Programa do curso

1. Evolução da comunicação entre homem e máquina: ambientes textuais;ambientes gráficos; ambientes multimídia.

2. O Texto: o poder do significado; fontes e faces; utilizando texto namultimídia.

3. O Áudio: propriedades físicas do som; representação digital do som;processamento digital do som; utilizando áudio na multimídia.

4. A Música e a Voz: técnicas de síntese digital de som; sistemas MIDI;processamento de voz; utilizando música e voz na multimídia.

5. As Imagens: representação digital de imagens; processamento daimagem; os desenhos; a terceira dimensão; utilizando imagens namultimídia.

6. O Vídeo: tecnologia digital de vídeo, armazenamento e princípios decompressão; edição digital de vídeos; utilizando vídeo na multimídia.

7. A Animação: animação e computadores; animação bidimensional etridimensional; animação em tempo real; utilizando animação namultimídia.

8. Hipermídia: hipertexto estático e dinâmico; linguagens scripts em clientese servidores; utilizando hipermídia.

9. Produção de Multimídia: ferramentas para produção de multimídia;plataformas de produção e periféricos; softwares de autoria; os estágiospadrões e técnicas para projeto multimídia.

Bibliografia

1. FILHO, W.P.P. Multimídia conceitos e aplicações. Rio de Janeiro, RJ., Ed.LTC.2000. 321 p.

2. LOWE, DAVID; HALL, WENDY. Hypermedia and the web. New York, NY,John Wiley & Sons. 1999. 626p.

3. HASIMOTO, SHUJI. Multimedia Modeling – Modeling Multimedia Informationand Systems MMM 2000. Nagano, Japan 13 – 15 November 2000. RiverEdge, NJ, World Scientific Publishing Co., Inc. 2000. 512 p.

4. NIELSEN, J. Multimedia and hypertext: the internet and beyond. EUA,Academic press professional, 1995.

5. 5. FBHATNAGER, G., MEHTA, S. MITRA, S. Introduction to MultimediaSystems. Academic Press, 2002.

1

Capítulo

2O que é multimídiaConceitos Fundamentais

Introdução

Através dos nossos sentidos podemos perceber e interagir com o nossomundo. Esses sentidos, principalmente a audição e a visão, desde o berço, são osprimeiros que utilizamos nesta interação. Nossos órgãos sensores enviam sinais aocérebro e, a partir do reconhecimento desses sinais, são formadas informações arespeito de nossa interação com o meio em que estamos. O processo de comunicaçãoentre as pessoas depende, em grande parte, de nosso entendimento desses sentidosde tal forma que, quando a informação é percebida tanto mais efetiva é acomunicação.

Por exemplo, quando escrevemos uma carta a alguém descrevendo umaviagem interessante. A pessoa que lê a carta não tem outra informação senão o textoescrito. A comunicação viaja apenas em uma direção. Precisamos esperar uma cartaresposta para saber a reação da pessoa. Agora suponha que você tenha enviado umafoto, a quantidade de informação transmitida melhorou bastante o entendimento daoutra pessoa. O entendimento da viagem melhoraria bastante se enviássemos umvídeo.

Por outro lado, quando falamos com alguém ao telefone. O que é perdidoneste tipo de comunicação, em relação a uma conversação face a face? Neste caso,não podemos ver o nosso interlocutor. Muito menos os gestos e expressões queacompanham a conversação os quais são de grande importância na comunicação.Em um sistema de vídeo conferencia podemos observar todas estas característicasque faltam. Meios de comunicação do tipo carta ou telefone restringem o uso devários elementos. Podemos observar, então que quanto mais informação for enviada,melhor o impacto desta.

O desenvolvimento dos computadores também tem contribuído paramelhorar a comunicação, visto que os primeiros terminais só permitiam informaçõesdo tipo texto, entretanto foram evoluindo até chegar aos dias atuais computadorespessoais que fornecem informações contendo som, figuras, vídeos etc. a baixo custoe alto desempenho. Nesse contexto podemos definir:

• Multimídia é qualquer combinação de texto, arte gráfica, som, animação e vídeotransmitidos pelo computador.

• Multimídia Interativa, quando se permite ao usuário o controle de quando e quaiselementos serão transmitidos.

• Hipermídia, estrutura de elementos vinculados pela qual o usuário pode mover-se.

A maior diferença entre as mídias tradicionais tais como rádio e televisão e amultimídia digital é a noção de interatividade. Os computadores permitem aos usuários ainteração com os programas. Essa interação é tão importante que pode ser consideradacomo parte integrante da multimídia.

2

Programas de autoria

Os elementos de multimídia são colocados juntos em um projeto utilizando-se deprogramas de autoria, que são ferramentas de software projetadas para controlar oselementos de multimídia e propiciar interação ao usuário. Os programas de autoriafornecem:

• Métodos para que os usuários interajam no projeto.• Facilidades para criar e editar texto, imagens etc.• Gerenciamento de periféricos.

Os programas de autoria fornecem a estrutura necessária para organizar eeditar os elementos de um projeto multimídia, incluindo gráficos, sons, animações evideoclipes. Estes programas são utilizados para o desenvolvimento da interatividade eda interface do usuário, para apresentar seu projeto na tela e para agrupar os elementosde multimídia em um projeto único e coeso.

Estas ferramentas fornecem um ambiente integrado para a combinação doconteúdo e das funções do projeto. Os sistemas normalmente incluem a habilidade decriar, editar e importar tipos específicos de dados; juntar dados brutos em umaseqüência de reprodução; e fornecer um método ou linguagem estruturada pararesponder a entradas do usuário.

Projeto multimídia

Antes de começar um projeto multimídia, deve-se desenvolver uma direção doseu escopo e conteúdo. Para tanto se faz necessário formar, em nossa mente, uma idéiacoesa na medida em que se pensa em vários métodos disponíveis para transmitir asmensagens aos usuários.

Depois é essencial que seja desenvolvido um esboço organizado e umplanejamento sensato em termos de quais habilidades, tempo, orçamento, ferramentas erecursos estão disponíveis.

O software, as mensagens e o conteúdo apresentado na interface humanaconstituem junto, um projeto de multimídia. Um Projeto de Multimídia não precisa serinterativo visto que os usuários podem conectar-se para agradar olhos e ouvidos assimcomo faz o cinema e a televisão. Tipos de projeto multimídia

• Linear, quando começa num ponto e é executado até o fim, por exemplo:filmes, cinema ou televisão.

• Não linear, (ou interativo) quando o controle da movimentação pelo conteúdoé permitido aos usuários à sua própria vontade.

Determinar como um usuário irá interagir e movimentar-se pelo conteúdo de umprojeto requer grande atenção nas mensagens, esboço, arte-final e na programação. Umbom projeto pode ser estragado se tiver uma interface mal projetada ou com o conteúdoinadequado ou incorreto. Um Projeto de Multimídia é multidisciplinar e exige delegaçãode tarefas de acordo com a habilitação e a competência de cada membro do grupo.

Alguns projetos de multimídia podem ser tão simples que se podem substituirtodos os estágios de organização, planejamento, produção e teste por um único trabalho,fazendo a multimídia instantaneamente, por exemplo, em uma apresentação de umareunião semanal sobre a performance da produção da empresa em que sejam inseridossons de arquivos Midi ou Wave. Entretanto em projetos mais complexos, faz-senecessário sua divisão em vários estágios.

3

Exercícios

1. Faça uma lista de todos os programas que você conhece que permitam a inclusão desons, fotos, animações e vídeos. Quais desses programas você já utilizou?

2. Quais dos seguintes meios são interativos? Justifique.

a. Uma transmissão de rádio.b. Um programa de entrevistas na TV.c. Um jornal.d. Um jogo de computador.

3. Faça uma lista de 3 programas de autoria que você tenha conhecimento.

4. Dê dois exemplos de aplicativos multimídia com projeto linear e não linear.

4

Capítulo

3Textos

Textos em multimídia

Os primeiros textos escritos em placas de lama deixadas ao sol para endurecer,datam de aproximadamente 6.000 anos e foram encontrados na região da Mesopotâmia.Nessa época somente os membros das classes do governo e os sacerdotes podiam ler eescrever os sinais pictográficos e cuneiformes.

As mensagens mais antigas eram palavras escritas e continham informaçõesvitais para o controle do povo, de políticos e de taxas. Como este novo meio decomunicação não requeria memorização, as mensagens tornaram-se populares entre aelite, na fig. 3.1 podemos observar um exemplo da escrita cuneiforme. Além das cópiasque podiam ser feitas, estas novas mensagens eram mais vantajosas porque, ainda quefossem interceptadas por inimigos ou competidores, elas só seriam decifradas por quemtivesse aprendido a ler, naquela época leitura e escrita estavam diretamente relacionadascom o poder.

Figura 3.1 – A escrita cuneiforme dos Babilônios e Assírios1.

Atualmente a maioria das pessoas detém o conhecimento da leitura e da escrita eainda hoje o domínio destas são caminhos para o poder e para o conhecimento, poisrepresentam à base da sociedade moderna e da identidade de um povo.

Mesmo uma única palavra pode ser coberta de significados; então, à medida quese começa o trabalho em um meio de comunicação, torna-se importante cultivar aexatidão e a clareza escolhendo bem as palavras. Na multimídia, as melhores palavrasaparecerão em títulos menus e ajudas de movimentação pelo texto.

Palavras e símbolos, falados ou escritos, são os sistemas mais comum decomunicação. A exatidão e a clareza nos textos escritos devem receber um cuidadoespecial, devido ao fato de que uma palavra pode ter vários significados. Os rótulos sãomuito importantes para designar as telas de títulos, menus e botões da multimídia por

1 A escrita cuneiforme constava de 600 caracteres cada um dos quais representando palavras ousílabas.

5

meio da utilização de palavras que tenham significados precisos e fortes o suficiente paraexpressar o que você precisa dizer, por exemplo:

• VOLTE! Pode ser mais forte do que Vá para a anterior; • Saia! Pode ser mais forte do que Feche.

Fontes e faces

Quando o computador desenha a letra A na tela ou na impressora, deve sabercomo representá-la. Ele faz isso de acordo com o hardware disponível e com a suaespecificação de escolha de tipos e fontes disponíveis. Monitores de alta resolução eimpressoras podem tornar a aparência dos caracteres mais atraente e variada.Atualmente a ampla seleção de programas de fontes ajuda a encontrar a face e a fonteadequadas às necessidades do projeto.

A A A A A A A A AFigura 3.2 – O caractere A representado em diferentes fontes.

Uma Face é uma família de caracteres gráficos que normalmente inclui muitostamanhos e estilos de tipos. Uma Fonte é um conjunto de caracteres de um únicotamanho e estilo pertencente a uma família de face particular. Na fig. 3.2 podemosobservar as diferenças existentes na grafia do caractere À ao utilizarmos fontesdiferentes.

Tamanhos e estilos de fontes

Tamanhos e tipos geralmente são expressos em pontos; um ponto corresponde a0,0138 polegadas ou aproximadamente 1/72 de uma polegada. Os Estilos normais dasfontes são: negrito, itálico (oblíquo) e sublinhado; outros atributos como contorno decaracteres pode ser adicionado pelo programa, por exemplo:

• Arial, Times New Roman e Courier New são exemplos de faces.• Times 28 pontos itálico é uma fonte.

Figura 3.3 - Caixa de formatação de texto do MS-Word.

É comum confundir os termos fonte e face. Dependendo do tipo do computador(PC, Macintosh etc.) caracteres identificados em uma fonte podem oferecer diferenças deformato e tamanho.

6

Diferenças entre caracteres iguais

Os caracteres identificados em uma fonte em particular (por exemplo, CourierNew 12 pontos) não se parecem quando se comparam os ambientes Macintosh eWindows. Um tamanho de ponto não descreve exatamente a altura ou a largura dos seuscaracteres, podendo variar de acordo com a resolução dos monitores. Isso aconteceporque a altura x (a altura da letra minúscula x, veja na fig. 3.4) de duas fontes podevariar embora a altura das letras minúsculas destas fontes possa ser a mesma.

Figura 3.4 - Atributos de caracteres.

A distância da parte superior das letras maiúsculas até a parte inferior das letras descendentes (como as letras g e y) normalmente define o tamanho de uma fonte docomputador. As fontes de computador adicionam espaço abaixo das letras descendentes(e algumas vezes acima) para fornecer o espaçamento de linha ou entrelinhamentoapropriado. O entrelinhamento pode ser ajustado no computador com as opções linha eponto, na fig. 3.5 observamos a janela de ajuste de entrelinhamento do MS-Word.

Fig.3.5 - Ajuste de entrelinhamento do MS-Word.

Quando o tipo era definido à mão, o tipo de uma única fonte era semprearmazenado em duas caixas:

• Alta, letras maiúsculas (caixa alta) e;• Baixa, letras minúsculas (caixa baixa).

Em algumas situações, como em senhas, o computador é sensível à caixa. Masna maioria das situações que requerem entrada pelo teclado o computador reconhece asformas da caixa alta e caixa baixa de um caractere como iguais. Estudos mostram que

7

palavras e frases com letras com caixas alta e baixa misturadas são mais fáceis de ler doque todas elas em caixa alta.

Antigamente, para se escrever um caractere, era necessário procurar os formatosem uma tabela de mapa de bits contendo uma representação de cada caractere em todosos tamanhos. Atualmente existem formatos que descrevem cada caractere em termos deconstruções matemáticas, por ex.: Postscript (curvas de Bisei) e Truetype (curvasquadráticas); principais vantagens:

• Melhor definição do caractere, em qualquer definição tanto com 10 pontosquanto com 100 pontos e;

• Maior velocidade de impressão.

As fontes de mapa de bits, Truetype e Postscript não são apresentadas (ouimpressas) exatamente da mesma forma, embora possam compartilhar o mesmo nome etamanho. Fórmulas diferentes são utilizadas pelas três tecnologias. Isso significa que aquebra de palavra em um campo de texto pode mudar. Sendo assim deve-se ter cuidadoao criar um campo ou botão que ajuste precisamente o texto apresentado com a fontePostscript, este, ao ser apresentado com a mesma fonte Truetype poderá ser truncado ouquebrado, destruindo o layout do botão.

Ao se imaginar um projeto multimídia que não tenha nenhum texto, o seuconteúdo poderia não ser absolutamente complexo, entretanto o projetista precisariautilizar muitas figuras e símbolos para orientar o público a movimentar-se pelo projeto.Certamente voz e som poderiam cumprir esta tarefa, mas o público logo ficaria cansadovisto que prestar atenção nas palavras faladas requer mais esforço do que procurar umtexto.

Palavras e símbolos em qualquer forma, falada ou escrita, transmitem umsignificado compreensível e amplamente compartilhado por um número maior depessoas – com exatidão de detalhes. Um item exclusivo do texto de um menuacompanhado por uma única ação (clique do mouse, ou o pressionar de uma tecla, ou omonitor de vídeo, com o dedo) requer um pequeno treinamento e deve ser claro eimediato. Deve-se usar texto em títulos e cabeçalhos (sobre o que se está falando), emmenus (para onde ir), para movimentar-se (como chegar lá) e para o conteúdo (o que serávisto quando chegar lá).

Na elaboração de um sistema de movimentação, deve se levar o usuário a umdestino em particular com poucas ações e no mínimo tempo possível. Se o usuário nãoprecisar do botão Ajuda para chegar lá, significa que o projeto está no caminho certo.

A serifa

Assim como a propaganda de uma casa pode ser feita por um corretor de imóveis,um vinho pode ser lembrado de diferentes maneiras pelos críticos de culinária e aplataforma de um candidato político também pode variar, as faces podem ser descritasde muitos modos. O tipo do caractere tem sido caracterizado como feminino, masculino,delicado, formal, cômico, jornalístico, técnico etc. Entretanto há um método para acategorização de faces que é universalmente entendido, e ele tem menos a ver com aresposta do leitor em relação ao tipo do que com as propriedades mecânicas e históricasdo tipo. Este método utiliza os termos serif e sans serif.

Serif e sans serif é o modo mais simples de categorizar uma face; o tipo tem umaserifa ou não. Serifa é um pequeno arremate ou decoração no final de uma letraretocada, exemplo de fontes:

• Com serifa: TIMES, COURIER, ANTIQUA; normalmente usadas para o corpodo texto, pois ajuda a guiar os olhos do leitor ao longo da linha.

8

• Sem serifa: ARIAL, CENTURY, LUCIDA; normalmente usadas paracabeçalhos e especificações em negrito, pois são mais legíveis em tamanhopequeno.

A escolha das fontes tanto na mídia impressa quanto na multimídia é de grandeimportância para o entendimento do assunto, nesse contexto apresentamos a seguiralgumas regras para a utilização de fontes:

1. Após selecionar as fontes, peça a opinião de outras pessoas; aprender areceber críticas.

2. Para tipos pequenos utilize a fonte mais legível disponível; descartar asilegíveis.

3. Usar o mínimo possível de faces diferentes no mesmo trabalho; variar aaltura e tamanho.

4. Em parágrafos, evitar linhas muito juntas, pois são difíceis de ler.5. Variar o tamanho da fonte de acordo com a importância da mensagem.6. Em cabeçalhos grandes, ajustar o espaço entre as letras (ranhura) para

que fique na proporção certa.7. Explorar diferentes cores para realçar um tipo ou torná-lo mais legível;8. Utilizar texto com o efeito anti-aliasing que permite uma transição entre a

letra e seu fundo (pontilhando as bordas das letras).9. Textos em várias cores, alterados ou distorcidos graficamente: dentro de

uma esfera, por exemplo, atraem a atenção.10. Sombreamentos podem ser feitos colocando-se uma cópia transparente

da palavra no topo do original e ressaltando-se o original alguns pixéispara cima e pintando-se a outra de cinza (por exemplo).

Para trabalhos mais elaborados, existem diversas ferramentas de edição de fontesdisponíveis na internet, com elas pode-se criar novos tipos de fontes. Dependendo daaplicação a utilização de novos tipos de fontes pode trazer problemas incalculáveis.

Exercícios

1. Indique quais fontes são com serifa e sem serifa: bookman, comic, garamond, gothic,technical e verdana.2. Quais fontes do exercício anterior são mais fáceis de ler no papel? Por quê? 3. Desenvolver um texto (com no máximo 3 páginas) a respeito de um protótipo deprojeto multimídia, para promoção de um curso superior (Ciência da Computação ouEngenharia da Computação). O texto deve utilizar fontes definidas por você e osconceitos e regras de definição e criação de textos e fontes descritos nas seçõesanteriores.

4. Programe e publique uma página Web. Nesta página serão publicados todos osexercícios, projetos e seminários que você fizer para a disciplina, além dessasinformações, você poderá colocar:

1. Informações a seu respeito, tais como nome, matrícula, hobies etc.2. Seu curriculum vitæ.3. Links para sites favoritos.

Capítulo

4Áudio

9

Áudio em multimídia

O ouvido humano, mostrado em detalhes na Fig. 4.1, é o órgão responsável pelanossa audição e pelo nosso equilíbrio. O ouvido encontra-se dividido em três partes: oouvido externo, o ouvido médio e o ouvido interno. O ouvido externo é constituído pelopavilhão auditivo, pelo canal auditivo e pelo tímpano e é responsável pelo direcionamentodas ondas sonoras para as regiões mais internas do ouvido.

Figura 4.1 – O ouvido humano.

O ouvido médio que se encontra após o tímpano é constituído por três ossosinterligados, o martelo, a bigorna e o estribo, onde as ondas sonoras são amplificadas. Éigualmente constituído pela trompa de Eustáquio que mantém a pressão nesta zona. Oouvido interno é onde se situam as estruturas responsáveis pelo equilíbrio e pelaconversão das ondas sonoras em sinais elétricos é constituído pela cóclea, órgão quedistingue a freqüência e a intensidade do som, os canais semicirculares e o nervoauditivo.

A vibração de alguma coisa produz como resultado várias ondas de pressão emtodas as direções e, uma vez chegando aos tímpanos experimentamos estas vibraçõescomo sons. No ar, e ao nível do mar, o som se propaga a uma velocidade de ~1.207Km/h (1 Mach).

Som é energia, como a das ondas que quebram em uma praia; muito volumepode danificar os mecanismos delicados de recepção de som dos tímpanos. Os níveis depressão do som (intensidade ou volume) são medidos em decibéis ou dB; uma medida dedecibel é a taxa entre um ponto de referência escolhido em uma escala logarítmica e onível que realmente é experimentado.

A percepção da intensidade do som depende de sua freqüência (ou pitch); embaixa freqüência, é necessário mais potência para transmitir a mesma intensidade de umdeterminado som nas faixas de media e alta freqüências. Pode-se sentir o som mais doque ouvi-lo, por exemplo:

• Acima de 90 dB num local de trabalho, as pessoas provavelmente cometerãomais erros em tarefas que exigem concentração, principalmente se o ruído forem alta freqüência.

• Acima de 80 dB é quase impossível usar o telefone.• O ponto de referência para nenhum som é de 10 a 12 Watts.

10

• Ao quadruplicar a potência de saída de som aumenta-se de 6 dB o nível depressão do som; ao gerar um som 100 vezes mais potente, o aumento em dBé aumentado de 20 dB (e não cem vezes).

O som é um elemento chave na comunicação. Basta imaginar o efeito resultante deum aparelho de televisão apresentando um programa onde o volume estejaextremamente alto, ou mesmo a parada total do som no meio da projeção de umfilme. A presença do som amplia bastante o efeito de uma apresentação gráfica,especialmente em um vídeo ou em uma animação. O ser humano percebe o som emuma faixa extraordinariamente ampla, por exemplo:

• Sussurro muito baixo: 30 dB ou 0,00000001 W• Voz em uma conversa: 70 dB ou 0,00001 W• Uma pessoa gritando: 90 dB ou 0,001 W• Bate-estaca grande: 120 dB ou 1 W• Motor a jato: 170 dB ou 100.000 W

Existem questões muito interessantes relacionadas mais à acústica do quepropriamente ao volume e ao pitch. Há vários textos que discutem, por exemplo, o fato deo dó em um violão não soar como o de um piano, ou do fato de uma criança poder ouvirsons em determinadas freqüências impossíveis de serem ouvidas por adultos comaudição prejudicada devido à idade.

Em projetos multimídia normalmente não se exige conhecimentos especializadosem harmonia, intervalos, ondas notações, oitavas ou física de acústica ou vibração.Entretanto é necessário saber:

• Como criar sons.• Como gravar e editar sons.• Como incorporar sons ao software.

O som pode ser usado imediatamente tanto no Macintosh quanto no PC, pois osbips e avisos do sistema estão disponíveis assim que o sistema operacional é instalado.Em versões do Windows inferiores ao W2000, normalmente quando se executa arquivosdo tipo WAV por meio de um alto falante da placa do PC todas as interrupções sãodesativadas automaticamente, fazendo o mouse ou o teclado ficarem inativos ao executaros sons.

Pode-se digitalizar som a partir de qualquer fonte natural ou pré-gravada(microfone, fitas K7 etc.). O som digitalizado é “amostrado”, isto é, em uma pequenafração de segundo uma amostra do som é capturada e armazenada como informaçãodigital (bits e bytes). A freqüência com que as amostras são capturadas determina a taxade amostragem, veja na fig. 4.2. A quantidade de informações armazenadas a cadaamostragem determina o tamanho da amostra. Quanto maior a freqüência de captura emais dados armazenados maior a resolução e a qualidade do som capturado.

11

4.2 - Exemplo de amostragem do som.

É impossível reconstruir a forma da onda original se a freqüência da amostragemfor muito baixa. As três freqüências de amostragens mais usadas na multimídia são44.1kHz, 22.05 kHz e 11.025 KHz. Os tamanhos das amostragens são:

• 8 bits, 256 unidades para descrever a faixa dinâmica ou amplitude (o nível desom capturado naquele momento)

• 16 bits, 65536 unidades para descrevera faixa dinâmica.

Um conceito importante é o de quantização, é quando o valor da amostragem éarredondado para o número inteiro mais próximo. Se a amplitude for maior que os cortesdisponíveis ocorrerão cortes nas partes superior e inferior das ondas. A quantização podeproduzir um ruído de assobio indesejado no fundo e o corte pode distorcercompletamente o som, veja um exemplo na fig.4.3.

4.3 - Exemplo de quantização e corte.

Existe um padrão internacional, ISSO 10149, para codificar digitalmente oestéreo de alta qualidade do mercado consumidor de música em CD. Os desenvolvedoresdeste padrão declaram que o tamanho da amostragem de áudio e a taxa de amostragem(16 bits @ 44,1 kHz) permitem a reprodução exata de todos os sons que os sereshumanos podem ouvir.

Para armazenar 11 segundos de som stereo pode-se gastar até 1 MB de disco. Osom monoaural (mono) normalmente consome a metade dos recursos do stereo. Técnicasde compactação podem permitir a redução em 8 vezes o consumo de espaço, perdendo-seentretanto na fidelidade do som. Para saber o consumo de disco para apenas algunssegundos de gravação, podem-se utilizar as fórmulas:

Bytes por segundo = (taxa de amostragem * bits por amostra) / 8 Eq.1.

12

Gravação mono: Equação 5.1Tamanho_arquivo = taxa_amostragem x duração_gravação x (bits por amostra / 8) x 1

Gravação stereo: Equação 5.2Tamanho_arquivo = taxa_amostragem x duração_gravação x (bits por amostra / 8) x 2

No ato do armazenamento em disco surgem algumas perguntas importantes eque se não respondidas corretamente podem levar a ocorrência de graves problemas nareprodução do som, são elas:

1. Quanta qualidade de som pode-se sacrificar para reduzir o armazenamento?2. Qual a melhor técnica de compactação?3. O som compactado funcionará na plataforma hardware (PC)?

Musical instrument digital interface - MIDI

É um padrão, de domínio público da indústria, desenvolvido no início dos anos80 que permite que os sintetizadores de música e som de diferentes fabricantes secomuniquem entre si enviando mensagens via cabos conectados nos dispositivos. Dentroda MIDI há também um protocolo para passar descrições detalhadas de uma partituramusical tais como as notas, as seqüências de notas e qual instrumento as tocarão. Umarquivo MIDI é significativamente menor (por segundo de som transmitido para ousuário) do que arquivos equivalentes de formas de ondas digitalizadas.

Necessita-se de um programa seqüenciador e de um sintetizador de som (emgeral existente nas placas de som de PCs). Um teclado MIDI também é útil parasimplificar a criação de partituras musicais. Entretanto o mesmo não é necessário para aexecução da música. O programa seqüenciador grava suas ações no teclado MIDI (ou emoutro dispositivo) em tempo real e tocará exatamente as notas que você tocou no teclado;uma cópia da partitura também pode ser impressa no papel. Os sons MIDI são gerados a partir de:

1. Fórmulas matemáticas (síntese FM), mais baratas.2. Gravações digitais curtas de instrumentos reais (amostragens), melhor

fidelidade.3. A escolha entre estas duas técnicas envolve considerações de hardware e

custos.

Criar arquivos MIDI é tão complexo quanto gravar bons arquivos de amostragens,então é melhor investir para encontrar alguém que já tenha configurado o equipamento eas habilidades para criar sua partitura, em vez de investir em hardware e aprendermúsica. Para uma pessoa que conhece música “de ouvido”, mas não consegue ler umapartitura, a MIDI é de grande utilidade. O programa seqüenciador pode ajudar a criar amúsica ideal para as apresentações em computador.

A maioria dos desenvolvedores grava seus materiais de som em fitas K7 comoprimeiro passo no processo de digitalização.

Com a fita, é possível fazer muitas tomadas do mesmo som ou voz, ouvir todaselas e selecionar as melhores para digitalizar. Gravando em uma mídia barata em vez dediretamente no disco, você evita preencher seu disco rígido com “lixo”.

Projetos que requerem som com a qualidade de CD (41,1 kHz e 16 bits) devem serdesenvolvidos em estúdios profissionais, como apresentado na fig. 4.4. A gravação desom de alta fidelidade é uma arte especializada, uma habilidade aprendida em grandeparte por tentativas e erros, como na fotografia. Ao desejar faze-lo por si só em níveis dequalidade de CD, o desenvolvedor deve estar preparado para investir em uma sala

13

tratada acusticamente, com amplificadores e equipamentos de gravação de alta fidelidadee microfones sofisticados.

Figura 4.4 – Estúdio de gravação.

Gravações em 22,05 kHz podem ser realizadas em gravadores K7, por exemplo:gravações de conversas telefônicas. Gravadores de vídeo K7 normalmente possuemexcelentes circuitos de áudio stereo e foram muito utilizados no início. Uma gravação emalta fidelidade requer grande espaço de memória: 176,4 Kb por cada segundo de áudioem qualidade stereo amostrado em 16 bits a 44,1 kHz por canal.

Digital áudio tape - DAT

Fornecem gravação em 16 bits a 44,1 kHz e capacidade de reprodução com umconsumo de memória de 176,4 Kb por cada segundo de áudio em qualidade stereogravado. Esse sistema é muito preciso e poderá gravar até ruídos de fundo, estalos domicrofone e tosses vindas da sala ao lado, necessitando de um bom editor para eliminarestes ruídos.

Há um mínimo aceitável de adequação que satisfará o público, mesmo quandoeste nível não for o melhor que esta tecnologia, dinheiro, tempo ou esforço podemcomprar. Um esboço comparativo entre MIDI e DAT encontra-se na tab. 4.1.

Gravações de efeitos sonoros (buzinas, ruídos de motores etc.) normalmente nãoexigem tanta fidelidade quanto à gravação da voz falada ou efeitos sonoros que requeremfundo silencioso (cantar de pássaros, por exemplo).

14

Tabela 4.1 – Comparação entre MIDI x DAT.

A freqüência de amostragem determina o limite em que as freqüências de áudiopodem ser reproduzidas digitalmente. De acordo com o Teorema de Nyquist, é necessáriono mínimo de duas amostras (por ciclo) para representar uma onda sonora. Então pararepresentar o som com uma freqüência de 440 Hz, é necessário amostrar o som em umataxa mínima de 880 amostras por segundo, conforme a equação:

Taxa de amostragem = 2 x Freqüência mais alta Equação 5.3.

O Som Profissional

Gravações de efeitos sonoros (buzinas, ruídos de motores etc.) normalmente nãoexigem tanta fidelidade quanto à gravação da voz falada ou efeitos sonoros que requeremfundo silencioso (cantar de pássaros, por exemplo).

Como na fotografia em que a luz, as sombras e a programação do tempo deexposição da foto definem a sutil diferença entre o amador e o profissional, uma boasessão de gravação de som requer conhecimento do hardware e do software a seremutilizados, e um entendimento técnico do som ou da voz a ser gravada (para interrompertons graves, falas ou chiados em alta freqüência) e um sentido do ambiente (estúdio).Como os chefes da culinária ou químicos industriais, alguns profissionais incorporamum toque de ruído natural nos seus silenciosos ambientes de trabalho, para dar aimpressão de a gravação ser mais real e menos artificial.

Em um projeto elaborado com vários sons, deve-se manter um bom banco dedados, controlando o material original – somente no cadê de precisar reverte-lo quando aunidade de disco falhar. Esse banco de dados é particularmente importante porque podeser necessário dar aos arquivos de som nomes como SND0094A.WAV ou CAP1-3.WAV;esses nomes não conterão muitas pistas sobre o conteúdo real do arquivo e assim, umareferência cruzada resolve o problema da identificação.

Padrões de Compactação

Considerando o ambiente da internet, um aspecto importante da comunicação éa transferência de dados entre o servidor e o cliente, visto que o tempo de transferência éde suma importância. Ao se transmitir uma locução, esta é transformada em arquivos desom e caso o arquivo seja muito grande, o tempo necessário para a transferênciaaumenta muito. Esse aumento de tempo acaba deteriorando a qualidade do som quechega ao computador cliente. O tempo necessário para a transferência do som pode serdiminuído usando a compressão.

A compressão é a redução do tamanho físico do dado a ser transmitido de modo apoder ocupar um espaço menor na memória. Arquivos compactados são mais fáceis de

15

transmitir visto a redução de seu tamanho reduzido, o que resulta na diminuição dotempo necessário para a transferência.

Existem padrões de compressão que permitem obter som com baixa perda defidelidade com um tamanho de arquivo muitas vezes menor do que o original, permitindoque o som seja transmitido pela internet de maneira rápida e eficiente. Entretanto nãoexiste, ainda, um consenso entre os vários algoritmos de compactação, de qual seja omelhor. A tab. 4.2 apresenta uma comparação de desempenho de sistemas de áudio.Alguns dos principais padrões estão descritos a seguir.

• MPEGplus baseado no padrão MPEG1-Layer 2, similar ao MP3. • Windows Media Áudio, ou "ASF“, é um algoritmo que, apesar de desenvolvido

pela Microsoft, não é fornecido com o Windows.• Real Áudio é um dos formatos de compressão mais antigos, foi desenvolvido

inicialmente para aplicações de voz e posteriormente foram desenvolvidosalgoritmos para música e vídeo.

• MPEG Layer III é o próprio que MP3, aberto e disponível para qualquer umutilizar é a melhor relação custo-benefício do momento.

• MOV (QDesign2) é o novo código QuickTime para áudio.• TwinVQ produzido pela empresa NNT é, a princípio, o principal concorrente

do MP3.

Tabela 4.2 - Desempenho dos sistemas de áudio.

Os exemplos de mídia digital a seguir mostram os requisitos de espaço dearmazenamento para um segundo de gravação de um arquivo de áudio:

• Um sinal de áudio de qualidade de telefone sem compressão (8 bitsamostrado em 8 kHz) leva a uma largura de banda de 64 kbps enecessita de 8 KB para armazenar um segundo de gravação;

• Um sinal de áudio stereo de qualidade de CD sem compressão (16 bitsamostrado em 44,1 kHz) leva a uma largura de banda de 44,1 kHz x16 bits = 705 kbps e necessita de 88.2 KB para armazenar umsegundo de gravação.

Exercícios

1. Supondo uma música tocada a partir de um CD, sampleado em 44 kHz. Afreqüência máxima que se pode ouvir é:

16

a. 44 kHzb. 20 kHzc. 22 kHzd. 2 kHz

2. Quantos bytes terão um minuto de gravação musical em qualidade de CD 44,1kHz de taxa de amostragem e resolução de 16 bits? Agora se a mesma for gravada emstereo, qual será o tamanho do arquivo?

3. Ao ouvir um som gravado com taxa de amostragem de 22.000 amostras porsegundo, este seria de melhor fidelidade se amostrado a 44.000 amostras por segundo?

4. Quais são os benefícios do uso da compressão em aplicações multimídia:

a. O áudio fica melhor.b. São removidas freqüências indesejadas.c. Economia de espaço em disco e memória.

5. Desenvolver locuções para o projeto multimídia de promoção do seu curso. Noprotótipo multimídia, deverão existir sons do tipo wave e midi.

17

Capítulo

5Imagens

Características da Visão

O globo ocular é uma esfera com cerca de 2 cm de diâmetro e 7 g de peso.Quando olhamos na direção de algum objeto, a imagem atravessa primeiramente àcórnea, uma película transparente que protege o olho, conforme pode ser observado nafig. 5.1. Chega, então, à íris, que regula a quantidade de luz recebida por meio de umaabertura chamada pupila, batizada popularmente de “menina dos olhos”. Quanto maiora pupila, mais luz entra no olho.

Passada a pupila, a imagem chega a uma lente, o cristalino, e é focada sobre aretina. A lente do olho produz uma imagem invertida, e o cérebro a converte para aposição correta. Na retina, mais de cem milhões de células fotorreceptoras transformamas ondas luminosas em impulsos eletroquímicos, que são decodificados pelo cérebro.

Figura 5.1 – O olho humano.

Essas células fotorreceptoras podem ser classificadas em dois grupos: os cones eos bastonetes. Os bastonetes são os mais exigidos às noites, pois requerem pouca luzpara funcionar, mas não conseguem distinguir cores. As células responsáveis pela visãodas cores são os cones: uns são sensíveis ao azul, outros ao vermelho e outros ao verde.A estimulação combinada desses três grupos de cones é capaz de produzir toda a extensagama de cores que o ser humano enxerga.

Embora nós possamos contar com nossos olhos para nos trazer a maior partedas informações do mundo externo, eles não são capazes de revelar tudo. Nós podemosver apenas objetos que emitam ou sejam iluminados por ondas de luz em nosso alcancede percepção, que representa somente 1/70 de todo o espectro eletromagnético. O olhohumano enxerga radiações luminosas entre 4 mil e 8 mil angströns, unidade decomprimento de onda. Homem e macaco são os únicos mamíferos capazes de enxergarcores.

18

Imagens em multimídia

Independentemente de suas formas, as imagens imóveis são geradas pelocomputador de 2 modos:

• Mapa de bits (ou raster), matriz de informação descrevendo os pontosindividuais (pixels); e

• Vetores, a informação a respeito das figuras é descrita a partir de suascoordenadas no plano cartesiano.

Na tab. 5.1 podemos observar um estudo comparativo entre esses dois modos degeração de imagens no computador.

Tabela 5.1 - Comparação entre Mapas de bits x vetores.

Resolução de imagens

Além dos recursos de memória e desempenho, outro fator importante aconsiderar é a Resolução. A resolução de uma imagem é o número de pixels na imagemdigital em relação ao tamanho físico do material de origem. A resolução é normalmentemedida em pontos por polegada (dpi – dots per inch) e pode ser aplicada tanto à imagemquanto aos dispositivos de entrada e saída usados para digitalizar ou imprimir a imagem.

Quando a imagem é apresentada em monitores, a resolução normalmente émedida em pixels por polegada (ppi - pixels per inch). Um valor comum de resoluçãosuportada pelos monitores é a de 72 pixels/polegada.

Se a resolução é muito baixa, nós veremos os pixels individuais que compõem aimagem fazendo com que esta tenha uma aparência de um amontoado de blocos. Omesmo efeito aparece quando ampliamos demais uma foto, como pode ser visto na fig,5.2. Então poderemos ver os pontos que compõem o quadro.

19

Figura 5.2 – Figura ampliada em demasia.

Para a impressão necessitamos de valores maiores de resolução. Isso às vezescria problemas para os artistas gráficos. Por exemplo: uma foto digitalizada em tamanho4x6 polegadas e 100 dpi proporciona uma imagem com tamanho de 400x600 pixels.Caso o seu monitor possui dot pitch (dots per inch) de 75 dpi, esta imagem serámostrada com escala de 133%, ou escala 33% mais larga do que a foto atual.Consequentemente, se você imprimir esta imagem em uma impressora laser em 300 dpiela aparecerá com medidas de somente 1.33 x 2 polegadas ou 33% mais larga que aescala original.

Resolução de imagens

Quando atravessamos um prisma com um feixe de luz solar, observamos a suadecomposição em várias cores diferentes, chamado de espectro luminoso solar, comoapresentado na fig. 5.3. Foi Newton quem primeiro observou este fenômeno, ele tambémdeduziu que se juntarmos todas as cores do espectro obteríamos a luz brancanovamente. A luz possui também permite a mistura de intensidade de cores para formaroutras cores. Especificamente, existem três cores básicas que podem formar todas asoutras cores, apenas alterando suas propriedades, são elas o vermelho o verde e o azul.

Figura 5.3 – Espectro luminoso solar de acordo com a freqüência.

Vermelho, verde e azul são as cores que o computador mistura para produzir as16 milhões de cores ou as sombras que podemos diferenciar. Sistemas coloridos com 24bits funcionam com três canais de 256 sombras discretas de cada uma das cores(vermelho, verde e azul) representadas como os três eixos de um cubo, permitindo umtotal de 16.777.216 cores (256 * 256 * 256).

20

Figura 5.4 - Seleção de cores no MS-Office.

A redução de cores é um processo no qual o valor das cores de cada pixel (juntamentecom seus vizinhos mais próximos) é alterado para o valor da cor correspondente maispróxima na paleta-alvo, a partir de um algoritmo matemático. Qualquer pixel pode sermapeado não para a sua entrada de paleta mais próxima, mas para a média de algumaárea da imagem. Na fig. 5.4 observamos a janela de seleção de cores do MS-Office.

Cada fabricante produz um formato de arquivo diferente que possibilita amanipulação mais rápida e eficiente possível das imagens produzidas por seusprogramas. Entretanto existem programas transferidores, que permitem a transferênciade formatos de arquivos de um tipo para outro bem como de uma plataforma para outra(PC x MAC) a tab. 5.2 apresenta alguns exemplos de tipos de arquivos.

Tabela 5.2 - Tipos de arquivos.

Apesar de que os formatos mais utilizados na internet atualmente sejam JPG eGIF, novos formatos estão sendo desenvolvidos ou já existem mas ainda não forampopularizados. O maior concorrente dos formatos JPG/GIF para a internet atualmente éo PNG – Portable Network Graphic, que apareceu em 1996 com o objetivo de melhoraralgumas características dos arquivos GIF, especialmente pelo fato de que o GIF possuialguns algoritmos patenteados. O formato PNG permite comprimir as imagens sem haverperda de qualidade, ao contrário do que acontece com o formato JPG.

21

O Formato GIF

O formato GIF - Graphics Interchange Format é um formato de imagem de mapade bits muito usado na internet, quer para imagens fixas, quer para animações. Oformato GIF foi introduzido em 1987 pela CompuServe a fim de fornecer um formato deimagem em cores, em substituição do formato anterior, RLE, que era apenas em preto ebranco.

O GIF se baseia no algoritmo Lempel-Ziv Welch - LZW, que pode transformargrandes arquivos em arquivos menores e mais adaptados ao uso na Web. O algoritmoLZW compacta uma série de símbolos em um único símbolo multiplicado pelo número devezes em que ele aparece.

Por exemplo, se 10 pixels pretos foram agrupados em uma imagem, os formatosde arquivos sem compactação representariam os 10 pixels pretos como 10 símbolos.Entretanto, o formato GIF identifica esta repetição usando apenas dois símbolos: onúmero de vezes de repetições de cores e a cor em si. Em vez de 10 elementos de dados,há apenas dois. Este algoritmo é bem mais eficiente que o run-length encoding usadopor formatos como o PCX e o MacPaint, permitindo que imagens relativamente grandessejam baixadas num tempo razoável, mesmo com modems muito lentos.

Este formato de arquivo atualmente é amplamente utilizado na web por causa doseu tamanho compacto. No entanto, este formato possui uma paleta limitada de cores(256 no máximo), impedindo o seu uso prático na compactação de fotografias. Por causadesta limitação o formato GIF é utilizado para armazenar ícones, pequenas animações ouimagens com áreas extensas de cores chapadas.

Na base do formato GIF está o conceito de Data Stream, ou canal de dados. Oformato é na realidade um protocolo entre uma fonte emissora de imagens e umaaplicação de destino que realiza a apresentação das imagens. Quando a fonte emissorase encontra armazenada num arquivo, dizemos que é um arquivo em formato GIF. Umarquivo, ou canal de dados, no formato GIF pode conter mais do que uma imagem.Blocos de controle inseridos entre imagens sucessivas determinam o tempo durante oqual cada imagem persistirá na unidade gráfica de saída, permitindo assim aapresentação seqüenciada de várias imagens. Se as imagens constituírem umaseqüência animada, estaremos perante o que se designa usualmente por GIFs animados(animated GIFs).

Os GIF's transparentes permitem especificar uma única cor que se tornarátransparente, permitindo assim visualizar-se o background por entre o GIF que sedefiniu como transparente. Este atributo é bastante útil quando quer criar a ilusão de"sombra irregular", em vez de colocar um quadrado com um aspecto menos agradável emvolta do texto, o GIF transparente irá permitir fazer aparecer o texto que escreveudiretamente da página.

Um GIF entrelaçado é um arquivo GIF que é carregado aos poucos. O queacontece, como na televisão, vai-se visualizando as linhas de cima para baixo, voltandodepois ao início para preencher as linhas que não foram preenchidas, é em grupos de 8linhas - começa-se por cada oitava, depois por cada quarta, por cada segunda e orestante. O efeito de entrelaçamento, não acelera o processo de carregamento daimagem. Trata-se apenas de uma ilusão, embora faça parecer ao usuário que de fatoacelere o processo de "surgimento" da imagem porque o usuário vai vendo o seuaparecimento.

22

O Formato JPG

Desde junho de 1982, WG8 (Grupo de trabalho 8) da ISO (OrganizaçãoInternacional de Padronização) tem trabalhado na padronização de compressão edescompressão de imagens. Em junho de 1987, dez técnicas diferentes para imagenscoloridas de tons de cinza foram apresentadas. Estas técnicas foram comparadas, eforam analisados três delas mais adiante. Uma transformação adaptável da técnica decodificação baseada no DCT (Discrete Cosine Transform, ou Transformação CosenoDiscreta), alcançou o melhor resultado e, então, foi adotado para JPEG, que ummecanismo padrão de compressão de imagem, elaborado pelo comitê Joint PhotographicExperts Group e em 1992 se tornou um Padrão ISO Internacional (IS).

O formato JPG foi projetado para a compactação de imagens em cores ou tons decinza de cenas do "mundo real", não funcionando muito bem com imagens nãorealísticas, como desenhos gerados por computador. Uma codificação e decodificaçãorápida de imagens também é usada para seqüências de vídeo conhecida como MotionJPEG. Hoje, partes do JPEG já estão disponíveis como pacotes de software. O formatoJPEG cumpre as seguintes exigências para garantir futuras distribuições e aplicações:

1. A implementação do JPEG deve ser independente do tamanho da imagem.

2. A implementação do JPEG deve ser aplicável a qualquer imagem.

3. A representação de cor deve ser independente de implementação especial.

4. O conteúdo da imagem pode ser de qualquer complexidade, com qualquercaracterística estatística.

5. A especificação padrão de JPEG deve ser estado-de-arte (ou próximo) relativoao fator de compressão e qualidade de imagem alcançada.

6. A complexidade do processo têm que permitir uma solução de software pararodar em tantos processadores padrões disponíveis quanto possível. Adicionalmente, ouso de hardware especializado deve aumentar qualidade de imagem substancialmente.

7. Decodificação seqüencial (linha-por-linha) e decodificação progressiva(refinamento da imagem inteira) deve ser possível

Uma característica útil do JPEG é que o grau de perda da qualidade pode sercontrolado ajustando-se os parâmetros de compressão. Rigorosamente falando, JPEG éuma família de algoritmos de compressão e não se refere a nenhum formato específico dearquivo de imagem. Podemos até mesmo não efetuar compactação nenhuma, quandoentão as cores da imagem não são alteradas, mas apenas suas áreas de mesma cor sãoarmazenadas de forma compactada.

Dependendo do programa escolhido, o usuário pode selecionar a qualidade daimagem reproduzida, o tempo de processamento para a compressão e o tamanho daimagem comprimida escolhendo parâmetros individuais apropriados.

Figura 5.4 - Passos do processo de compressão JPEG.

As aplicações não precisam incluir um codificador e um decodificador ao mesmotempo. Em muitas aplicações só é preciso um único deles. O fluxo de dados codificadotem um formato de intercâmbio fixo que inclui dados de imagem codificados, comotambém os parâmetros escolhidos e tabelas do processo de codificação. Se o processo decompressão e descompressão concordam em um conjunto comum de tabelas decodificação a ser usado, por exemplo, os dados das tabelas respectivas deles nãoprecisam ser incluídos no fluxo de dados. Existe aí um contexto comum entre codificar e

23

decodificar. O formato de intercâmbio pode ter um formato abreviado que não garante ainclusão das tabelas necessárias. O formato de intercâmbio em modo regular (i.e., oformato não abreviado) inclui toda a informação necessária para decodificar semqualquer conhecimento prévio do processo de codificação.

Figura 5.5 – Esquema global de compactação.

A figura 5.4 esboça os passos de compressão de JPEG conforme o esquemaglobal mostrado na Figura 5.5. Quatro variantes diferentes de compressão de imagempodem ser determinadas para guiar os quatro modos. Cada modo inclui combinaçõesadicionais.

A compressão JPEG é feita quebrando-se a figura em blocos de 8 x 8 pixels. Cadabloco é então operado matematicamente num processo conhecido como DCT (DiscreteCosine Transform). O DCT na verdade aumenta o tamanho (tipicamente, oito bits deentrada produzem 11 bits de saída), mas a maior parte dos dados consiste de seqüênciasde zeros. Isso é especialmente verdadeiro se a figura a ser comprimida tem áreas demesma cor e densidade, embora arestas contrastadas produzam coeficientes DCT nãonulos. Essas seqüências de zero podem ser reduzidas utilizando técnicas de compressãoRLE.

Exercícios

1. Quais formatos você escolheria para suas imagens nas seguintes aplicações:

a. Quiosque multimídia.b. Site Web corporativo.

2. Que formato permite maior compressão JPEG ou GIF?

3. Desenvolver um tutorial institucional sobre o curso de Ciência da Computação.Incluir imagens e animações a respeito das qualidades do curso. Poderão existir imagensde alunos, instalações, salas de aula e laboratórios bem como animações com figuras oufilmes. No projeto multimídia institucional, deverão existir os seguintes tipos de objetosde interação:

• Botões de comando, por exemplo: para mudança de páginas;• Caixas de atribuição, por exemplo: para seleção de tipos diferentes de

instalações;• Campos de dados, por exemplo: para preencher com os dados do aluno

interessado em mandar uma mensagem para o coordenador do curso (nome,endereço etc.) além de perguntas sobre o curso; e

• Barras de rolagem;• Deverão existir no, mínimo, 4 páginas:

• 1 de entrada no tutorial, indicando sua utilidade;• 1 de pesquisas, para as instalações, laboratórios etc.;• 1 de cadastro dos alunos interessados e informações localização; e• 1 de gráficos de tendência histórica sobre a relação candidato vaga.

24

Capítulo

6Animações

Animações em multimídia

A animação é a arte de criar uma ilusão de movimento a partir da apresentaçãode uma sequência de imagens estáticas e semelhantes. Os pioneiros da animação sãoEadweard Muybridge, Emile Cohl, Earl Hund e Walt Disney. Esta ilusão é dada pelo fatode um objeto visto pelo olho humano continuar na retina por um curto espaço de tempoapós a visualização. A este fenômeno dá-se o nome de persistência da visão.

O olho pode detectar pequenas quantidades de energia luminosa. Olhosadaptados à escuridão podem detectar luz equivalente à de uma vela a 30 km dedistância onde a energia luminosa recebida é de apenas alguns quanta. A retenção daimagem na retina pode ser percebida a partir de uma tremulação (flicker) da imagemquando esta é vista a menos de 16 quadros por segundo. Os filmes comerciais usam 24quadros por segundo. O movimento de “câmera lenta” pode ser observado quando o filmeé passado a 15 quadros por segundo.

Métodos tradicionais de animação

Antes do advento da animação por computador, todos os quadros eram feitos àmão. Se considerarmos que cada segundo de uma animação contém 24 quadros,podemos imaginar a tremenda quantidade de trabalho necessária para criar os filmesanimados. Atualmente existem várias técnicas de animação, algumas delas serãodescritas a seguir.

• Tradicional, os desenhos são feitos em acetato e filmados quadro a quadro.“Branca de Neve e os Sete Anões” (1937) foi o primeiro longa-metragemanimado.

• Computação gráfica, o desenho é modificado com o software 3D de acordocom a cena. “Toy Story” (1995), da Walt Disney Pictures e da Pixar AnimationStudios, foi realizado com esta técnica.

• Stop motion, bonecos maleáveis são filmados em diferentes posições. “OEstranho Mundo de Jack” (1993), de Tim Burton, é um marco do stop motionem longa-metragem.

Walt Disney não teve a ajuda de computadores para fazer os dois milhões dedesenhos do filme “Branca de Neve e os Sete Anões”. Sua equipe gastou no total 800quilômetros de papel. Para cada segundo de película, foram criados 24 desenhos, compequenas diferenças entre um e outro, que fotografados em seqüência simulammovimento. Também Maurício de Souza, que já produziu seis longas-metragensanimados da Turma da Mônica, além de vários curtas e vinhetas de um minuto para aTV utiliza esta técnica.

Atualmente, 90% da animação tradicional é feita no computador. Os desenhos alápis agora são escaneados e toda colorização é digitalizada. Na maioria das vezes, háuma integração entre a animação tradicional e computação 3D. Assim foram feitos

25

“Tarzan” e “Fantasia 2000”, dos estúdios Disney, e “A Caminho de El Dorado” e “OPríncipe do Egito”, da DreamWorks.

O stop motion é uma animação tão trabalhosa quanto a tradicional ou a digital.Ela utiliza sets em miniatura, onde bonecos de plástico maleável são modelados em 24posições diferentes para cada segundo de filme. As cenas são filmadas quadro a quadro,depois editadas e sonorizadas. Nessa fase, o computador pode ser útil para criar efeitosespeciais de chuva, sombra, fogo ou fumaça. Em “A Fuga das Galinhas”, usou-se oCommotion 3.0, software que cria efeitos digitais em imagens em movimento.

Apesar da aceitação do stop motion, a maioria dos filmes animados ainda é feitade maneira tradicional, ou seja, desenhada quadro a quadro no papel. Em “A Fuga dasGalinhas”, bonecos maleáveis, filmados quadro a quadro, permitem que os personagensse movimentem em três dimensões.

A terceira técnica mais usada nos desenhos animados atuais é a computaçãográfica. “Toy Story”, de 1995, foi o marco dessa nova era. Totalmente animado porcomputador pela Walt Disney Pictures e a Pixar Animation Studios, o desenho foi ummergulho definitivo na animação digital. Desde “A Bela e a Fera” (1991), a computaçãográfica era usada apenas em combinação com a animação tradicional. Sucesso depúblico e de crítica, “Toy Story” abriu espaço para outras produções realizadas comtecnologia idêntica, como “Formiguinhaz”, “Vida de Inseto” e, claro, “Toy Story 2”.Cassiopéia também foi realizado desta forma.

Ao contrário da animação tradicional, na qual milhares de desenhos precisam serfeitos, o software 3D usado na animação computadorizada permite que se façamalterações sobre a mesma imagem desenhada. A Disney provou isso recentementemisturando imagens reais (live action) com efeitos digitais em Dinossauro.

Qualidade versus tamanho em animações

Do mesmo modo que com as imagens, o compromisso entre tamanho e qualidadecompromete a animação. Uma animação pode rodar mais rápido se é menor emtamanho. A velocidade de apresentação da animação também depende da configuraçãodo computador. A animação pode utilizar os seguintes formatos:

1. Formato FLIC (FLI/FLC), o formato FLI equivale à animação usada pelo 3DStudio e em muitos outros programas baseados em PC e suporta animaçõesde 256 cores em resolução de 320x200; já o formato FLC contém animaçõesde 256 cores para imagens de qualquer resolução (Animator Pro).

2. Formato MPEG (.mpg), é um formato de animação especial que pode ser 40vezes menor em tamanho de arquivo do que o formato FLIC. Este formato émuito popular na internet visto que seu tamanho reduzido favorece o aumentoda velocidade de transmissão. Tal como o JPEG, o MPEG é consideradofortemente sujeito a perdas, visto que dependendo do tipo de compressão aqualidade da imagem fica bastante reduzida.

3. Formato QuickTime (QT/MooV), é o formato padrão de animação doMacintosh, que permite muitos tipos de compressão e resolução além deconter trilhas de áudio, os filmes no QuickTime variam enormemente emtamanho e qualidade dependendo da quantidade de cores e da compressão.

Numa comparação simples entre os formatos descritos, podemos observar quepara uma animação de 100 quadros em uma resolução de 240x160 o tamanho dosarquivos de acordo com os formatos, será:

• FLI/FLC – 3,8 MB;• MPEG – 430 KB;• QuickTime em 8 bits, compressão JPEG e qualidade média – 280 KB;• QuickTime em 8 bits, compressão JPEG e qualidade alta – 1,7 MB;• QuickTime em 8 bits, compressão Vídeo e qualidade média – 1,8 MB;

26

• QuickTime em 16 bits, sem compressão e qualidade média – 7,68 MB;

O áudio pode ser facilmente adicionado à animação, utilizando-se pacotes comoAawin, Animator Player e Adobe Premier.

Looping e morphing

Looping é o processo de tocar a animação continuamente. Podendo ser utilizadoquando a animação necessita da criação de poucos quadros, veja na fig. 6.1. Estesquadros tocados em um loop dão à aparência de uma animação longa. Por exemplo, com3 a 4 quadros representamos os movimentos de um homem caminhando, colocandoestes quadros em um loop teremos a impressão de que o homem está caminhando umalonga distância.

Figura 6.1 – Exemplo de animação em loop.

Podemos fazer loops em animações a partir do primeiro quadro ou a partir de umquadro qualquer. Por exemplo, queremos uma animação que rode uma vez e então repitaa partir do quinto quadro, isso pode ser feito a partir da ferramenta de desenvolvimentode animações sem maiores problemas.

Morphing, ou metamorfose, é a transformação de uma imagem em outra. Osprimeiros programas funcionavam apenas com imagens em duas dimensões, entretantoatualmente já é possível realizar morphing em imagens 3d. A metamorfose envolve autilização de dois elementos: o elemento inicial, do qual queremos começar atransformação e o elemento final, isto é, aquele onde queremos chegar através dametamorfose.

Figura 6.2 – Morphing.

A idéia é fazer com que pareça que um item está se transformando fisicamenteno outro, conforme fig. 6.2. Para tanto o animador seleciona pontos similares aos doiselementos. Por exemplo, olhos, ouvidos, nariz, cabelo etc. Quando mudamos de umobjeto para outro semelhante, por exemplo, rosto para rosto, carro para carro, fica maisfácil encontrar esses pontos semelhantes e a metamorfose funciona bem. Por outro lado,para objetos muito diferentes a metamorfose fica muito mais difícil.

27

Exercícios

1. Quais são as técnicas de animação?

2. Em qual formato o 3D Studio Max cria animações?

3. Quais são as coisas mais importantes quando fazemos a metamorfose entreduas faces?

4. Faça uma animação para a página de promoção do seu curso.

28

Capítulo

7Periféricos e plataformas

Periféricos e plataformas de multimídia

Para o desenvolvimento multimídia, devem-se levar em consideração ascaracterísticas de hardware e de software tanto do desenvolvedor quanto do usuário.Devem-se levar em conta também as funcionalidades e requisitos, tanto de hardwarequanto de software, em sistemas multimídia que poderão vir a ser utilizados porportadores de necessidades especiais.

Tipos de plataformas

Plataformas são os computadores utilizados para a criação e reprodução demultimídia. Com base no papel que o computador desempenhará, as plataformas podemser:

• Plataforma de entrega, estação do usuário final, isto é, onde a aplicaçãomultimídia desenvolvida será executada, normalmente um computadorcomum, padrão de mercado;

• Plataforma de desenvolvimento, usada na criação dos aplicativos multimídiae, sendo assim, esta plataforma normalmente é um computador com maioresrecursos de processamento, memória, disco etc.

No Brasil a plataforma de entrega mais comum é o computador IBM-PC comsistema operacional Windows, sendo assim, para facilitar o processo de desenvolvimentoe implantação dos sistemas multimídia garantindo a compatibilidade entre plataformas,a plataforma de desenvolvimento mais comum também é o conjunto IBM-PC/Windows.Entretanto deve-se levar em conta que a seleção da plataforma de desenvolvimento deum projeto pode basear-se em outros aspectos, como por exemplo:

• Preferência pessoal do autor por certo tipo de computador.• Orçamentos.• Requisitos de apresentação do projeto.• Tipo de material e conteúdo.

De acordo com o ambiente operacional, as plataformas podem ser divididas emfamílias:

• Microcomputadores, com sistemas operacionais Windows, Linux, BeOs etc.• Workstations, baseadas em Unix.• Macintosh, baseada no sistema operacional System8.

As plataformas de desenvolvimento requerem mais recursos do que as deentrega. A plataforma de desenvolvimento deve possuir processadores rápidos (top delinha) e memória “de sobra” dada às necessidades:

29

• De trabalhar com vários aplicativos abertos ao mesmo tempo.• Poder armazenar em disco várias versões do produto.• Entretanto o conhecimento da configuração da plataforma de entrega é

fundamental para o sucesso do projeto.

Tipos de periféricos

São os componentes de hardware necessários para transformar os comandos,perguntas e respostas do usuário em atividades do computador, na fig. 7.1 sãoapresentados alguns exemplos de periféricos, alguns dos quais serão detalhados nasseções seguintes. Quanto ao tipo de interação, podem-se dividir os periféricos em:

• Dispositivos de entrada: teclados, mouse, trackballs, telas sensíveis ao toque,canetas e mesas digitalizadoras, scanners, câmeras e filmadoras digitais.

• Dispositivos de saída: monitores, datashow, transdutores, auto-falantes etc.• Dispositivos de armazenamento: disquetes, discos rígidos, CD-ROM.

Figura 7.1 - Periféricos convencionais (a). Periféricos avançados (b).

Existe uma grande variedade de dispositivos de entrada de dados que podem serutilizados para o desenvolvimento e apresentação de um projeto multimídia. Entretantodevemos tomar cuidado na escolha do periférico correto para a aplicação multimídia, porexemplo: no projeto de um quiosque contendo informações a respeito das lojas em umshopping center a escolha de uma tela sensível ao toque é sempre mais apropriada doque um teclado para a interação dos usuários.

Teclados

O teclado é o periférico de entrada de dados mais comum em um computador,como mostrado na fig. 7.2. Os teclados fornecem várias respostas táteis e tem várioslayout dependendo do sistema do computador e do modelo de teclado.

A tecnologia de fabricação de teclados tem evoluído bastante nos últimostempos, produzindo teclados ergonômicos, mais leves e até mesmo sem o tradicionalcabo de ligação à Cpu, proporcionando a melhora da postura das mãos no ato de teclar.

30

Figura 7.2 – Teclado.

No Brasil, utiliza-se o teclado padrão ABNT, próprio para as necessidades dedigitação dos usuários brasileiros, por exemplo, a existência do “ç” no lado direito doteclado, o que aumenta a produtividade da digitação eliminando a necessidade depressionar várias teclas em conjunto para a obtenção daquele caractere.

Mouse, joystick e TrackBall

O mouse é uma ferramenta padrão para a interação cm a interface gráfica.Todos os computadores atualmente exigem um mouse, apesar de ainda existir apossibilidade de se utilizar comandos de teclado para a interação do usuário com ocomputador.

Figura 7.3 – Periféricos apontadores: (a) Mouse, (b) Joystick e (c) TrackBall.

Um projeto multimídia deve ser desenvolvido tendo em mente a existência de ummouse, joystick ou TrackBall, como mostrado na fig. 7.3. Entretanto deve-se garantir aexistência de comandos de teclas de modo a garantir o funcionamento do programa emsituações de emergência.

Scanner

Os scanners, observar a fig. 7.4, são os olhos do computador pessoal. Elespermitem que o PC converta uma foto ou uma imagem em um código de forma que umprograma gráfico ou de editoração eletrônica possa reproduzi-la na tela, imprimi-laatravés de uma impressora gráfica ou converter páginas datilografadas em páginaspossíveis de serem editoradas. Há três tipos básicos de scanner:

1. O scanner alimentado com folhas (sheet-feed), que funciona comrolamentos mecânicos que movem o papel pela cabeça de varredura.

2. O scanner de mesa, onde a página fica estática sobre um vidro,enquanto a cabeça move-se pela página.

3. Os scanners manuais, que dependem da mão humana para mover acabeça de varredura.

31

Figura 7.4 – Scanners: (a) sheet feed; (b) de mesa e (c) manual.

Monitores de vídeo e projetores

O monitor de vídeo é o componente que mostra o que está sendo feito nomicrocomputador. No início os monitores eram apenas monocromáticos, a partir dadécada de 90, evoluíram para modelos com padrão de cores que chegam a 16milhões e tamanhos de tela que chegam a 21 polegadas. As principais característicasdos monitores de vídeo são:

• Tamanho da tela - no Brasil os mais comuns são os de 14", esta medidacorresponde ao comprimento de sua tela em diagonal.

• Dot Pitch - Medida da distância entre dois pontos consecutivos da mesmacor. É o principal responsável pela qualidade de imagem de um monitor.O valor mais comum encontrado em monitores é o de 0,28mm,popularmente chamado .28 dot pitch.

• Modo de varredura - Este é outro responsável pela qualidade de imagemquando opera em alta resolução. A imagem na tela é formada por umaseqüência de linhas horizontais e o processo de montagem e remontagemdestas linhas é denominado Varredura, veja fig. 7.5. O processo deVarredura pode ser executado de duas maneiras diferentes:

o Entrelaçado - São montadas primeiro as linhas ímpares e depoisas linhas pares.

o Não Entrelaçado - As linhas são montadas uma após a outra demaneira seqüencial. Para a resolução da imagem este é o modopreferencial.

32

Figura 7.5 – Monitor convencional: (a) TRC e (b) varredura.

Os monitores convencionais, possuem um Tubo de Raios Catódicos - TRCque bombardeia constantemente as células luminosas da tela formando a imagem.No monitor Leque Cristal Display - LCD a tecnologia usada é diferente, que consisteno uso de cristais líquidos para formar a imagem. A fig. 7.6 apresenta os dois tiposde monitores.

Figura 7.6 – Monitores de vídeo: (a) TRC e (b) LCD; (c) Projetor multimídia.

Os cristais líquidos são substâncias que tem sua estrutura molecularalterada quando recebem corrente elétrica. Em seu estado normal, estas substânciassão transparentes, mas ao receberem uma carga elétrica tornam-se opacas,impedindo a passagem da luz. Nos visores de cristal líquido mais primitivos, como osdos relógios de pulso, temos apenas estes dois estados, transparente e opaco, ouseja, ou o ponto está aceso ou está apagado. Nos visores mais sofisticados, como osusados em notebooks, temos também estados intermediários, que formam astonalidades de cinza ou as cores. Estes tons intermediários são obtidos usando-setensões diferentes.

Para formar a tela de um monitor, uma fina camada de cristal líquido écolocada entre duas camadas de vidro, veja na fig.7.7. Estas finas placas possuempequenos sulcos, isolados entre si, cada um com um eletrodo ligado a um transistor.Cada um destes sulcos representa um dos pontos da imagem. Este sanduíche porsua vez é colocado entre duas camadas de um elemento polarizador. Atrás desta telaé instalada uma fonte de luz, geralmente composta de lâmpadas fluorescentes(usadas por gerarem pouco calor) ou então Leds, responsáveis pela iluminação datela.

33

Figura 7.7 – Formação de um monitor de cristal líquido.

No caso de LCDs mono-cromáticos, cada ponto da tela corresponde a um dospontos da imagem. Já no caso dos monitores coloridos, cada pixel da imagem éformado por um grupo de 3 pontos, um verde, um vermelho e outro azul, conformeapresentado na fig. 7.8. Como nos monitores CRT as cores são obtidas através dediferentes combinações de tonalidades dos três pontos.

Figura 7.8 – Monitores monocromáticos e coloridos.

Existem atualmente duas tecnologias de fabricação de telas de LCD,conhecidas como matriz passiva (DSTN) e matriz ativa (TFT). As telas de matrizpassiva apresentam um angulo de visão mais restrito, e um tempo maior énecessário para a imagem ser atualizada. Enquanto num monitor CRT, um pontodemora cerca de 20 a 20 milesegundos para mudar de cor, num monitor LCD dematriz passiva são necessários entre 150 e 250 milesegundos. Por isso que é tãodifícil enxergar o cursor do mouse na tela de um notebook, ou mesmo rodarprogramas ou jogos que demandem mudanças rápidas de imagem de uma formaaceitável. A própria imagem nestes monitores apresenta uma qualidade inferior,devido ao baixo contraste. Felizmente os monitores de matriz passiva sãoencontrados apenas em equipamentos antigos, não sendo mais fabricadosatualmente.

Os LCDs de matriz ativa, usados atualmente, já apresentam uma qualidademuito superior, com um tempo de atualização de imagem mais próximo do dosmonitores CRT, entre 40 e 50 milesegundos. Isto significa entre 20 e 25 quadros porsegundo, o que já é suficiente para assistir a um filme em DVD por exemplo, apesarde ainda atrapalhar um pouco nos jogos de ação, onde a imagem é alterada muitorapidamente. Os monitores de matriz ativa também um maior ângulo de visão econtraste maiores, além de serem mais finos e leves.

34

Ao contrário dos monitores CRT atuais, todos os monitores de cristal líquidosão digitais. Como todas as placas de vídeo atuais enviam sinais analógicos para omonitor, é usado um novo circuito que converte os sinais analógicos enviados pelaplaca de vídeo novamente para o formato digital que é entendido pelo monitor.

A mudança digital-analogico-digital neste caso é totalmente desnecessária, eserve apenas para degradar a qualidade da imagem e aumentar a quantidade decircuitos usados no monitor, encarecendo-o. Segundo os fabricantes, o custo dosmonitores LCD pode cair em mais de 100 dólares com o uso de placas de vídeo queemitam sinais digitais.

Exercícios

1. Realizar uma pesquisa, na internet, a respeito de periféricos úteis para projetosmultimídia anotando:

• Características físicas (dimensão, integração com o HW, capacidade etc.);• Comparar preços x marcas x características operacionais.

35

Capítulo

8Autoria

Software de autoria de multimídia

Ferramentas de autoria fornecem a estrutura necessária para organizar e editaros elementos de um projeto, suas principais utilidades são:

• Desenvolvimento da interatividade e da interface do usuário;• Para apresentar o projeto na tela; e• Para agrupar os elementos multimídia em um projeto único e coeso.

De acordo com a metáfora usada para sequenciar e organizar elementos eeventos da multimídia, pode-se classificar em dois grupos de ferramentas:

• Baseadas em páginas ou fichas; e• Baseadas no tempo e em apresentações.

Software de autoria de multimídia – baseado em páginas

Nestas ferramentas, os elementos são organizados como páginas de um livro,permitindo:

• Sua vinculação em seqüências organizadas.• Saltos para páginas específicas.• Execução de som, animações, vídeos etc.

Exemplo: Multimedia ToolBook, ferramenta desenvolvida, no início da década de90, pela empresa Assymetrix que utiliza a metáfora de um livro para o desenvolvimentode aplicativos.

ToolBook surgiu como uma nova ferramenta de autoria voltada para multimídiaem geral (na verdade, a primeira versão chegava a se comparar ao Visual Basic), masatualmente é focada no desenvolvimento de aplicações de Aprendizado on-line (e-learning) e Treinamento Baseado em Computador (TBC/CBT), tutoriais e cursos on-line,via web ou em CD.

Possui uma poderosa linguagem de programação própria, o OpenScript. Por seruma ferramenta específica para a plataforma Windows, possui muitos recursos deintegração com o sistema, como use de controle ActiveX e inserção de objetos OLE, plenainteração com aplicações via DDE (Dynamic Data Exchange), acesso a biblioteca deprogramação DLL (32 e 16 bits), suporte a DirectX e MCI. Estes recursos são muito úteispor exemplo quando se deseja criar um tutorial interativo de alguma aplicação Windows.

36

Seu paradigma de desenvolvimento é baseado na analogia a livros. Cada arquivoda aplicação é um livro, composto de páginas (as telas) sobre as quais são dispostos osobjetos. Existem também os capítulos (fundos de página), que agrupam conjuntos depáginas similares, bem como os objetos gráficos podem ser agrupados (similar ao recursoque existe em programas de desenho vetorial ou baseados em objetos, como oCorelDraw). Os componentes no ToolBook obedecem assim uma interessante hierarquiade objetos: objetos gráficos grupos de objetos páginas fundos livro sistema.

Em seu foco crescente para a área de ensino on-line, o toolbook introduziusuporte ao protocolo Microsoft Learning Resource iNterChange (LRN), formato baseadoem XML para distribuição de conteúdo e-Learning, desenvolvido pelo Projeto IMS eadotado pela Microsoft; e ao padrão Sharable Content Object reference Model (SCORM)da ADLNet, que agrega especificações IMS e AICC para educação on-line.

Existem atualmente duas variantes do ToolBook> O ToolBook Instructor, formamais completa da ferramenta, e o ToolBook Assistant, uma versão apenas comcomponentes pré-definidos e sem acesso à livre programação de scripts, voltado paraautores sem nenhuma familiaridade com programação.

Software de autoria de multimídia – baseado no tempo

Nestes sistemas, os elementos multimídia e os eventos são organizados ao longode uma linha de tempo, com resoluções de no máximo 1/30 de segundo. Este tipo deferramenta permite:

• Definição da velocidade de apresentação de estruturas gráficas.• Sincronização de som e imagem.• Saltos para qualquer posição em uma seqüência, permitindo controle

interativo e de movimentação.•Exemplo: Macromedia Flash, ferramenta desenvolvida no final dos anos 90 pela

empresa Macromedia, onde o desenvolvimento baseia-se no tempo.

O Director da Macromedia é uma ferramenta de autoria voltada a multimídiainterativa, em CD e Internet. Tem ganho grande enfoque para a internet, onde suasaplicações rodam através do plug in para web Macromedia Shockwave.

É uma ferramenta multiplataforma, sendo capaz de gerar arquivos executáveisem Windows e Macintosh (sua plataforma de origem) a partir dos mesmos arquivos fonte,desde que você possua a versão da ferramenta para as duas plataformas. O plug inShockwave também está disponível para PC/Mac.

O Director é baseado na metáfora de “filmes”. Cada arquivo é um filme, onde oandamento da aplicação se dá em um roteiro que exige a sequência de quadros (frames)que são exibidos no palco (a tela) no decorrer do tempo. Os objetos são chamados atorese são agrupados em elenco.

Comparação entre o ToolBook e o Director

A diferença de paradigma de desenvolvimento entre Director e ToolBook trazalgumas implicações de acordo com o tipo de aplicação desejada. Enquanto no Director aanimação (o andamento no tempo) é um conceito direto, no ToolBook qualquer ação ou

37

movimento tem que ser programado ou definido explicitamente. Assim, aplicações ricasem animação e sincronização de mídias dinâmicas (vídeo, sons e seqüências de imagem)são mais simples de se fazer no Director. Por outro lado, o paradigma do ToolBooknormalmente parece mais natural para uma aplicação onde os elementos de conteúdosejam apresentados principalmente na forma de telas ou tópicos. No Director é precisoum comando explícito para que você para o andamento do “filme” em uma tela (ou, noconceito dele, em um quadro que está sendo exibido na tela), para exibir por exemplo ummenu ou conteúdo mais estático, como textos e fotos.

Enquanto no ToolBook os objetos são dispostos em camadas, no Director temosos canais, cujo conceito é bastante análogo. As camadas ou canais definem a ordem desobreposição de objetos gráficos na tela. No Director, existem também alguns canaisespeciais,que não são para objetos gráficos (visuais). Um destaque vai para seus doiscanais de som, que permitem que dois sons sejam tocados simultaneamente. O Directorpossui um mecanismo interno para mesclar os dois sons, ideal para combinar, porexemplo, uma trilha sonora com uma locução, que estejam em arquivos separados. Nãoexiste recurso similar nativo no ToolBook, mas existe uma DLL da Microsoft não-oficialchamada WaveMix que promete realizar a operação de combinar dois sons wave e quepode ser usada com o ToolBook. Algumas placas de som também possuem o recurso detocar simultaneamente mais de um canal de som em forma de onda (wave), mas issorequer uso de controles e comandos específicos para o hardware.

Extensões e facilidades

Os recursos do ToolBook podem ser amplificados com a adição de componentesde automação ActiveX, bibliotecas de programação DLL do Windows e tambémbibliotecas de objetos e funções feitas no próprio ToolBook/OpenScript (chamados livrosde sistema, systemBooks). Já o Director possui um formato de extensão próprio, pluginschamados Xtras. Os Xtras podem adicionar novos recursos ao ambiente dedesenvolvimento, novos componentes ou novas funções para a programação Lingo.Embora o formato Xtras exija que os plugins sejam desenvolvidos especificamente para oDirector, o formato próprio garante certa independência de plataforma. A maioria dosdesenvolvedores de Xtras faz versão de seus plugins para as duas plataformas PC e Mac,possibilitando que seus componentes possam ser usados em aplicações multiplataforma.

É interessante notar também que embora o ToolBook e Director possuampoderosa linguagem de programação de scripts própria, ambos oferecem recursos paradisponibilizar bibliotecas de componentes, funções e comportamentos (ações) pré-progrmados e prontos para usar, agilizando o desenvolvimento e facilitando o uso porquem não tem familiaridade com programação ou não domina a linguagem daferramenta.

Acesso a banco de dados

Há algum suporte nativo de banco de dados no ToolBook. Desde o Instructor 7.1,a ferramenta inclui suporte a ADO: através de Microsoft OLE DB, Instructor desfruta datecnologia Microsoft ADO (ActiveX Data Objects) para acesso a qualquer banco de dadosno Windows, incluindo Microsoft Access e servidores SQL, desde que se tenha orespectivo driver de interface ADO instalado. Atualmente, existem também diversoscomponentes ActiveX de terceiros para acesso a banco de dados no Windows via ADO eOLE-DB que podem ser utilizados com o ToolBook.

38

O ToolBook, desde a versão 3, provê DLLs para acesso direto a bases de dadosem formato DBF (dBase, Clipper, FoxPro) e Borland Paradox, mas seu uso requer bomconhecimento de programação. Até o ToolBook 4.0, existia também um produtocomplementar da Assymetrix chamado ToolBook Database Connection (TBDC), quefornecia uma interface de acesso ODBC para o ToolBook, incluindo componentes deinterface pré-programados par ao acesso a banco de dados. O TBDC foi descontinuado,já que a interface Microsoft ODBC tornou-se obsoleta com a evolução para OLE-DB.

Para o Director, existem Xtras de terceiros que oferecem acesso a banco dedados,a pra formatos Access, DBF, fontes ODB/ADO entre outros. Uma listagem deXtras disponíveis no mercado pode ser encontrada no site da macromedia.

Distribuição e execução

Uma observação técnica importante é que toda ferramenta de autoria visa ser umambiente flexível de desenvolvimento de aplicações de veiculação conteúdo, mas aexecução destas é em geral baseada em interpretador ou runtime. Embora o ToolBook eDirector possuam linguagens de progrmação para a criação de scripts que definemcomportamentos na aplicação, estes scripts são interpretados em tempo de execução,não sendo compilados para gerar código “nativo” que o sistema operacional executassediretamente. Assim, as instruções dos scripts são interpretadas e executadas peloruntime da ferramenta, na execução. O runtime sim é o componente (conjunto deprogramas e bibliotecas) efetivamente executado pelo sistema operacional. Isto significaque a execução de aplicações de ferramentas de autoria é em geral bem mais “pesada”que a de programas feito em linguagens como C, Delphi ou Visual Basic. Isto contudo seaplica mais a processamentos intensos, de forma que em geral as ferramentas de autoriasão bem eficientes naquilo a que se propõem, apresentando animações, vídeos einteratividade com desempenho adequado.

Como ToolBook e Director não compilam para código nativo os scripts de suasaplicações, os executáveis gerados por estas ferramentas na verdade são programas“carregadores”, que iniciam o runtime e fazem com que ele interprete as ações do livro doToolBook ou filme do Director a partir do qual foi gerado o executável, que está“embutido” no arquivo executável. Em especial, esse processo faz com que a aplicaçãodemore um pouco a iniciar efetivamente; isto acontece tanto no Director quanto noToolBook.

O ToolBook é capaz de gerar arquivos executáveis Windows, mas depende de umruntime externo. Este runtime pode ser instalado ou colocado junto com a aplicação paraque ela funcione direto de um CD, sem ter de instalar. Também é capaz de exportar osarquivos para DHTML/Java (dentro de algumas regras de limitações), para uso na Web.

Já o programa executável gerado pelo Director é bem mais prático que o doToolBook, pois o runtime fica autocontido dento do executável, tornando-o bem maissimples para execução direta a partir de um CD, por exemplo.

Na geração de executáveis e preparação das cópias dos arquivos paradistribuição, o Director possui um Xtra que otimiza o tamanho dos arquivos e os protegepara que não possam mais ser editados. O ToolBook possui um utilitário, o ScriptRemover, que elimina o código-fonte Open-Script editável dos scripts e otimiza otamanho dos arquivos, mas estes arquivos, inclusive livros convertidos pra EXE,continuam acessíveis por quem possui o ambiente de desenvolvimento do ToolBook. Háum recurso do ToolBook de proteção por senha doa cesso ao modo autor (edição) de umlivro, mas não é uma proteção definitiva como a realizada pelo Director.

O ToolBook inclui um utilitário chamado Auto Packager, um assistente parageração de instalação e distribuição de aplicações feitas em ToolBook, baseado emtecnologia da InstallShield. Versões do ToolBook anteriores a 5 possuíam um assistentemais rudimentar, chamado Setup Manager. O Director, onde a distribuição da aplicação

39

é bastante facilitada por seu processo mais prático de geração do executável quedispensa instalação, não incluindo utilitário para gerar instalador.

Exercício

1. Desenvolver um tutorial para manutenção e limpeza de um mouse utilizandoas ferramentas Toolbook e Flash. Este tutorial deverá integrar todas as característicasmultimídia vistas até agora.

40

Capítulo

9Fatores Humanos no Projeto Multimídia

Psicologia Cognitiva

Os conhecimentos sobre as características humanas no tratamento dainformação são muito importantes no projeto de um software interativo. o projetista develevar em conta tanto as informações provenientes da análise ergonômica do trabalho(tais como idade, sexo, formação específica, conhecimentos, estratégias etc.) quanto àsinformações ligadas as suas habilidades e capacidades em termos de conhecimento.

Na medida em que se imagina o computador como uma continuidade do cérebrohumano, é fundamental conhecer como se processam os tratamentos cognitivos narealização de uma tarefa informatizada.

Na área da psicologia existem vários estudos, realizados nos últimos anos, queabordam o tratamento da informação nesse contexto existem duas linhas depensamento:

1. Behaviorismo, que trata das leis gerais sobre o comportamento humanoenfocando exclusivamente a relação entre o estímulo e a respostaobservada, sem se preocupar em como o ser humano processouinternamente as informações; e

2. Cognitivismo, ou construtivismo, que se preocupa com os mecanismosque descrevem seu funcionamento e que enfoca, entre outras coisas, osmodelos mentais (ou as representações simbólicas) que o humano elaboraa partir da realidade que o cerca.

Em suas intervenções para a concepção e avaliação de interfaces humano-computador, os projetistas devem valer-se dos resultados de ambas as linhas depensamento.

Modelos mentais

O sistema cognitivo humano é caracterizado pelo tratamento de informaçõessimbólicas, isto é, as pessoas elaboram e trabalham sobre a realidade através demodelos mentais ou representações que elaboram a partir de uma realidade. essesmodelos, que condicionam totalmente o comportamento do indivíduo, constituem a suavisão da realidade, que é modificada e simplificada pelo o que é importante para ele.,essa visão amplia os elementos pertinentes e elimina os secundários estandointimamente ligada aos conhecimentos já adquiridos e a compreensão que o indivíduotem do problema.

Os modelos mentais relativos a um sistema interativo, por exemplo, variam deindivíduo para indivíduo, em função de suas experiências passadas, evoluindo nesteindivíduo em função de seu aprendizado, assim podemos distinguir, numa determinadasituação de trabalho informatizada, duas conseqüências:

41

• As diferenças de modelos mentais entre usuários novatos eexperientes; e

• As diferenças de modelos mentais entre usuários, segundo as funçõespor eles exercidas, de gestão ou de operação.

A interface humano-computador deste sistema, deve ser flexível o suficiente, paraadequar-se aos diferentes tipos de usuários, ao mesmo tempo em que possa adaptar-se aevolução das características de usuário especifico durante o seu processo deaprendizagem do sistema.

As teorias cognitivas descrevem dois tipos básicos de modelos mentais:

1. Os que representam procedimentos; e 2. Os que representam conceitos.

Ambos se organizam em redes hierárquicas de conhecimentos, semânticos eprocedurais sobre, por exemplo, os significados das funções do sistema interativo e sobrecomo se operam estas funções. as lógicas de funcionamento e de operação de umdispositivo estão associadas à natureza destes dois tipos de representações mentais econtribuem igualmente para o seu entendimento. daí a necessidade dos textos de ajudaexplorarem estas duas perspectivas de um software interativo; como funcionam e comose operam suas funções.

Para o projeto de interfaces humano-computador, além da variabilidade nosindivíduos e no tempo, é importante saber o que favorece ou limita a armazenagem e arecuperação destas representações em estruturas de memória.

A memória

Os modelos mentais são armazenados e recuperados através de um conjunto defenômenos que tem em comum o fato de restituir a informação, com maior ou menortransformação, após certo tempo, quando a fonte desta informação não esta maispresente. a capacidade de memorização humana pode encadear os seguintes processos:

• reconhecimento: é a capacidade do homem de reencontrar no seu campoperceptivo elementos anteriormente memorizados (reconhecer o nome de umaopção de menu após muito tempo sem vê-la);

• reconstrução: é a capacidade do homem de recolocar os elementos memorizadosna sua organização anterior (quais eram os parâmetros iniciais da configuraçãode um parágrafo de texto antes de reconfigurá-lo?); e

• lembrança: é a capacidade do homem de recuperar, de forma integral, umasituação anteriormente vivenciada, sem a presença de nenhum dos elementosdessa situação.

Os conhecimentos científicos atuais não permitem definir, de forma exata, os”custos fisiológicos” associados a estes processos. entretanto, no que se refere a umapessoa que se vale de um aplicativo de produtividade, como um editor de textos ouplanilha, de forma intermitente, é possível considerar que a lembrança do nome exato deum comando, para entrada em uma linha, seja mais custosa do que a reconhecer em umpainel de menu, outros fatores influem nos custos cognitivos da memorização:

• O número de informações a serem detectadas e tratadas;• A redundância ou semelhança entre as informações;• A velocidade de apresentação das informações;• Os prazos para elaboração de respostas motoras em relação á percepção das

informações etc.

42

O armazenamento e a recuperação da informação podem ser explicadas a partirde fenômenos em dois níveis de atividades: nível neurofisiológico e nível cognitivo.

A memória conexionista

O modelo biônico/conexionista explica a memória a partir da neurofisiologia docérebro humano, com neurônios (células nervosas) e sinapses (comunicação entre elas)conforme a fig. 9.1. este modelo de memória propõe um modo de armazenagem, onde ainformação é distribuída sobre um conjunto de ligações sinápticas.

Figura 9.1 – Neurônio humano.

O funcionamento de um sistema conexionista é determinado pela rede de ligaçõesentre os neurônios (unidades de tratamento), e pelos pesos das ligações que determinamas ocorrências de sinapses (comunicação entre eles). as redes de neurônios são capazesde modificar sua própria conectividade, através da modificação dos pesos das ligações,conforme fig. 9.2. isso ocorre tanto em função de uma situação externa, ou de suaatividade interna. a rede assume assim, novos estados, e passa a fornecer respostasdiferenciadas em função das restrições de uma situação especifica.

Figura 9.2 – Rede neural artificial.

A memória cibernética computacional

43

O modelo cibernético/computacional, também chamado de modelo de VonNeumann, descreve a memória humana a nível cognitivo, a semelhança da memória deum computador. este modelo, distingue três sistemas de estocagem, que correspondem,provavelmente a sistemas neurofisiológicos também distintos: o registro sensorial dasinformações (rs), a memória de curto termo (mct) e a memória de longo termo (mlt).

Em sua versão original, a informação que é liberada pelo sistema perceptivo, éarmazenada em um registro sensorial de capacidade limitada. o registro sensorial dainformação é conservado apenas por alguns décimos de segundos, sem nenhumapossibilidade de prolongamento. a parte que é selecionada para um tratamento maiselaborado é armazenada em uma estrutura de memória descrita por dois modeloscomplementares: o da mct e o da mt, conforme fig. 9.3.

A capacidade da mct é de 6 a 7 itens, e seu esquecimento ocorre em poucossegundos. esta declaração define a mct como um registro de armazenamento, indiferenteao formato da informação e passivo em relação ao nível de evocabilidade exigido. já omodelo mt define esta memória intermediária como um centro de tratamentos, compostade dois subsistemas especializados, um nos tratamentos verbais e outro nos tratamentosvisual-espaciais. um executor central é capaz de manter certas informações em alto nívelde evocabilidade.

Figura 9.3 modelos mentais.

A partir da memória de trabalho, a informação pertinente é armazenada emregistros permanentes, os esquemas que representam à base de conhecimento doindivíduo. a permanência da informação na mlt não esta sujeita a limitações de ordemtemporal, o que não implica em uma acessibilidade permanente. o esquecimento nestamemória é descrito como incapacidade de recuperação e é causado pelo aumento emnúmeros e semelhança dos conhecimentos declarativos (conceitos), e pelaincompatibilidade entre os contextos de codificação e de recuperação dos conhecimentosprocedurais (procedimentos).

Na co-relação com os modelos mentais, existem dois tipos de esquemas:

1. A memória episódica guarda o conhecimento de ordem procedural,essencialmente dinâmico e automatizado. o efeito do contexto (intrínseco,interativo, psicológico) é o fator determinante da recuperação da informação namemória episódica. um bom desempenho depende da compatibilidade entre ascondições contextuais no momento do registro e no momento da recuperação; e

2. A memória semântica armazena conhecimentos declarativos organizados,segundo redes de proposições conceituais. o acesso á informação independe docontexto, e acontece pela ativação de um de seus nós, e pela propagação destasativação aos nós vizinhos.

44

A percepção

O homem toma conhecimento do mundo através do tratamento da informaçãosensorial, como todos os seres vivos, ele coleta no meio ambiente as informaçõesnecessárias á sua adaptação ou à sua sobrevivência. a percepção abrange o conjunto deestruturas e tratamentos pelos quais o organismo impõe um significado aos estímulossensoriais detectados.

Inicialmente, pode se distinguir a sensação da percepção, ainda que, nas atuaisobras de psicologia, elas sejam tratadas como dois níveis de um mesmo processocognitivo. na verdade, sensação é a resposta especifica á um estímulo sensorial,enquanto percepção é o conjunto dos mecanismos de codificação e de coordenação, dasdiferentes sensações elementares, visando lhes dar um significado. o estudo dapercepção situa-se num nível menos sensorial e mais cognitivo do que o estudo dasensação. de fato, neste caso, interessa menos as condições do estimulo que permitem apercepção e mais o percept correspondente á certo estimulo, isto é, o conhecimento do“objeto”, tal como ele é percebido.

A atividade de percepção distingue três níveis distintos de processos [Gagné,1962]:

• Processos de detecção ou neurofisiológicos: constatar se existe ou não um sinal. osujeito detectando o sinal, fará uma confrontação com as informaçõesmemorizadas para dar uma resposta;

• Processos de discriminação (de identificação) ou perceptivo: classificar asinformações em categorias. esta função só é possível se anteriormente houve adetecção e se as categorias foram também memorizadas;

• Processos de interpretação (tratamento das informações) ou cognitivo: dar umsignificado á informações. esta função só é possível se anteriormente houve adetecção, a discriminação e a aquisição dos conhecimentos (memorização).

Figura 9.4 – Percepção do meio ambiente pelo ser humano.

Pode-se descrever como os usuários tendem a reagir com as coisas do mundo a sua volta.primeiro, eles recebem algumas sensações que em seguida guardam em sua mente. então essesusuários tentam entender a sensação, a qual é filtrada tanto no consciente quanto no inconsciente.o usuário pode utilizar informações das experiências passadas podem ser utilizadas pela memória,influenciando as pessoas perceberem as coisas, e ajudando a decidir o que fazer. desta percepção ousuário pode formar uma ação – ou até mesmo não fazer nada – que mais tarde resultará em maissensações a serem interpretadas. esta simplificação ação/reação/ação é apresentada na fig. 9.4.

45

A percepção visual

O sistema visual humano é organizado segundo os níveis:

1. neuro-sensorial;2. perceptivo; e 3. cognitivo.

O nível neuro-sensorial envolve a transformação dos traços elementares daestimulação visual em primitivas visuais que, a nível perceptível, são estruturadasseguindo diversos mecanismos conhecidos como leis de GESTALT. estas leis descrevemas condições de aparecimento de grupamentos e incluem os princípios básicos daproximidade, similaridade, continuidade e conectividade, um exemplo de ilusão de ótica éapresentado na fig. 9.5.

Figura 9.5 – Ilusão de ótica.

A percepção de contornos, a segregação figura-fundo e a ocorrência de ilusõesótico-geométricas são fenômenos da estruturação pré-semântica. mesmo que possamcorresponder à aparência de um objeto, elas ainda não permitem sua identificação. paratanto é necessário montar uma representação espacial (3d) e recuperar osconhecimentos prévios sobre a função do objeto. ao completar os processos cognitivos oindivíduo tem acesso à representação fonológica e lexical sobre sua denominação. isto é,recupera o nome do objeto.

Percepção auditiva

O sistema auditivo humano recebe as informações de fontes sonoras simultâneasde maneira seletiva. as representações acusticamente coerentes, denominadas objetos ou“imagens” auditivas, são organizadas em processos paralelos e seqüenciais.

Nos processos paralelos o sistema auditivo organiza os eventos sonoros segundosua amplitude, freqüência, forma espectral e posição. os processos seqüenciais lidamcom sucessões de eventos acústicos percebidos na forma de um fluxo. os componentesde um fluxo sonoro apresentam continuidade, como em uma melodia, e sãodeterminados por relação de freqüência, cadência, intensidade, conteúdo espectrais, etc.

46

Percepção da fala

A percepção da linguagem falada está organizada na forma de uma série desucessivos processos de codificação. a nível neuro-sensorial ocorre a codificação neuronaldos estímulos fonéticos.

A informação sobre a estrutura espectral destes estímulos é extraída e estocadanuma memória sensorial de curtíssimo termo. isto permite a análise dos índicesacústicos pertinentes que são confrontados com os traços fonéticos característicos deuma linguagem específica. ocorre então a filtragem das variações fonéticas que não sãocaracterísticas, de maneira a isolar as unidades silábicas. a nível lexical se dá otratamento de acesso ao léxico e de identificação das palavras. a nível sintático ocorre aintegração das informações lexicais e sintáticas com a interpretação da mensagemrecebida.

Percepção orientada

A percepção é uma atividade eminentemente adaptativa e não um simplesestágio de registro passivo dos estímulos externos. o percebido, não uma fotografia fiel doocorrido. a percepção é uma construção, um conjunto de informações selecionadas eestruturadas, em função da experiência anterior das necessidades e das intenções doorganismo, implicado ativamente numa determinada situação. isso porque, os processoscognitivos de detecção e de discriminação das informações são extremamente complexose interligados.

A discriminação de uma informação apóia-se sobre uma detecção previamenteefetuada. assim, a detecção da informação não depende unicamente das característicasda estimulação externa ou sensação (como propõe a psicologia behaviorista), mastambém do tratamento que o sujeito pretende realizar. esta dependência da detecção dainformação “à montante” em relação à discriminação e o tratamento “à jusante”, nãoaparece de maneira evidente nas experiências de laboratório, quando a detecção para osujeito tem apenas o objetivo de responder a uma senha artificial, numa situaçãotambém artificial. ao contrario, na realidade do trabalho, a detecção responde a umobjetivo, mais ou menos explícito, por parte do sujeito, o qual irá organizar a coleta dasinformações consideradas pertinentes em relação a este objetivo.

A atenção e a vigilância desempenham um importante papel de regulação detodas as entradas de informações, tanto para as detecções dirigidas pelo sujeito(voluntárias e conscientes), como para as recepções impostas pelas estimulaçõesexternas. o meio ambiente é analisado e explorado, de forma seletiva. a exploração édirigida por esquemas antecipativos, que determinam à disponibilidade frente adiferentes tipos de configurações (óticas, sonoras, etc.) e a planificação da açãoperceptiva. esses esquemas são desenvolvidos a partir da historia pessoal e profissionalde cada individuo, sendo utilizados pelas configurações que são, constantementepercebidas.

O resultado da exploração perceptiva modifica o esquema inicial que, por suavez, modifica a exploração e, assim, sucessivamente. de fato, a detecção de umainformação é tomada de conhecimento da ocorrência de um evento, quer seja ele umaanormalidade, um incidente ou mesmo um desvio em relação a uma situação“estabilizada”, considerada normal.

Evidentemente, existem sinais que são percebidos, ainda que eles não façamparte do que foi antecipado. em geral, para que isto ocorra, é preciso que eles seimponham através de determinadas características físicas (nível ou freqüência sonora,luminosidade, cor, etc.). a orientação perceptiva se traduz por uma filtragem consideráveldos sinais, sobre os quais a percepção não é focalizada.

47

A orientação perceptiva é ligada ao curso da ação no qual o sujeito encontra-seengajado, num determinado momento e, em particular, aos objetivos que ele persegue.da mesma forma, ela depende da competência do sujeito, a qual permite umconhecimento da probabilidade do aparecimento de certos sinais, e do significado de umasérie de eventos.

Esta descrição dos mecanismos de exploração perceptiva permite destacar que aoperação de um sistema de produção (ou de uma simples máquina), não é um fenômenopassivo. a exploração dos diferentes sinais externos visa detectar incidentes em vias deocorrência, antes que eles tenham conseqüências mais graves. segundo o curso da açãoo qual o sujeito encontra-se envolvido, os parâmetros não serão explorados da mesmaforma, com a mesma freqüência ou mesma ordem. em um determinado momento, oindividuo realiza uma focalização cognitiva, a determinados eventos de forma seletiva, emprejuízo de outros, tornando-se mais atento e preparado para a realização de certasações.

Não se trata apenas de seqüências fixas de tomadas de informações e de açõesque se reproduzem de forma idêntica, uma em relação á outra, no desenvolvimento daatividade de trabalho, mas de complexas relações que podem ser descritas,resumidamente, da seguinte forma:

• A partir de sua informação e de sua experiência, um individuo estabelecerelações preferenciais entre certas configurações da realidade e das ações a seremrealizadas;

• Essas relações, quando ativadas, orientam a exploração perceptiva, a tomada deinformação, a decisão das ações a serem realizadas, a antecipação de seuresultado e o controle da coerência entre o resultado esperado e o resultado real;e

• Todas as relações, potencialmente disponíveis, não são ativadas numdeterminado momento. é o encadeamento das ações do individuo, frente á umadeterminada realidade, que provoca a ativação de certas relações.

Por exemplo, a representação que um usuário de um provedor de acesso à internettem sobre o processo de conexão por linha telefônica comporta um conhecimento sobreos objetivos desta fase, uma previsão sobre a evolução esperada com os ruídosproduzidos pela linha telefônica e pelo modem, a antecipação dos sinais e mensagensapresentados na interface e a preparação para o curso da ação seguinte (efetuar o login,por exemplo).

Exercícios

1. O que são modelos mentais? Pesquise 3 sites na internet a respeito doassunto. 2. Quais são as principais características da memória conexionista e da memóriacibernética computacional? 3. O que é percepção orientada?

48

Capítulo

10Fatores Econômicos no Projeto Multimídia

Desenvolvimento de projeto de multimídia

Antes de começar um projeto de multimídia, deve-se inicialmente desenvolveruma direção do escopo e conteúdo do projeto. A seguir desenvolve-se um esboçoorganizado e um planejamento que seja sensato em termos de quais habilidades, tempo,orçamento, ferramentas e recursos estão à mão. O software, as mensagens e o conteúdoapresentado na interface humana constituem juntos um projeto de multimídia.

Um Projeto de Multimídia não precisa ser interativo: os usuários podem conectar-se para agradar olhos e ouvidos assim como faz o cinema e a televisão. Um projetomultimídia pode ser:

• Linear, quando começa num ponto e é executado até o fim, por exemplo:filmes, cinema ou televisão.

• Não linear, (ou interativo) quando o controle da movimentação pelo conteúdoé permitido aos usuários à sua própria vontade.

Cuidados importantes são determinar como um usuário irá interagir emovimentar-se pelo conteúdo de um projeto requer grande atenção nas mensagens,esboço, arte-final e na programação. Um bom projeto pode ser estragado se tiver umainterface mal projetada ou com o conteúdo inadequado ou incorreto. Um Projeto deMultimídia é multidisciplinar e exige delegação de tarefas de acordo com a habilitação e acompetência de cada membro do grupo. Os projetos em multimídia devem serdesenvolvidos em, no mínimo, 5 estágios:

1.Processamento da idéia, definição necessidades e esboço das mensagens eobjetivos;2.Planejamento, estimativa do tempo necessário para fazer todos os elementos,verificar o orçamento e preparar um protótipo;3.Produção, implementar todas as tarefas definidas na etapa anterior e produzirum produto final;4.Teste, testar com usuários beta;5.Distribuição, embalar e distribuir o projeto para o usuário final.

Talvez a coisa mais importante a ter em mente durante o estágio deprocessamento da idéia é o balanço entre aplicação e praticidade. À medida que oprojetista pensa na idéia, deverá comparar seu propósito com a praticidade e custo deprodução e distribuição. Deve-se começar pelas definições amplas e depois pensar erefinar cada elemento constituído na multimídia e então gerar um plano de ação que setornará o mapa do caminho para a produção.

Questões importantes

1. Qual é a essência do que se deseja realizar? Quais são as aplicações emensagens?

49

2. Quais elementos e multimídia (textos, sons e visuais) apresentarão melhor suamensagem? Já existe material pronto?

3. Será um projeto novo ou uma expansão de algo já existente?4. Qual o hardware disponível para o projeto? Ele é suficiente?5. Que tipo de armazenamento de dados será necessário para a apresentação?6. Qual o hardware do cliente?7. Qual a sua ferramenta de desenvolvimento?8. Quanto tempo está disponível para o desenvolvimento?9. Quanto tempo pode ser gasto?

Desenvolvimento de um projeto

Pode-se manter um balanço entre a aplicação e a praticidade dinamicamenteadicionando-se ou subtraindo-se elementos da multimídia conforme são traçadas asidéias. O hardware disponível é o fator mais comum para realizar uma idéia demultimídia:

• sem acesso à internet não será possível visualizar a página; • se não tiver uma placa de som não será possível efeitos sonoros; • sem unidade de CD não será possível distribuir projetos grandes; • sem monitor de alta resolução não haverá imagens bonitas; etc.

Deve-se criar um plano de ação detalhado e balanceado, normalmente na formade uma tabela ou organograma de produção. A partir daí pode-se estimar custos everificar a viabilidade econômica do projeto. Utilizar sempre experiências acumuladas emprojetos anteriores.

Existem várias ferramentas de gerenciamento de projetos que podem auxiliar naordenação das diversas tarefas, itens de trabalho, recursos e custos necessários etc.Estas ferramentas devem fornecer vantagens de análise de modo a ajudar o gerente amanter o projeto dentro do cronograma e do orçamento, durante a fase de produção.

Quando se trabalha com projetos cujo planejamento abrange várias fases, tarefase itens de trabalho necessários para sua conclusão, faz-se necessário que esteselementos sejam distribuídos em uma linha de tempo. Assim necessita-se de umaestimativa de horas necessárias para cada tarefa, e sua posterior distribuição pelonúmero de pessoas dedicadas ao projeto. Portanto, se for possível, deve-se balancear ashoras necessárias para uma tarefa dentre os vários funcionários fazendo com que amesma leve menos tempo.

A estimativa de custos na criação de projetos multimídia envolve uma pesquisacontínua e um trabalho de desenvolvimento caracterizado por experimentos criativos detentativa e erro. Cada projeto novo é diferente do anterior e cada um pode requererferramentas e soluções diferentes. Faz-se necessário também incluir custos indiretos deadministração e gerenciamento, contatos com clientes (telefônicos ou visitas), escreverrelatórios etc.

Além do mais, existem especialistas que deverão trabalhar no projeto somentedurante certas fases (músicos, artista gráfico, jornalista etc.) que poderão exigir gastosadicionais à estimativa inicial para a participação de reuniões do projeto e nas sessões decriação. De modo geral estes 3 elementos (tempo, dinheiro e pessoas) podem variar nasestimativas do projeto. Caso um deles seja diminuído, será necessário aumentar outroelemento ou ambos, um gráfico destas relações está apresentado na fig. 10.1.

Pode-se levar em conta que preços normais de produção de multimídia variam de

US $ 55.00 a US $ 170,00, dependendo do trabalho a ser feito e da pessoa que o fará.

50

10.1 - Tempo x dinheiro x pessoas.

Estimativa de custos

Os preços dos projetos devem ser definidos de acordo com o custo do negócio aser feito mais uma margem de lucro razoável. As equações a seguir podem ser válidas:

• Pr = Cp + En + Lu; • Im = 12% de Pr; e• Fa = P + Im, onde• Pr = preço do projeto;• Cp = custo do projeto (homem/hora de trabalho + equipamentos)• En = encargos (70% sobre h/h), são custos dos empregados• Im = impostos (12% sobre Pr)• Lu =lucro da empresa (20% sobre Cp)• Fa = preço na fatura

Exemplo prático:

Para Cp = R$ 12.000, correspondente 100 horas de trabalho e custo de utilizaçãode equipamentos, tem-se:

• En = Cp * 70% = 12000 * 0.7 => En = R$ 8.400,00• Lu = CP * 20% = 12000 * 0.2 => Lu = R$ 2.400,00; assim• Pr = Cp + Em + Lu = 12.000 + 8.400 + 2.400 = R$ 22.800,00• Im = Cp * 0.12 = 12.000 * 0.12 = R$ 1.440,00 • Fa = Pr + Im = 22.800 + 1440 = R$ 24.240,00

Assim, em nosso ponto de vista, a empresa deverá cobrar R$ 24.240,00 no preçofinal da fatura pelos serviços. Daí serão retirados R$ 1.440,00 para o pagamento deimpostos. Sobrando R$ 22.800,00 de onde serão retirados R$ 8.400,00 para pagamentode encargos, sobrando R$ 14.400,00, destes o dono da empresa poderá usar apenas R$2.400,00 para seu deleite, pois os R$ 12.000,00 restantes deverão fazer parte do capitalda empresa para garantir seu funcionamento.

Exercícios

1. Com base na apresentação sobre definição de custos de um projeto vistaanteriormente, defina os custos do projeto de um sistema multimídia para treinamentode técnicos em manutenção de computadores.

51

Capítulo

11Produção

Produção de multimídia

A fase de produção multimídia é a fase em que o projeto multimídia estárealmente sendo executado. Durante esta fase poderão ocorrer diversos tipos decontratempos, assim faz-se necessário um controle eficiente do tempo necessário para odesempenho das diversas pessoas, tarefas e utilização dos recursos de software ehardware envolvidos.

Várias atividades fundamentais de produção merecem atenção especial: mapasde navegação, agrupamento do conteúdo, encaminhamento, comunicação e uso dostalentos etc. Mapear a estrutura de navegação de um projeto é uma tarefa que deve serfeita no início da fase de planejamento de cada projeto.

Um mapa de movimentação fornece uma tabela, bem como um gráfico do fluxológico da interface interativa. Existem 4 estruturas fundamentais de organização danavegação do usuário pelo projeto, também mostrado na fig. 11.1:

• Linear: movimentação seqüencial de um quadro para outro;• Hierárquica: estrutura de árvore invertida, formada pela lógica natural do

conteúdo;• Não-linear: movimentação livre através do conteúdo do projeto, não existem

caminhos pré determinados; e• Composta: mistura das formas de organização anteriores.

Figura 11.1 - Modelos de estruturas de navegação em hiperdocumentos.

52

Preparação do conteúdo

É uma das tarefas de produção mais caras e que consome mais tempo. Oprojetista deve planejar antecipadamente reservando tempo e dinheiro para esta tarefa,por exemplo:

• No caso de um projeto que descreverá o uso de uma nova parte damaquinaria de um robô, o projetista deve: fotografar estas partes novas ouaproveitar fotos já existentes?

• No caso da utilização de um vídeo original, deve-se filmar tudo novamente, ouexistem fitas para editar?

• Deve também especificar no planejamento do projeto o formato e a qualidadedo conteúdo e os dados que lhe devem ser fornecidos, pois a conversão doformato e as edições levam tempo.

A comunicação entre as pessoas que estão criando o projeto bem como a gerênciado projeto e o cliente é fundamental para o sucesso do projeto. Ciclos de aprovação docliente: deve-se evitar retornos contínuos criando-se um esquema que especifique onúmero e a duração de ciclos de aprovação do cliente, proporcionando um mecanismoeficiente de pedidos de mudança. O cliente deverá ser lembrado que pagará uma taxaextra pelo retrabalho de partes não previstas na especificação de requisitos.

Mídia para armazenamento de dados e transporte: tanto o projetista quanto ocliente precisam de sistemas de transferência de mídia correspondentes. Para armazenara mídia, é possível usar a própria internet para transferir os arquivos, discos flexíveis,discos rígidos externos, Zipdrives, discos óticos etc.

Mesmo em projetos pequenos, o projetista se vê lidando com muitos bits e partesdigitais, portanto é importante que exista um método para encaminhar o recebimento domaterial que será incorporado no projeto multimídia. Deve ser preocupação do projetista:

• Desenvolver uma conversão de nomes de arquivos em diretórios ou pastascom nomes lógicos;

• Se trabalhando em plataformas diferentes, deve-se desenvolver um sistemade identificação de arquivo que não comprometa seu controle em quaisquerplataformas

• Controlar a versão dos arquivos e sempre saber qual a versão mais antiga ecom quem está a versão mais atual.

Testes

“Testar e depois testar novamente” . Deve-se testar e revisar o projeto paragarantir que ele esteja operacional e visualmente livre de erros e que os requisitos docliente tenham sido atingidos. Deve-se especificar claramente ao cliente a plataformapretendente e a sua configuração de hardware e software, e fornecer uma cláusula nocontrato ou no acordo que o projetista testará somente naquela plataforma.

Nem todo mundo pode testar software. Isso faz com que uma personalidadeespecial trabalhe neste produto. Cada recurso e função devem ser exercitados; deve-sedar um clique em cada botão. Alguns testes devem ser repetidos várias vezes comdiferentes hardwares e sob várias condições. Sejam os tipos de testes:

53

• Teste alfa: são normalmente para circulação interna e são passados por umgrupo de usuários selecionados. Estas versões são o primeiro rascunho doprojeto e é esperado que hajam problemas ou que elas estejam incompletas.

• Teste beta: são enviados a um público maior, mas ainda selecionado, com amesma advertência: este software pode conter erros e problemas desconhecidos.

Deve-se criar um “Grupo de Focalização”, que consiste em um grupo de usuárioseficazes que concordam em ser observados à medida que exercitam o projeto. Elesentendem que seu retorno e suas opiniões são valiosos. O grupos de focalização devemtestar o projeto para o seguinte:

• Funcionalidade: o projeto faz o que se propõe a realizar?• Praticidade: a interface funciona e satisfaz o usuário?• Exatidão: o conteúdo está correto?

Exercícios

1. Definir os meios de distribuição e os tipos de testes realizados para o projetodesenvolvido no capítulo anterior.

54

Capítulo

12Ambiente 3D - Realidade Virtual

Introdução

O termo ‘realidade Virtual’ (RV) foi inicialmente proposto por Jaron Lanier,fundador do VPL Research (1989). Outros termos relacionados incluem ‘RealidadeArtificial’ (Myron Krueger, 1970), ‘Cyberespaço’ (Willian Gibson, 1984) e, maisrecentemente, ‘Mundos Virtuais’ e ‘Equipamentos Environments’ (1990s).

Atualmente, o termo ‘Realidade Virtual’ é usado em uma grande variedade derecursos e normalmente de forma confusa. Originalmente este termo referia-se a‘Realidade Virtual Imersiva’. Em RV Imersiva, o usuário “mergulha” em um mundoartificial, de três dimensões geradas pelo computador.

Hardware

O Capacete para realidade Virtual ou “Head-Mounted Display” (HMD), comopode ser visto na fig.12.1, foi o primeiro dispositivo desenvolvido que permitiuexperimentos imersivos. Evans e Sutherland demonstram um HMD com qualidadestereo já em 1965. O Laboratório de Pesquisas VPL (Universidade de Michigan)desenvolveu seu primeiro HMD em 1989.

Figura 12.1 – Capacetes para Realidade Virtual.

Um HMD típico possui duas telas de cristal líquido em miniatura e um sistemaótico que direciona as imagens para os dois olhos, em uma visão de um mundo virtualem qualidade stereo. Um sensor de movimento mede continuamente a posição eorientação da cabeça do usuário permitindo que a imagem fornecida pelo computador

55

seja ajustada dentro do cenário virtual. Como resultado, o usuário pode olhar a sua voltae caminhar pelo mundo virtual.

Para minimizar o desconforto do uso do HMD, foram desenvolvidos outrosdispositivos para visão imersiva. VOOM, ou Binocular Omni-Orientation Monitor daEmpresa Fakespace, apresentado na fig.12.2, é um display stereo que permite oacoplamento da cabeça do usuário, onde telas e um sistema ótico foram colocadas emuma caixa anexada a um braço mecânico. O usuário olha dentro da caixa através de doisburacos, vê o mundo virtual, e pode dirigir-se para qualquer posição dentro dos limitesoperacionais do dispositivo. Os movimentos da cabeça são percebidos por dispositivosconectados ao braço mecânico e movimentam a caixa.

Figura 12.2- Binocular Omni-Orientation Monitor.

A CAVE, Cave Automatic Virtual Environment, como mostra a fig. 12.3, foidesenvolvido pela Universidade de Ilinois em Chicago e fornece uma ilusão de imersãoprojetando imagens stereo nas paredes e teto de uma sala em forma de cubo. Váriosusuários utilizando óculos especiais podem entrar e caminhar livremente dentro da“caverna”. Um sistema de monitoração da cabeça ajusta continuamente a projeção stereopara a posição corrente dos usuários.

Figura 12.3 – CAVE do LSI-USP.

56

Para que o usuário possa interagir com o ambiente virtual, manipular objetosetc. existe uma grande variedade de dispositivos de entrada, entretanto os maisutilizados são as luvas e “joysticks”, como pode ser observado na fig. 12.4. Outrosdispositivos podem ser utilizados para propiciar a “imersão” do usuário no ambientevirtual, tais como som direcional, dispositivos táteis e de “force feedback”,reconhecimento de voz etc.

Figura 12.4 – Luvas.

Características da RV imersiva

As principais características da realidade virtual Imersiva são descritas a seguir:

• Visores referenciados pela posição da cabeça, que permitem a navegaçãono espaço tridimensional para caminhadas, observações do ambientevirtual e locomoção de modo geral;

• Visão stereo, para incrementar o sentido espacial;• O mundo virtual é representado em uma escala 1:1 dando a maior

realidade aos objetos (tamanho do ser humano);• Interações realísticas com objetos virtuais a partir das luvas e outros

dispositivos, viabilizando a operação, controle e manipulação no mundovirtual;

• A “ilusão convincente” de estar completamente imerso no ambienteartificial;

Podem-se compartilhar ambientes virtuais a partir de redes de computadores,um exemplo desse compartilhamento está representado na fig. 12.5, onde três usuários,em locais diferentes, conectados por rede de computadores compartilhando o mesmoambiente virtual utilizando dispositivos diferentes, por exemplos o BOOM a CAVE e ocapacete.

57

Figura 12.5 - Compartilhando ambientes virtuais.

Todos os usuários vêem o mesmo ambiente, cada um do seu respectivo ponto devista. Cada ser humano é representado por uma imagem humana virtual (avatar) para osoutros participantes. Cada usuário pode ver, interagir e comunicar-se com o outro comouma equipe.

A RV não imersiva

Atualmente o termo “Realidade Virtual” é também utilizado em aplicações nãototalmente imersivas. Cada vez mais as fronteiras do universo virtual ficam maisnebulosas permitindo o aparecimento desse tipo de ambiente. Em ambientes nãoimersivos podem-se utilizar navegação com o mouse através de um ambientetridimensional em um monitor de vídeo, ou a partir de um óculo, projetor estéreo eoutros. A ferramenta QuickTime VR (da Apple) por exemplo, utiliza fotos para modelarmundos tridimensionais e fornecer pseudo visões de caminhadas e paisagens em ummonitor de vídeo.

A linguagem VRML

“Virtual Reality Modeling Language” ou VRML permite a exploração deambientes virtuais na WWW. Do mesmo modo que “HyperText Markup Language” ouHTML tornou-se um padrão para a autoria de páginas, a VRML permite a integração demundos tridimensionais com hiperlinks na web. Home pages tornam-se espaços.

A visualização de espaços virtuais a partir de modelos VRML a partir de “plug-ins”, nos navegadores da web, como mostra a fig. 12.6, é feita em um monitor gráfico sobo controle do “mouse” e portanto não é imersiva. A sintaxe e as estruturas de dados daVRML fornecem uma ferramenta excelente para a modelagem de mundostridimensionais funcionais e interativos e que podem ser transferidos para sistemasimersivos.

Figura 12.6 – Visualizando com VRML.

58

Algumas tecnologias utilizam combinações de Realidade Virtual com outrosdispositivos, reais e virtuais. Sensores de movimento são empregados tanto paramonitorar movimentos de dançarinos e de atletas para estudos posteriores em RVimersiva. Essas tecnologias de Realidade Aumentada, permitem a visualização deambientes reais com a superposição de objetos virtuais. Sistemas de tele presença (taiscomo, tele medicina, tele robótica) fazem com que o usuário seja imerso em um mundoreal capturado por câmaras de vídeo em uma localidade a kilômetros de distância epermitem a manipulação remota de objetos reais via braços mecânicos e manipuladores.

Devido a suas características tecnológicas, aplicações de Realidade Virtual sãoliteralmente ilimitadas. Acredita-se que a RV venha a reformatar a interface entre ousuário e a tecnologia da informação oferecendo novos meios para a comunicação,informação, visualização de processos e a expressão criativa de idéias. Um ambientevirtual pode representar qualquer mundo tridimensional real ou abstrato, por exemplo,prédios, paisagens, naufrágios, espaçonaves, sítios arqueológicos, anatomia humana(animal), esculturas, reconstituição de crimes, sistema solar, prospecção de petróleo etc.como pode ser visto na fig. 12.7.

Figura 12.7 – Mundos virtuais.

Representações visuais e sensoriais são especialmente interessantes pararepresentação de sistemas abstratos tais como campos magnéticos, sistemas de fluxocom turbulência, modelos moleculares, sistemas matemáticos, acústica de auditórios,estoques e comportamento de mercados, densidades populacionais, fluxo de informaçõesbem como quaisquer outros trabalhos de natureza artística ou criativa. Esses mundosvirtuais podem ser animados, interativos, compartilhados podendo expor seucomportamento e funcionalidade.

Projeto de animações com VRML

Para facilitar a construção de mundos virtuais, normalmente antes daimplementação de um programa deve-se projetar o ambiente de trabalho, conformeapresenta a fig. 12.8. No projeto de ambientes virtuais faz-se necessário a utilização desímbolos apropriados.

59

Figura 12.8 – Exemplo de projeto.

Os símbolos fazem com que o programador perceba a relação entre os objetos,como pode ser visto na fig. 12.9, por exemplo: Ao representar um chute em uma bola, acoxa e a perna (Cilindros) deverão movimentar-se juntamente com o pé e o tornozelo(retângulos).

Figura 12.9- Relação entre objetos.

Outros exemplos de nós, são representados na Fig. 12.10.

Figura 12.10 – Exemplos de nós em projetos VRML

A linguagem VRML acrescenta percepção à navegação na web através dedescrições completas da cena em que o usuário se encontra, montando verdadeiros

60

“mundos virtuais” (“razão pela qual os arquivos VRML apresentam a extensão .wrl”, deworld reality language).

Para navegar pela realidade virtual na internet, é necessário ter uma ferramentaque entenda a VRML, normalmente um pelugem deverá ser instalado no browser, porexemplo o CosmoPlayer. Também existem ferramentas de autoria para odesenvolvimento das páginas, por exemplo o VRMLPad, como mostrado na fig. 12.11.

O node em VRML é um item que possui várias utilidades, seu nome indica suafunção básica (Transform, Cone, etc.). Cada node contém uma lista de campos (fields)que recebem valores que definem parâmetros para a função, por exemplo:

• Os fields do node Cone definem a altura do cone e a largura da base,esses valores são o mínimo necessário para a definição de um conecompleto.

• Um (Transform), no entanto, não é um node de desenho, é um node degrupo, por isso um de seus fields é um (Children) que é uma lista deoutros nodes.

Figura 12.11 – Interface de desenvolvimento VRML.

Exercícios

1. Seguindo o tutorial de VRML, desenhar uma figura contendo as primitivasbásicas (cone, esfera, cilindro e caixa).

2. Desenvolver um projeto em VRML representando o ambiente da sua sala deaula, inserindo a porta de entrada, quadro-negro e janelas.

61