8
3. ESTATÍSTICA E INFORMAÇÃO 3.1. Dois Pioneiros: Morse e Poe Foi observando uma caixa de tipos que Morse constatou um fenômeno estatístico que o levaria a criação do código que tem o seu nome: as divisões reservadas para certas letras (o "e", por exemplo) eram maiores do que para outras. A partir dai, efetuou o levantamento de diversas caixas completas de tipos, de modo a estabelecer uma tabela de freqüência das letras na língua inglesa (no código original: 12.000 tipos correspondendo ao "e", 200 correspondendo ao "z" — pontos extremos da tabela de freqüência) e lhes aplicou uma codificação binária (ou ternária, se tivermos em conta o espaço intervalar): ponto e traço. Tendo em vista um problema de economia de tempo, fez corresponder sinais mais simples ou curtos às letras mais freqüentes, e sinais mais complexos ou longos às letras de menor probabilidade de ocorrência, de tal sorte que a ordem das letras segundo suas freqüências fosse a inversa das mesmas segundo os comprimentos de seus respectivos sinais. Provavelmente já conhecendo o alfabeto Morse e sua base estatística, Edgar Poe publica, em 1843 (o código Morse é de 1832), o seu conto The Gold Bug (O Escara- velho de Ouro), onde se conta a história do descobrimento de fabuloso tesouro mediante a decifração ou decodificação de um pergaminho criptográfico. O enigma é solvido pela aplicação da tábua de freqüência do alfabeto, na língua inglesa. Além disso, no entanto, o método de William Legrand — o decifrador — percorre um caminho muito semelhante aos dos métodos estatísticos e probabilísticos utilizados na análise dos fenômenos lingüísticos e literários: No caso presente — em verdade, em todos os casos de escrita cifrada — a primeira questão se relaciona com a língua do código, pois os princípios de solução, especialmente no que concerne aos códigos mais simples, sofrem as variações e dependem do espírito do idioma em que se apóiam. Em geral, a única alternativa é a da experimentação (orientada por probabilidades) com as línguas conhecidas pelo decifrador, até que ele dê com a língua certa. The Gold Bug exibe toda uma rica variedade de processos sígnicos — para usar a terminologia de Charles Morris — do sinal ao símbolo ou, ainda, segundo Peirce, do ícone ao índice e ao símbolo. Que Edgar Poe não considerava esses fenômenos como meros quebra-cabeças virtuosísticos, "cerebrais", "formalistas", mas processos intimamente ligados às raízes mesmas da estrutura da linguagem, prova-o mais esta passagem de um seu artigo sobre criptografia, datado de 1841: O leitor deve ter em mente que a base de toda a arte da decifração se encontra nos princípios gerais de formação da própria linguagem, sendo por isso completamente independentedas leis particulares que governam qualquer código ou mensagem cifrada ou a elaboração de sua chave. As sucessivas e crescentes aproximações a um texto, como no caso, estão muito próximas da chamada cadeia de Markov, ou "série estocástica", de que trataremos logo adiante. E claro é que, a meio caminho da decifração, a mensagem como que se autodecifra, em função do contexto. Assim, no Escaravelho de Ouro, quando Legrand chega à quase-palavra "t ee", constata que uma única letra ("r") pode preencher o intervalo, para formar a palavra "tree" (árvore), dessa forma decodificando mais um sinal da mensagem secreta. Os mais curiosos lerão com novo prazer X-ing a Paragrab (Xizando um Editorial) de Poe — conto que se passa justamente na tipografia de um jornal; armados desta nova visão, poderão descobrir as novas e fascinantes profundidades da obra daquele poeta, que desvendou a natureza de código da linguagem, como muito bem o percebeu Roman Jakobson, ao constatar, entre outras coisas, que a palavra raven (corvo), que dá título ao seu mais famoso poema, não é senão a palavra nevar/never (nunca) ao espelho, mostrando que o corvo é, física e concretamente, a palavra que ele mesmo pronuncia (nevermore) como única de seu repertório fatal e como parábola do próprio poema, que nunca é senão ele mesmo, sina e necessidade. Observe-se que Edgar Poe, que não tem sido considerado poeta de grande porte pela crítica e história literárias, volta hoje à circulação sob nova luz e em nova grandeza — não mais, porém, no atrasado setor 43 44 45

Pignatari teoria informação

Embed Size (px)

Citation preview

Page 1: Pignatari teoria informação

3. ESTATÍSTICA E INFORMAÇÃO

3.1. Dois Pioneiros: Morse e Poe

Foi observando uma caixa de tipos que Morseconstatou um fenômeno estatístico que o levaria a criaçãodo código que tem o seu nome: as divisões reservadaspara certas letras (o "e", por exemplo) eram maiores doque para outras. A partir dai, efetuou o levantamento dediversas caixas completas de tipos, de modo a estabeleceruma tabela de freqüência das letras na língua inglesa (nocódigo original: 12.000 tipos correspondendo ao "e", 200correspondendo ao "z" — pontos extremos da tabela defreqüência) e lhes aplicou uma codificação binária (outernária, se tivermos em conta o espaço intervalar): pontoe traço. Tendo em vista um problema de economia detempo, fez corresponder sinais mais simples ou curtos àsletras mais freqüentes, e sinais mais complexos ou longosàs letras de menor probabilidade de ocorrência, de talsorte que a ordem das letras segundo suas freqüênciasfosse a inversa das mesmas segundo os comprimentos deseus respectivos sinais.

Provavelmente já conhecendo o alfabeto Morse esua base estatística, Edgar Poe publica, em 1843 (o códigoMorse é de 1832), o seu conto The Gold Bug (O Escara-velho de Ouro), onde se conta a história do descobrimentode fabuloso tesouro mediante a decifração oudecodificação de um pergaminho criptográfico. O enigmaé solvido pela aplicação da tábua de freqüência doalfabeto, na língua inglesa. Além disso, no entanto, ométodo de William Legrand — o decifrador — percorreum caminho muito semelhante aos dos métodosestatísticos e probabilísticos utilizados na análise dosfenômenos lingüísticos e literários:

No caso presente — em verdade, em todos os casos de escritacifrada — a primeira questão se relaciona com a língua do código,pois os princípios de solução, especialmente no que concerne aoscódigos mais simples, sofrem as variações e dependem do espíritodo idioma em que se apóiam. Em geral, a única alternativa é a daexperimentação (orientada por probabilidades) com as línguasconhecidas pelo decifrador, até que ele dê com a língua certa.

The Gold Bug exibe toda uma rica variedade deprocessos sígnicos — para usar a terminologia de CharlesMorris — do sinal ao símbolo ou, ainda, segundo Peirce,do ícone ao índice e ao símbolo. Que Edgar Poe nãoconsiderava esses fenômenos como meros quebra-cabeçasvirtuosísticos, "cerebrais", "formalistas", mas processosintimamente ligados às raízes mesmas da estrutura dalinguagem, prova-o mais esta passagem de um seu artigosobre criptografia, datado de 1841:

O leitor deve ter em mente que a base de toda a arte dadecifração se encontra nos princípios gerais de formação da própria

linguagem, sendo por isso completamente independentedas leisparticulares que governam qualquer código ou mensagem cifrada oua elaboração de sua chave.

As sucessivas e crescentes aproximações a um texto,como no caso, estão muito próximas da chamada cadeiade Markov, ou "série estocástica", de que trataremos logoadiante. E claro é que, a meio caminho da decifração, amensagem como que se autodecifra, em função docontexto. Assim, no Escaravelho de Ouro, quandoLegrand chega à quase-palavra "t ee", constata que umaúnica letra ("r") pode preencher o intervalo, para formar apalavra "tree" (árvore), dessa forma decodificando maisum sinal da mensagem secreta.

Os mais curiosos lerão com novo prazer X-ing aParagrab (Xizando um Editorial) de Poe — conto que sepassa justamente na tipografia de um jornal; armadosdesta nova visão, poderão descobrir as novas e fascinantesprofundidades da obra daquele poeta, que desvendou anatureza de código da linguagem, como muito bem opercebeu Roman Jakobson, ao constatar, entre outrascoisas, que a palavra raven (corvo), que dá título ao seumais famoso poema, não é senão a palavra nevar/never(nunca) ao espelho, mostrando que o corvo é, física econcretamente, a palavra que ele mesmo pronuncia(nevermore) como única de seu repertório fatal e comoparábola do próprio poema, que nunca é senão ele mesmo,sina e necessidade.

Observe-se que Edgar Poe, que não tem sidoconsiderado poeta de grande porte pela crítica e histórialiterárias, volta hoje à circulação sob nova luz e em novagrandeza — não mais, porém, no atrasado setor

43 44 45

Page 2: Pignatari teoria informação

literário,mas no avançado âmbito da Lingüística Estruturale da Teoria da Informação.

3.2. Código e Linguagem. Metalinguagem

Vê-se, por aí, que código e linguagem sãobasicamente uma e mesma coisa, a ponto de podermosdizer que o Português é um código, e o Inglês, outro. Oque não impede que, em certas circunstâncias, e paramaior clareza, se faça uma distinção entre linguagem ecódigo, como o faz Colin Cherry. Para ele, linguagem é"um vocabulário (de signos) e o modo de usá-los", umconjunto de signos e regras, tais como os que usamos naconversação diária, de um modo altamente flexível e, até,bastante "ilógico". O termo código teria, então, usoestritamente técnico. As mensagens podem ser codificadasquando já expressas por meio de signos (letras, porexemplo); então, uma codificação seria umatransformação, geralmente unívoca e reversível, por meioda qual mensagens podem ser convertidas de um conjuntode signos para outro. O código semafórico e o código dossurdos-mudos – melhor ainda, o código Morse –representam exemplos típicos. Dessa forma, as linguagensteriam um longo desenvolvimento orgânico, enquanto oscódigos seriam inventados para algum fim específico esujeitos a regras explícitas. A verdade, no entanto, é quena medida em que se introduz a ambigüidade num código– ou seja, quando a sua reversibilidade não é perfeita – elecomeça a tingir-se de certas características de linguagem,ou melhor, de língua.

De outra parte, convém fazer a distinção entrelíngua e linguagem, ainda mais quando vemos que, em

Inglês e Francês, as palavras language e langage sãotomadas como sinônimos de "língua". Por esta razão, no quenos toca, consideramos as línguas como manifestaçõesparticulares, fundamentais, embora, da linguagem, e aLingüística como um ramo da Semiótica, que pode, as-sim,ser considerada como A Linguagem (ou: princípios geraisque comandam toda e qualquer manifestação da linguagem).

No estudo da linguagem, uma última distinção se fazainda necessária: entre linguagem-objeto emetalinguagem. Linguagem-objeto é a linguagem que seestuda; metalinguagem é a linguagem com que se estuda,é a linguagem instrumental, crítico-analítica, que permiteestudar a linguagem-objeto sem com ela se confundir. Ouainda: quando linguagem-objeto se volta sobre si mesma,ela tende a ser metalinguagem, beneficiando-se dafenomenologia. Este fenômeno é particularmente notávelnas revoluções artísticas e de design (Dada,neoplasticismo e pop, nas artes visuais; dodecafonismo,música serial e eletrônica, na música; nouvelle vague, nocinema; Mallarmé, Joyce, Pound, poesia concreta, naliteratura; a revista Mad em relação às linguagem dosmeios de comunicação de massas; Mies Van Der Robe, naarquitetura). Segue-se daí que toda metalinguagem émarcadamente sintática, formal, estrutural. É porignorância deste fato e pela tendenciosa e hegemônica for-mação cultural de tipo lingüístico (melhor dizer"literário"), que a maior parte da chamada crítica de arte –literária, visual, musical, cinematográfica, arquitetônica –se manifesta "literária" e subjetivamente: carece demetalinguagem adequada (voltada que está,aristotelicamente, para o "conceito", o "conteúdo", a"significação"). O criador está por dentro da linguagem; o

crítico, por fora. O criador se alimenta das raízes dalinguagem; o crítico, de suas folhas, flores e frutos. Omesmo se diga dos professores de nossas universidades,ao abordarem o fenômeno artístico. A metalinguagem éum processo dinâmico, mas é comum ver como ela tendea se estratificar em código, confundindo-se então com ojargão técnico, especializado.

3.3. Informação e Seleção

A idéia de informação está sempre ligada à idéia deseleção e escolha. Informação, aqui, se refere, não a que"espécie de informação", mas a "quanta informação". Sópode haver informação onde há dúvida e dúvida implica aexistência de alternativas – donde escolha, seleção,discriminação. De outro lado, lembramos ainda que ossinais não transmitem ou transportam informação comoum vagão transporta mercadorias. Os sinais possuem umgrau de informação em virtude de sua força potencial depropiciar seleções, ou seja, por possuírem um potencialseletivo, ainda mais quando se sabe que, na maioria doscasos, os sinais não possuem ou não contam com a mesmaprobabilidade de ocorrência. Informação, pois, pode serentendida como instruções seletivas. Para usar a definição deG. A. Miller: informação é o de que necessitamos quandodevemos fazer uma escolha. Segue-se daí que não háinformação possível fora de um sistema qualquer de signosou sinais; inversamente, a introdução de um signo novo nosistema implicará, num primeiro momento, um certo grau de

46 47 48

Page 3: Pignatari teoria informação

"ininteligibilidade" desse mesmo signo face ao repertórioou sistema de signos existentes.

A formação de uma mensagem – uma palavra, umacadeia de palavras, por exemplo – implica seleção de sinaisde uma certa fonte (alfabeto), numa certa ordem; istosignifica que podemos estabelecer diversos graus deaproximação a uma língua ou a um texto, estatisticamentefalando. Imaginemos a reconstrução de um texto emportuguês, um texto possível e não sabido, a partir de umacoleção de letras formada segundo a freqüência relativa decada uma (maior quantidade de "a", menor quantidade de "z"etc.) e com espaços intervalares arbitrariamentepreestabelecidos, mas de modo a permitir o comparecimentode "palavras" de comprimentos possíveis, de acordo com oelenco léxico do idioma. Extraindo as letras uma a uma,como numa loteria, estaríamos trabalhando com"zerogramas" e estabelecendo uma aproximação de "grauzero" ao texto: dificilmente o resultado apresentaria qualquersemelhança com o Português. Em seguida, secondicionássemos o aparecimento de um sinal ao sinalimediatamente precedente, passa-ríamos a trabalhar comdigramas e teríamos uma aproximação de 12 grau (se o sinalprecedente for "ã', o digrama será provavelmente "ão", jádistintivo do idioma português). Se o comparecimento de umsinal estiver subordinado a um digrama prévio, teremos umaaproximação de 2 grau apoiada no trigrama e o resultadopoderá apresentar um aspecto de "arremedo" do idioma.Prosseguindo no processo, poderíamos passar a palavras emesmo a frases inteiras, de modo a construir textosexperimentais, aleatórios, com base puramente estatística.Este processo é conhecido como cadeia de Markov, e a sérieque daí se origina, série estocástica.

A cadeia de Markov, assim aplicada, desvenda anatureza de código da língua e da linguagem – e não podeescapar a sua analogia com a decifração da mensagemsecreta, tal como vem descrita no The Gold Bug, de Poe.Como não pode escapar a natureza estatística do códigolingüístico e das mensagens em geral, às quais se chegapor seleções sucessivas, seleções estas que não constituemoutra coisa sendo o processo de formação do repertório,repertório que poderíamos identificar com o "contextoverbal", no exemplo acima descrito. O repertório, por suavez, vai-se regendo por normas, que estruturam oorganismo ou sistema e que decidem sobre o campo dasopções (por que este signo e não outro? por que estaordem e não outra? por que esta relação e não outra?),campo desigual e desuniformemente constituído, uma vezque o repertório, em muitos casos, está longe de esgotar aspossibilidades combinatórias da fonte (caso da língua e doalfabeto). Quando falamos ou escrevemos, em verdade,estamos procedendo a rapidíssimas seleções de signos emnosso repertório, numa ordem organizativa, às vezesbastante maleável, prescrita pelas normas do sistema; nãonos damos conta do fato porque o processo já estáautomatizado, por meio dos constantes e reiterados feed-backs (auto-alimentações) da aprendizagem. Mas bastaobservar como a criança aprende a falar para percebermosas relações estruturais entre os processos do feed-back, dacadeia de Markov e da formação do repertório.Estatisticamente falando, as leis que comandam oprocesso integrado são as do acaso-e-escolha (chance &choice), ou seja, leis da probabilidade.

3.4: Anedota Exemplar

Certa vez, caminhava eu por uma avenida de São Paulo,onde vinha de ser inaugurado um luxuoso hotel, quando, depassagem, abeirou-se de mim um cidadão que, sorrindo, medisse: "Veja o senhor. Agora há pouco, um sujeito ali atráschegou e me perguntou onde ficava o Hotel Camundongo.Logo estranhei... mas aí me lembrei do nome desse hotelnovo e esclareci o sujeito que se tratava do Hotel Cômodosde Ouro e que ficava logo ali adiante". Satisfeito, o cidadão,sempre sorrindo, esticou o passo e se afastou de mim.Tratava-se, em verdade, do Hotel Comodoro ... Ficam aídefinidos: o processo estocástico e as faixas de repertório.

49 50 51

Page 4: Pignatari teoria informação

4. A TEORIA DA INFORMAÇÃO

4.1. Quantificação da Informação

A escolha mais simples entre duas possibilidadesiguais é a alternativa sim/não. Sirvam de exemplos ocara/coroa e o comutador de luz (ligado/desligado). Aquantidade de informação produzida por esta escolhapode ser considerada como unidade básica e édenominada binary digit (dígito binário) ou simplesmentebit. Bit = medida unitária da informação. No códigobinário, esta alternativa básica é dada por 1 e 0, tendo emvista, principalmente, a condição do circuito elétrico(aberto/fechado, ligado/desligado) e as suas aplicações nocampo da eletrônica (computadores eletrônicos, emparticular). Nem é por outra razão que Marshall McLuhanconsidera a luz elétrica como "informação pura".

Em termos matemáticos: Se há N possibilidadesigualmente possíveis, a quantidade de informação H édada por: log2 N. Exemplo de seleção de um objeto enre8 objetos eqüiprováveis.

Donde, H = log2 8 = 3 bits.

No caso de possibilidades desiguais, quanto menor apossibilidade de um sinal no conjunto, mais seleçõeselementares do tipo sim/não (1/0) são necessárias. Istosignifica que, quanto mais raro for um sinal, mais elevadoserá o seu grau, taxa ou teor de informação. O teor ougrau de informação é medido em termos de raridadeestatística (também chamado "valor de surpresa").

Eis a tábua de correspondências entre o códigodecimal e o código binário:

Código Decimal Código Binário0 01 12 103 114 1005 1016 1107 1118 10009 1001

(10) (1010)

Se fôssemos escrever, por exemplo, o número 630,dígito a dígito, teríamos: 0110.0011.0000 (preenchendo osvazios com zeros, para formar conjuntos ou expressões dequatro dígitos cada). Mas esta seria uma forma "impura",de compromisso com o sistema decimal. Em termosbinários puros, 630 se converte em: 10001110110.

Um processo prático de conversão é o de submeter onúmero decimal a sucessivas divisões por 2, atribuindo acada resultado par o dígito 0, e a cada resultado ímpar odígito 1, o que equivale a obter uma seqüência baseada nasegunda potência:

1 2 4 9 19 39 78 157 315 630

1 0 0 1 1 1 0 1 1 0

Cada dígito ocupa uma posição ou "endereço" na"memória" do computador, que pode operarnumericamente, ou ainda alfanumericamente, vale dizer,alfabeticamente, a cada letra correspondendo um códigonumérico (tratando-se, aqui, de computadores digitais). Oscomputadores analógicos são programados para finsespecíficos, com saída visual através de um vídeo(traçados de trajetória de mísseis, design de automóveis,simulação de espaços etc.).

Com os dados armazenados e de acordo com umasérie de instruções, que constituem um "programa", pode-se operar com o computador, que processa os dadosatravés de seleções ultra-rápidas do tipo sim-não, um-zero.Segue-se que a maior parte das notícias sensacionalistasque se publicam acerca de composições artísticas(literárias e musicais) criadas pelos chamados "cérebroseletrônicos" não passam de fantasias ou de meias-informações.

53 54 55

Page 5: Pignatari teoria informação

Claro que se podem criar tais obras com o auxílio docomputador, desde que se tenha em conta que, para amáquina, é indiferente "criar" um soneto ou uma poesiaconcreta: tudo depende dos dados armazenados (palavras, nocaso) e do programa operacional proposto pelo criador. Asobras mais válidas serão aquelas que mais de perto "falarem"a própria linguagem da máquina, isto é, aquelas propostasque toquem mais de perto a natureza estatística e de códigoda linguagem.

4.2. Informação e Entropia

O conceito de entropia surgiu inicialmente natermodinâmica, para indicar a medida estatística da perdade energia em certos processos físicos irreversíveis. Assimé que, pela segunda lei da termodinâmica, a quantidade decalor na qual se transformou uma certa quantidade detrabalho não pode mais ser inteiramente recuperada namesma quantidade de trabalho originária. Há uma perda,um consumo de energia – e o processo é irreversível, oque parece indicar tendências preferenciais da natureza,que tenderia a estados mais uniformes e não a estadosmenos uniformes. Seriam tendências entrópicas inerentesao próprio sistema, que, dessa forma, tenderia a umauniformidade térmica (a chamada "morte térmica" douniverso), a um caos indiferenciado ou desdiferenciado, aum estado de eqüiprobabilidade máxima, do qual aentropia seria a medida estatística.

Norbert Wiener, o fundador da Cibernética,generalizou o conceito de entropia, relacionando-o com oconceito de informação. Diz Wiener:

Enquanto a entropia aumenta, o universo e todos os sistemasisolados do universo tendem naturalmente a se deteriorar e perderseu caráter distintivo, de um estado menos provável a um estadomais provável, de estado de diferenciação e organização, em que hádistinções de formas, para um estado de caos e indistinção. EmGibbs, a ordem no universo é menos provável, e o caos, maisprovável. Porém, enquanto o universo como um todo, se realmentepuder ser considerado como tal, tende a se deteriorar, existem certasáreas nas quais a direção parece ser oposta àquela do universo comoum todo e onde há uma tendência limitada e temporária no sentidode uma organização crescente. A vida se enquadra em algumasdessas áreas.

Prossegue Wiener, em outro trecho de sua obraCybernetics and Society:

As mensagens são em si uma forma de padrão e deorganização. Com efeito, é possível tratar conjuntos de mensagenscomo tendo uma entropia, tais como conjuntos de estados domundo exterior. Assim como a entropia é uma medida dadesorganização, a informação transmitida por um conjunto demensagem é uma medida de organização. De fato, é possívelinterpretar a informação de uma mensagem essencialmente como onegativo de sua entropia e o logaritmo de sua probabilidade. Isto é,quanto mais provável é a mensagem, menor é a informaçãofornecida. Lugares-comuns, por exemplo, são menos esclarecedoresdo que grandes poemas.

Dessa forma, entropia negativa = informação. Erealmente, a idéia de "informação" está ligada, mesmointuitivamente, à idéia de surpresa, de insperado, deoriginalidade. Quanto menos previsível, ou mais rara, umamensagem, maior sua informação – sempre lembrando que aestrutura, o padrão (pattern) é a informação mais importantede um sistema. De outra parte, como todo e qualquer sistemade comunicação possui uma tendência entrópica, a noção de"ruído" tende a se identificar com a noção de "entropia".Assim, a diferenciação de formas e funções significa ordem,

enquanto a gradativa indiferenciação de formas e funçõesaponta para a desordem; quanto mais cresce a tendênciaorganizativa, maior a sua capacidade informacional – nãoimportando aqui se falamos de sistemas cósmicos outérmicos, de mensagens escritas ou de sociedades. Nadesdiferenciação de formas e funções, teríamos a tendênciacaótica ou entrópica, cujo ponto extremo seria auniformidade geral, o caos, onde não haveria possibilidadede informação nem troca possível de informação, pois esta sócomeça a existir onde houver um mínimo de diferenciação,um mínimo de alternativa sim/não – ou seja, um bit deinformação.

4.3. Redundância

Por sua própria natureza, a comunicação é umaespécie de processo variável e estatístico condicionadopela interdependência dos sinais, ou seja, pelas normas eregras que os relacionam e que decidem sobre o seu graude informação. As regras sintáticas introduzemredundância na mensagem, a fim de que a sua recepçãocorreta fique melhor amparada. São essas leis ou normasque dão estrutura ao sistema, de modo a permitir previsõesde comportamento ou de ocorrência de sinais. Porexemplo: por que não se bate à porta menos de duasvezes? Justamente para neutralizar o ruído ambiente,evitar a ambigüidade e garantir a efetiva transmissão damensagem. A redundância pode ser entendi-dasimplesmente como repetição; é causada por um excesso

56 57 58

Page 6: Pignatari teoria informação

de regras que confere à comunicação um certo coeficientede segurança, ou seja, comunica a mesma informaçãomais do que uma única vez e, eventualmente, de modosdiferentes. De outro lado, quanto maior a redundância,maior a previsibilidade, isto é, sinal redundante é sinalprevisível. A redundância introduz no sistema uma certacapacidade de absorção de ruído e de prevenção do erro:por exemplo, quando queremos certificar-nos do acerto deuma operação aritmética, nós a repetimos. Há sistemasnão-redundantes, sistemas integralmente informacionais,que esgotam todas as possibilidades combinatórias dafonte: os sistemas numéricos, por exemplo. Se errarmosum único dígito num cálculo matemático, num número detelefone, numa data ou num endereço – teremosinformação errada, pois o sistema não possui margemabsorvente de ruído. Ao nível analógico, podemos tomarcomo exemplo, o sistema das chaves Yale, cujo código,por necessidade, não pode possuir redundância. O mesmonão ocorre com outros sistemas, como as línguas; mesmonelas, há índices diversos de redundância. Neste exemplo:The yellow houses/As casas amarelas, podemos observara maior redundância do Português, cujas normascomandam a aposição do sinal de plural (s) no substantivoe nos atributos adjetivos, de modo que é possível eliminarum e até dois ss, sem perda da informação: As casaamarela. Já em Inglês, onde a redundância é menor, osinal de plural não pode ser eliminado sem erro nainformação.

É a redundância que torna possíveis as abreviaturas eo descartamento de certas regras gramaticais, bem como aexistência de certos fenômenos lingüísticos, como o

trocadilho. Claro é que a redundância não pode serentendida apenas como a maior freqüência de ocorrênciade certos sinais, pois, como foi indicado, a forma, a ordeme a própria quantidade em que ocorrem podem contrariara expectativa inerente ao sistema, ir contra os padrõesrelacionais previstos ou previsíveis, constituindo, assim,informação nova (quando não se caracterizarsimplesmente como ruído ou evento entrópico), comomuitas vezes pode ser observado tanto na arte como naciência. Sirvam de exemplos o famoso poema de CarlosDrummond de Andrade, "No Meio do Caminho", e váriasdas manifestações da poesia concreta.

Umberto Eco, quando esteve entre nós, em 1966,para ministrar uma série de palestras sobre Comunicaçãode Massas, observava que, no Brasil, as pessoas se tratamantes pelo prenome do que pelo nome (sobrenome), paraconcluir, muito justamente, que, sendo os sobrenomesbrasileiros – Silva, Pereira, Lima, Coelho – muitoredundantes, apelávamos para prenomes maisdiferenciados – e todos sabemos a que bizarros extremosessa necessidade nos tem conduzido: Virgulino, Jesuíno,Último, Valdecir etc. Ainda nessa mesma ordem deconstatações, podemos ver que o início das palavrasinforma mais do que seu final, pois os sufixos edesinências contribuem para maior redundância eambigüidade: é mais fácil reconstituir a palavra "intuição"se nos forem fornecidas as quatro primeiras letras do queas quatro últimas. Daí que os dicionários comuns seorganizam pelas entradas verbais, alfabeticamente, e nãopelas terminações; para os poetas que desejem metrificar erimar, no entanto, os dicionários analógicos, como osdicionários de rimas, são mais úteis, ou igualmente úteis,

pois se organizam pelo comprimento das palavras(número de sílabas) e pelas terminações. Vemos ainda queas palavras mais breves, mais utilizadas, informam menos,enquanto as mais longas, menos usuais, possuem maiortaxa de informação. Em Português, como em várias outraslínguas, as consoantes formam o verdadeiro esqueletoinformacional do sistema, pois informam mais do que asvogais; se eu propuser ao leitor a decifração da seguintemensagem

C P C B N

ele certamente atinará com a solução em brevetempo, mas levaria bem mais se lhe fornecesse uma cifracom-posta tão-somente da cadeia de vogais da mensagem:O AAAA.

Assim como a redundância funciona como corretivoda informação, a abreviação funciona como antídoto emrelação à redundância; a taquigrafia é um processo deescrita no qual se diminui ao máximo possível aredundância: usa-se um mínimo de vogais, excluem-separtes de palavras etc., de modo a se atingir um máximode concisão, sem que se destrua a informação, tendo-seem vista a economia necessária a um sistema de escritarápida. A sigla é também uma forma de abreviatura, umrecurso anti-redundante; quando expressões longas setornam muito correntes, são abreviadas sob a forma desiglas: Organização do Tratado do Atlântico Norte –OTAN. Quando se trata de palavras isoladas, são elascortadas a partir da terminação:cinematógrafo/cinema/cine. Numa conversação, aredundância é maior do que numa troca de cartas, por

59 60 61

Page 7: Pignatari teoria informação

exemplo; por outro lado, a palavra falada permite odescarte de muitas regras gramaticais, pois outros recursos– gestos, entonações, contexto, ambiente etc. — suprem arigidez das normas e abreviam ou mesmo eliminammaiores explicações, necessárias na escrita, para maiorclareza; a frase "VOCÊ FEZ ISTO?" adquire trêssignificados diferentes, dependendo da palavra que seacentua. Aliás, é o tom (pitch) que comanda o chinêsfalado, altamente redundante na sua constituiçãofonêmica, em oposição à sua escritura, ideogrâmica,pouco redundante. Ainda um exemplo: a abreviatura poreconomia e beneficiando-se das leis da redundância éparticularmente requerida nos telegramas.

A passagem da sigla para o logotipo (sigla ou nomecom desenho especial) e para a marca constitui um passoa mais no sentido da abreviatura: uma mensagem digitaltendendo para o analógico (vejam-se as marcas-logotiposde Esso, Coca-Cola, Volkswagen etc.). As bandeiras,emblemas e distintivos obedecem ao mesmo processo deformação das mensagens analógicas, de acordo com umcódigo preestabelecido, que se vai alargando no usopragmático, na medida mesma em que aqueles tipos demensagens se vão transformando em signos-síntese.

4.4.Redundância e Signo Novo

Há dois casos extremos de não-comunicação, ouincomunicação, e se referem à imprevisibilidade total outotal previsibilidade dos sinais. Por exemplo, se possoprever tudo o que uma pessoa me vai dizer, a mensagem étotalmente redundante e eu posso abster-me de a ouvir ou

ela de o dizer; ao contrário, se nada posso prever do queela me vai dizer — caso de alguém que se dirigisse a mimnuma língua que desconheço completamente — acomunicação também é impossível. Em ambos os casos,não há possibilidade de intercâmbio de informação.

Perguntado, certa vez, sobre o que achava de certolivro recém-lançado, Oswald de Andrade respondeu: "Nãoli e não gostei". A frase ficou famosa e enriqueceu o roldas boutades oswaldianas; no entanto, é perfeita-mentejustificável do ponto de vista da Teoria da Informação epode servir como ilustração de um dos casos deinutilidade da comunicação: o da redundância total. Étambém a baixa temperatura informacional de umamensagem — ou seja, sua grande redundância — quepermite a chamada leitura em diagonal, que o PresidenteKennedy praticava, ao que se diz. Já o signo novo tende aproduzir isolamento, é "ininteligível" à primeiraabordagem — por sua raridade e inesperado e pelo fato deser mais "dispendioso" (para o sistema nervoso, porexemplo). Sua absorção se faz com base no repertório ena dinâmica do interpretante (podemos também entenderrepertório como "memória" e interpretante como oconjunto dos "programas" possíveis do receptor damensagem). Já dizia Nietzsche: "Conhecer é traduzir algoque não se conhece em termos do que já se conhece". Oschamados fenômenos fisiognomônicos servem parailustrar o processo, que não deixa de ter ligação com osprocessos estocásticos referidos anteriormente: distinguirformas de animais, coisas e gentes nas nuvens ou nummuro não deixa de ser uma forma de "tradução" nosentido nietzschiano — e no sentido da Teoria daInformação.

Natureza ambígua da informação: o apêndice nasalemoldurado por óculos e bigode se caracteriza por maior taxa deinformação, ao mesmo tempo em que introduz um "ruído" nosistema altamente uniforme e redundante. Também ilustração doalargamento do repertório: no processo, o signo novo ganhasignificado critico, tendendo para a metalinguagem. A ampliação dorepertório está dialeticamente relacionada com o aumento decapacidade de metalinguagem.

62 63 64

Page 8: Pignatari teoria informação

Para concluir este capitulo: a comunicaçãopressupõe a existência de um repertório e de um códigocomuns a transmissor e receptor. Todo signo novo,externo ao código, é "ininteligível". No entanto, tomando-se repertório em sentido amplo, como a soma deexperiências e conhecimentos codificados de uma pessoaou grupo, podemos dizer que esse sistema necessita dainformação nova para combater a sua própria tendênciaentrópica, ou seja, a sua tendência a estados uniformes. Aintrodução do signo novo implica alargamento dorepertório e permite reduzir a taxa de redundância dosistema. Segue-se que a invenção, a originalidade(informação) é vital para o ordem do sistema, que buscará,por sua vez, sempre, novos estados de equilíbrio, atravésdo processo conhecido como homeostase.

Nem é por outra razão que, em nossos dias, vaitomando novo impulso a Heurística, ciência da decisão,da descoberta e da invenção, que se apóia em processos eprocessamentos de ordem estatística e probabilística, parachegar a decisões. Considerando que toda e qualquerinformação nasce de seleções ante alternativas, oproblema mesmo da decisão está intimamente ligado aoproblema da criação, da invenção, da originalidade.Decidir é criar – e "viver efetivamente é viver com ainformação adequada", como declara Wiener.

Pignatari, Décio (2002) Informação, Linguagem,comunicação, Ateliê Editorial, São Paulo

65