231
i UNIVERSIDADE ESTADUAL DE CAMPINAS Instituto de Filosofia e Ciências Humanas Marcelo Leite Biologia total: Hegemonia e informação no genoma humano Tese de Doutorado em Ciências Sociais apresentada ao Departamento de Ciências Sociais do Instituto de Filosofia e Ciências Humanas da Universidade Estadual de Campinas, sob orientação do Prof. Dr. Laymert Garcia dos Santos Este exemplar corresponde à versão final da Tese defendida e aprovada em 09/08/2005, perante a Banca Examinadora Banca Examinadora: Prof. Dr. Laymert Garcia dos Santos Profa. Dra. Leila da Costa Ferreira Prof. Dr. Hugh Lacey Prof. Dr. Renato Ortiz Prof. Dr. Fernando de Castro Reinach Suplentes: Prof. Dr. Josué Pereira da Silva Prof. Dr. Sandro José de Souza

UNIVERSIDADE ESTADUAL DE CAMPINAS Instituto de Filosofia e ...meidanis/PUB/Doutorado/Outros/Tese_… · Biologia total: Hegemonia e informação no genoma humano Tese de Doutorado

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

i

UNIVERSIDADE ESTADUAL DE CAMPINAS

Instituto de Filosofia e Ciências Humanas

Marcelo Leite

Biologia total:

Hegemonia e informação no genoma humano

Tese de Doutorado em Ciências Sociais apresentada ao Departamento de Ciências Sociais do Instituto de Filosofia e Ciências Humanas da Universidade Estadual de Campinas, sob orientação do Prof. Dr. Laymert Garcia dos Santos

Este exemplar corresponde à versão final da Tese defendida e aprovada em 09/08/2005, perante a Banca Examinadora

Banca Examinadora:

Prof. Dr. Laymert Garcia dos Santos

Profa. Dra. Leila da Costa Ferreira

Prof. Dr. Hugh Lacey

Prof. Dr. Renato Ortiz

Prof. Dr. Fernando de Castro Reinach

Suplentes:

Prof. Dr. Josué Pereira da Silva

Prof. Dr. Sandro José de Souza

ii

FICHA CATALOGRÁFICA ELABORADA PELA

BIBLIOTECA DO IFCH - UNICAMP

Palavras – chave em inglês (Keywords): Human Genome Project. Sociology. Science – Social aspects. Science Political aspects. Science – Moral and ethical aspects Biology – Philosophy. Genomes. Genetics. Biology. Biotechnology. Molecular biology. Information theory.

Área de concentração : Ciências Sociais. Titulação : Doutor em Ciências Sociais. Banca examinadora : Laymert Garcia dos Santos, Leila da Costa Ferreira, Hugh Lacey, Renato Ortiz, Fernando de Castro Reinach. Data da defesa : 09/08/2005.

Leite, Marcelo Nogueira L536b Biologia total: hegemonia e informação no genoma humano /

Marcelo Nogueira Leite. - - Campinas, SP : [s. n.], 2005. Orientador: Laymert Garcia dos Santos. Tese (doutorado ) - Universidade Estadual de Campinas, Instituto de Filosofia e Ciências Humanas.

1. Projeto Genoma Humano. 2. Sociologia. 3. Ciência – Aspectos sociais. 4. Ciência – Aspectos políticos. 5. Ciência – Aspectos morais e éticos. 6. Biologia - Filosofia. 7. Genomas. 8. Genética. 9. Biologia. 10. Biotecnologia. 12. Biologia molecular. 13. Teoria da informação. I. Santos, Laymert Garcia dos. II. Universidade Estadual de Campinas. Instituto de Filosofia e Ciências Humanas. III.Título.

iii

RESUMO

A tese central deste trabalho é que a aceitação pública despertada pelo Projeto Genoma

Humano só se explica pelo uso político e retórico de um determinismo genético

crescentemente irreconciliável com os resultados empíricos da pesquisa genômica atual. A

complexidade verificada no genoma humano e em suas interações com o meio desautoriza

a manutenção de uma noção simples e unidirecional de causalidade, contrariamente ao

pressuposto na idéia de gene como único portador de informação, esteio da doutrina do

determinismo genético. Um complexo de metáforas informacionais e/ou lingüísticas

continuo vivo nos textos publicados por biólogos moleculares na literatura científica,

notadamente nos artigos veiculados nos periódicos de alto impacto Nature e Science de 15

e 16 fevereiro de 2001, respectivamente. Tais metáforas inspiram um tipo de discurso

ambíguo que modula nuances variadas de retórica determinista, conforme se dirija aos

próprios pares ou ao público leigo. O campo da genômica ainda está longe de rejeitar a

conjunção problemática das noções de gene pré-formacionista e de gene como recurso

desenvolvimental na base da metáfora do gene como informação. Essa fusão inspirada pela

terminologia cibernética propicia uma versão asséptica de gene, distanciada da natureza,

puramente sintática, móvel e virtual o bastante para circular desimpedida nos circuitos de

produção de valor como recurso genético passível de garimpagem e de patenteamento.

Críticos da tecnociência devem desafiar o campo da genômica a reformular drasticamente

as metáforas que dão suporte a seu programa hegemônico de pesquisa.

iv

ABSTRACT

The central thesis of this work is that the public support generated for the Human Genome

Project and the hype surrounding it can be explained only by the political and rhetorical

uses of genetic determinism, a notion which increasingly cannot be reconciled with the

empirical results of on-going genomic research. The complexity that has been uncovered in

the human genome and in its interactions with the environment implies that a simple and

unidirectional notion of causality cannot be maintained, contrary to a presupposition of the

idea of the gene as the sole carrier of information, an idea that contributes to sustain the

doctrine of genetic determinism. A complex of informational and/or linguistic metaphors

lives on in the texts published by molecular biologists in the scientific press, most notably

in the issues published February 15th and 16th of 2001 of the high impact journals Nature

and Science, respectively. These metaphors generate an ambiguous type of discourse that

modulates various nuances of deterministic rhetoric, depending on whether it addresses

peers or the lay public. The field of genomics is still a long way from rejecting the

questionable conflation of the notions of gene as preformation and gene as developmental

resource which underpins the metaphor of gene as information. This conflation inspired by

cybernetics terminology enables an aseptic version of the gene, separated from nature,

portable and virtual enough to flow unimpeded through the channels of value production as

genetic resource suitable for mining and patenting. Critics of technoscience should

challenge the field of genomics to drastically reshape the metaphors which have supported

its hegemonic research agenda.

v

SUMÁRIO

INTRODUÇÃO GERAL p. 1

CAPÍTULO 1 p. 11

Modernidade e tecnologia: armadilhas do determinismo

CAPÍTULO 2 p. 49

Biotecnologia como arauto da Nova Era

CAPÍTULO 3 p. 81

Ecos do determinismo no Genoma Humano

CAPÍTULO 4

Outras biologias: sistemas de desenvolvimento p. 131

CAPÍTULO 5

Metáfora e destino da informação p. 177

CONCLUSÃO p. 207

REFERÊNCIAS BIBLIOGRÁFICAS p. 213

vi

ÍNDICE DE TABELAS E FIGURAS

Tabela 1: Quadro comparativo das edições sobre o genoma das revistas Nature e Science em 15 e 16 de fevereiro de 2001 p. 85 Figura 1: Capa da revista Nature em 15 de fevereiro de 2001 (v. 409, n. 6822) p. 87 Figura 2: Capa da revista Science em 16 de fevereiro de 2001 (v. 291, n. 5507) p. 88 Tabela 2: Hipérboles sobre o genoma nas revistas Nature e Science de 15 e 16 de fevereiro de 2001 p. 89 Tabela 3: Quadro comparativo de 16 empresas de genômica p. 120

1

INTRODUÇÃO GERAL

Este trabalho nasceu da necessidade de refletir sistematicamente sobre algumas

noções e obsessões sedimentadas ao longo de duas décadas de prática do jornalismo

científico: dar conta da insatisfação com a dicotomia entre natureza (biologia) e cultura

(sociedade); fazer a crítica do cientificismo contemporâneo e ao mesmo tempo manter-se

fiel à promessa de imparcialidade embutida na ciências naturais, como forma de resistir às

marés algo arbitrárias que varrem as ciências humanas; questionar o determinismo que

tende a reduzir os processos de mudança social a meros reflexos da invenção de novas

técnicas; entender o potencial perturbador da pesquisa biológica sobre representações,

valores e teorias sociais; combater todas as formas de determinismo biológico e genético,

antes de mais nada por sua incompatibilidade com uma visão mais grandiosa da vida; e,

acima de tudo, se possível, concluir se existe alternativa realista à dicotomia tradicional

entre uma visão otimista (prometéica) da técnica e da ciência e uma visão pessimista

(fáustica) que desespera daquela promessa de imparcialidade. Em poucas palavras, tratava-

se de dar densidade e coerência à convicção de que não se pode pensar o mundo

contemporâneo sem nele incluir as ciências naturais – no mundo vivido e, portanto, no

pensamento sobre ele.

Um dos temas que enfeixaram essa gama de preocupações, ao longo dos anos 1990,

foi o da biotecnologia. Nessa década, a tecnologia do DNA recombinante – ou seja, a

capacidade de manipular e rearranjar trechos de DNA, no que se convencionou chamar de

engenharia genética – deixou de ser pouco mais que uma curiosidade de laboratório para se

tornar o cerne de um sistema tecnológico em formação, ao qual chegou a ser atribuído o

potencial transformador do silício, do átomo, do petróleo, da eletricidade e do vapor. A

penetração da biotecnologia na medicina, na reprodução humana e na agricultura teve como

pano de fundo a conversão da pesquisa biológica a um modelo predominantemente

molecular, com a proliferação dos programas de inventário genético tão bem representados

no Projeto Genoma Humano (PGH). Nunca um empreendimento tecnocientífico dedicado à

vida havia comandado tanta atenção e energia na esfera pública, prerrogativa até então das

outras engenharias – as que produziam bombas e usinas atômicas, ou foguetes para alcançar

a Lua. A simples idéia de uma tecnologia da vida, de uma bio-tecnologia, aliada à sua

2

materialização em escala industrial, tocou um nervo de imaginação e ansiedade, que diz

mais sobre os vasos capilares propagados pelo conhecimento biológico no tecido da cultura

contemporânea do que sobre os resultados propriamente ditos da pesquisa biomolecular e

genômica.

Era e continua sendo necessário entender como e por que as tecnologias da vida

desencadearam tanta comoção. A tese central é que tal comoção só se explica pela

mobilização retórica e política, nas interfaces com a esfera pública leiga, de um

determinismo genético crescentemente irreconciliável com os resultados empíricos obtidos

no curso da própria pesquisa genômica; subsidiariamente, que as práticas discursivas dos

biólogos moleculares, cumpridos o objetivo retórico de construir sua hegemonia, já se

encontram numa fase de modulação para acomodar formulações menos deterministas –

consubstanciadas no que se chama de biologia de sistemas – e em grande medida

consistentes com perspectivas teóricas críticas dentro da própria biologia, antes descartadas

como noções ideológicas ou politicamente motivadas.

Para um jornalista em busca de uma perspectiva sociológica e filosófica para

considerar menos superficialmente sua própria atividade propagadora de noções e

representações sobre a tecnobiologia, o PGH como que se impunha como objeto de

pesquisa: nenhum outro assunto obteve tanta projeção nos meios de comunicação, sejam

eles leigos ou especializados, nos últimos anos. É esse projeto de pesquisa biológica que se

encontra no centro de gravidade deste trabalho, seus capítulos 3 e 4. Nos dois casos, a

opção metodológica foi analisar os textos produzidos pelos biólogos moleculares e seus

críticos, tanto aqueles voltados para o público mais especializado e publicados em

periódicos que têm no entanto ligação clara com a esfera pública leiga (como as revistas

Nature e Science) quanto artigos, entrevistas, ensaios e livros dirigidos por eles diretamente

ao público, no que se convencionou chamar de divulgação científica. O período coberto por

essa literatura se concentra entre os anos 2000 –quando o primeiro rascunho da seqüência

do genoma humano foi anunciado– e 2003, que marcou tanto a finalização do

seqüenciamento quanto o cinqüentenário da descoberta da estrutura do DNA por Watson e

Crick, erigido em momento inaugural de um processo que teria no PGH o seu clímax. Com

freqüência, porém, foi preciso recorrer a escritos de décadas anteriores, para buscar

algumas das raízes da hoje hegemônica biologia molecular. O objetivo dessa análise de

3

textos foi justamente acompanhar as variações nos graus e nas formulações de

determinismo genético entre autores e gêneros de publicação, assim como ao longo do

tempo, para extrair conclusões, relevantes para o pensamento social e para a sociologia da

ciência, das transformações em seus usos retóricos. Por fim, o estilo da pesquisa, por assim

dizer, será próximo da sociologia cognitiva preconizada por Ulrich Beck, uma forma de

crítica da ciência que se caracteriza por uma simbiose entre filosofia e vida cotidiana que se

ocupa de contrapor a estreiteza mental vigente nos laboratórios à estreiteza mental da

consciência individual e dos meios de comunicação (BECK, 1996a, p. 124). É no terreno

baldio entre esses dois pólos deficitários de reflexão que medram as metáforas com as quais

a tecnociência monta sua auto-imagem de pesquisa empírica neutra, uma projeção em geral

convincente que impede a maioria de enxergar nela uma atividade humana em que os

valores também desempenham um papel, embora ela o negue com veemência. O papel do

crítico da ciência natural, então, é o de engalfinhar-se com tais metáforas munido de duas

armas: a verificação de sua concordância com os modelos explicativos continuamente

revisados à luz dos resultados empíricos, para determinar se tais metáforas não ganham

vida própria e derivam para longe de seus objetos; e a remontagem das transformações

sucessivas de certas famílias de figuras recorrentes, para entender se houve momentos

nessa história em que as analogias desempenharam função mais heurística ou mais

ideológica. No caso deste trabalho, o complexo de metáforas no fulcro de análise é a do

gene como informação, esteio do determinismo biológico e do genocentrismo que dão e

deram sustentação ao Projeto Genoma Humano.

Considerar tal objeto (o PGH) de uma perspectiva adequada exigia primeiramente

estimar a dimensão correta da influência dos sistemas tecnológicos sobre o processo de

mudança social, razão pela qual o primeiro capítulo se debruça sobre o tema do

determinismo tecnológico, numa tentativa de livrar o terreno de análise da tentação de

travestir o objeto de pesquisa em fator definidor de toda uma era, algo como o Século da

Biotecnologia. Antes que se passe de fato a acreditar que o seqüenciamento do genoma

revela as engrenagens da natureza humana e faz um downsizing do livre arbítrio, era

preciso vacinar-se contra a atribuição de causas simples a processos complexos

característica de explicações como “o automóvel criou o subúrbio” ou “a pílula deflagrou a

revolução sexual”. Os temas principais do capítulo são o da autonomização da técnica

4

diante do ser humano e um seu correlato, o da oposição entre as perspectivas prometéica

(otimista) e fáustica (pessimista) na interpretação do papel da tecnologia na história. Essas

figuras em oposição são rastreadas nas primeiras obras do século XX preocupadas com a

centralidade da tecnologia e também na tradição oriunda de Marx, em particular na Escola

de Frankfurt, até se tornarem temas centrais de investigação social na oposição renovada

entre sociologia do risco e modernização reflexiva, de um lado, e teoria da modernização

ecológica, de outro. Desse rastreamento emerge que tal dicotomia só se resolve pelo

reconhecimento de que a tecnociência ocupa papel central, sim, na dinâmica

socioeconômica contemporânea, mas não irreparavelmente descolada da ação humana

(como pressupõe o determinismo tecnológico estrito), podendo e devendo esse

estreitamento da razão e do escopo do projeto científico tornar-se alvo de um ceticismo

sistemático na esfera pública, como instrumento de autonomia e emancipação. A adoção

dessa perspectiva, ademais, implica rejeitar ao menos a noção forte de determinismo

tecnológico, reservando um mínimo de espontaneidade aos sujeitos sociais diante de

sistemas tecnológicos que, embora dotados de considerável momento inercial, não se

encontram por definição fora de controle humano.

O segundo capítulo aplica o questionamento genérico do determinismo tecnológico

ao setor da biotecnologia, perguntando se faz sentido emprestar-lhe centralidade tal, na

sociedade contemporânea, a ponto de caracterizá-la como uma Era da Biotecnologia.

Primeiramente, discute seu papel no mundo da produção, concluindo que ela de fato não

faz sombra hoje à importância e alcance sistêmicos característicos da informática,

contemporaneamente, ou do petróleo, da eletricidade e da máquina a vapor, no passado,

que modificaram profundamente o próprio modo de organização da produção e o mundo do

trabalho. Ainda assim, fica evidente que, primeiro, nada impede que as biotecnologias,

principalmente numa eventual confluência com a informática e a nanotecnologia, venham a

se tornar determinantes para o dinamismo da economia; depois, que já no presente a

biotecnologia paradigmática da genômica está adquirindo o peso de um fator estruturante

da sociedade, senão pela ponta de sua base econômica, ao menos pelo aspecto da

sociabilidade, posto que tem potencial – real ou imaginado – para afetar a constituição dos

sujeitos, não só como produtores de cultura, mas em sua própria existência material, como

organismos. Em resumo, como sistema tecnológico a biotecnologia pode encontrar-se ainda

7

transliterada em aminoácidos, determina uma proteína e/ou uma função. Essa crise do

conceito se explicitou com força incomum na revelação de que o número de genes

estimados no genoma humano ficou entre um terço e um quarto do número anteriormente

calculado, com base na quantidade de proteínas no repertório da espécie humana. Uma

enumeração de constatações recentes sobre a complexidade da organização genômica

mostra que a insatisfação com a visão determinista um gene/uma proteína/uma função não

viceja somente entre biólogos que são críticos habituais do PGH, mas nos próprios

laboratórios de biologia molecular. Com isso, começa a se disseminar no campo genômico

uma concepção mais sistêmica da biologia, que acolhe entre seus princípios alguns dos

argumentos e propostas apresentados há anos por pesquisadores insatisfeitos com a

estreiteza da perspectiva determinista, por sua vez enfeixados numa perspectiva teórica

ainda em processo de formalização e batizada de teoria de sistemas desenvolvimentais

(DST, que é herdeira de uma tradição de resistência contra a eugenia e a sociobiologia).

Essa visão não-determinista privilegia interações e fatores não-genômicos no

desenvolvimento de organismos, como a epigenética, o cuidado parental e a delimitação do

ambiente pelo próprio organismo (niche-picking). Diante desse tipo de constelação

interacionista, torna-se difícil manter o vocabulário determinista de programas, instruções,

informação e controle, que pressupõe o isolamento de causas discretas e separadas. Genes

não determinam sozinhos as características herdadas, não são os únicos recursos

desenvolvimentais transmitidos e não constituem a única partícula sobre a qual age a

seleção natural. Mas tal recusa do determinismo não precisa comprometer o reducionismo

físicalista (elucidação molecular de processos biológicos), que permanece como estratégia

de investigação empírica legítima, de um ponto de vista cognitivo. Nada contra a pesquisa

genômica, em si mesma; o que merece consideração crítica é a tendência valorativa a

equacionar seus resultados com a explicação cabal de processos biológicos e sociais.

O quinto capítulo oferece uma visão crítica da noção pré-formacionista de gene

como informação. Nascida como código em 1943, antes portanto da descoberta da estrutura

do DNA em dupla hélice, a noção ainda teórica do físico Erwin Schrödinger já vinha

dotada do ingrediente problemático – porém essencial à doutrina da ação gênica –, a

capacidade de executar o que prefigura: encontra-se nos genes a informação que dá origem

e forma à matéria viva. Essa visão que enfeixa no gene os atributos da cognição se articula

8

numa série de metáforas ainda hoje encontráveis na apresentação da genômica, como se

verá no terceiro capítulo: plano-mestre ou planta arquitetônica (blueprint); imagem ou

símbolo; regra, instrução ou programa; e assim por diante. Com o advento da engenharia

genética (tecnologia do DNA recombinante) na década de 1970, esse conceito cognitivista

de gene serviria de âncora para fixar a noção de informação genética como unidade de

controle tecnológico (manipulação) e, por extensão, de apropriação (patenteamento).

Esse quinto capítulo, seguindo as indicações de Lenny Moss, mostra ainda como

essa construção se faz pela fusão imperceptível de dois conceitos diversos de gene, o gene

pré-formacionista dos primórdios da genética e o gene como um recurso entre outros para o

desenvolvimento do organismo. Essa fusão dá origem a uma noção híbrida e por assim

dizer bastarda, articulada de maneira espúria pela figura da informação genética, cunhada

com inspiração das teorias cibernéticas em voga nas décadas de 1950 e 1960, quando as

descobertas pioneiras sobre o chamado código genético estavam em curso. Por meio dessa

operação o gene passa a ser concebido como uma espécie de ícone da função biológica, ao

mesmo tempo em que, na condição de portador da asséptica informação genética, se livra

da carga incômoda da especificidade biológica, tornando-se móvel, virtual e manipulável o

bastante para circular desimpedidamente pelos bancos de dados e de propriedade

intelectual. O capítulo conclui pela necessidade de uma reformulação radical das metáforas

sobre o gene.

Para finalizar esta introdução, é preciso deixar registradas duas influências decisivas

para este trabalho. A primeira devo a Laymert Garcia dos Santos, meu orientador, e se trata

de sua percepção pioneira de que a chave interpretativa de tantas questões relativas à

tecnociência contemporânea se encontra na noção polissêmica de informação. A segunda é

mais sutil, por comparecer neste trabalho mais como arcabouço do que como tema, mas

nem por isso menos crucial, e se encontra nas obras de Hugh Lacey sobre a presença e o

papel dos valores na pesquisa científica, sobretudo no campo das ciências naturais; em

particular, devo a ele a percepção um tanto tardia, para mim, de que a pesquisa empírica

sistemática não se confunde necessariamente com a de pesquisa experimental, uma vez que

o controle por ela visado constitui na verdade um valor que pode, mas não precisa, orientar

a ciência.

9

De ambos procurei assimilar, acima de tudo, a inventividade e o rigor da reflexão –

dois atributos do trabalho intelectual que, com lamentável freqüência, estão ausentes da

minha profissão de origem, o jornalismo.

10

11

CAPÍTULO 1

Modernidade e tecnologia: armadilhas do determinismo

1.1 A questão do determinismo tecnológico

A pergunta sobre a penetração e os limites da tecnologia se tornou um tema

recorrente na ciência social no século XX e, já por sua formulação, parece identificar na

aceleração tecnológica a raiz da perplexidade que aflige as sociedades contemporâneas.

Para todos os efeitos, foi e permanece válido o diagnóstico apresentado em 1964 por Robert

K. Merton, na sua introdução à edição norte-americana de La technique ou l’enjeu du

siècle, de Jacques Ellul: “Não entendendo o que o domínio da técnica está fazendo dele e

de seu mundo, o homem moderno é tomado pela ansiedade e por um sentimento de

insegurança. Ele tenta adaptar-se a mudanças que não pode compreender” (ELLUL, 1964,

p. vii) 1 Quatro décadas depois, pode-se afirmar que a proliferação e a sucessão frenética de

figuras tecnológicas, sobretudo aquelas que têm por objeto o mundo da vida,

potencializaram os fatores etiológicos da ansiedade, mas é difícil sustentar que os homens

desta virada de século padeçam de um mal inédito em sua civilização.

Se o século XIX foi marcado por um entusiasmo com a técnica e com sua promessa

de progresso para a humanidade (SMITH, 1994, p. 7), otimismo que parece ter contagiado

até o pensamento marxista, o século XX caracterizou-se por descobri-la também como um

vetor de destruição e de regressão social. Havia já no XIX, decerto, uma cultura muito

norte-americana de crítica à idéia tecnocrática de progresso, mas de caráter sobretudo

moral, como nos escritos de Ralph Waldo Emerson, Henry Thoreau, Herman Melville e

Nathaniel Hawthorne (SMITH, 1994, p. 26); caberia ao século seguinte, contudo, denunciar

politicamente o potencial do desenvolvimento tecnológico para disseminar males –não só

morais– pelo mundo todo. Ao século XXI, fica reservado o desafio de construir saídas

igualmente políticas –se as houver– para esse dilema entre as perspectivas prometéica e

fáustica2 abertas pela tecnologia.

1 “Not understanding what the rule of technique is doing to him and to his world, modern man is beset by anxiety and a feeling of insecurity. He tries to adapt to changes he cannot comprehend.” 2 Tal como foram designadas por Hermínio MARTINS (1996a, p. 200-201): “A tradição Prometeica liga o domínio técnico da natureza a fins humanos e sobretudo ao bem humano, à emancipação da espécie inteira e,

12

Antes de passar ao mapeamento de algumas dessas críticas da tecnologia no século

passado, porém, cabe reter a atenção por algum tempo sobre a própria idéia da técnica

como protagonista da história, como um fator central na transformação paulatina ou

intempestiva da sociedade, a ponto de levar à cunhagem de neologismos, como

“tecnologia” ou “tecnociência”, na tentativa de captar melhor essa nova e proeminente

configuração de algo tão antigo quanto a espécie humana –seus modos de conceber e

modificar objetos naturais. Por ser um elemento quase indissociável da própria noção de

modernidade, a tendência é tomar essa centralidade da técnica como algo dado, natural;

uma análise mais detida, porém, revela que tal ascensão conceitual não se faz sem

dificuldades e considerável polêmica, consagrada como o tema do determinismo

tecnológico, por sua vez definido como “a crença de que forças técnicas determinam a

mudança social e cultural” (HUGHES, 1994, p. 102).3

Por essa visão, a técnica instala-se no âmago do processo social como o impulso

dinâmico imanente que move suas engrenagens fundamentais, produção e diferenciação,

penetrando até mesmo a esfera da cultura, antes reservada ao domínio do pensamento puro.

O esquema tradicional de causação passa a comportar uma inversão, e não é mais somente

o pensamento que detém a capacidade de emprestar forma à organização material da vida,

mas a própria vida material, corporificada nos utensílios e depois nas máquinas, que se

torna capaz de ao menos condicionar as formas de pensamento, ou até mesmo de

determiná-las. Não faltaram no século XX aqueles que, acossados por uma multidão

crescente de máquinas e invenções, puseram a técnica não só no centro como no comando

do processo social e, para além dele, da própria história –como nos casos extremos de

Marshall McLuhan e Jack Goody, para quem invenções técnicas como a escrita fonética e a

tipografia tiveram o poder de desencadear movimentos de proporções tectônicas na história

humana, como o próprio advento da democracia e a gênese do individualismo:4

em particular, das ‘classes mais numerosas e pobres’ (na formulação Saint-Simoniana). A tradição Fáustica esforça-se por desmascarar os argumentos Prometeicos, quer subscrevendo, quer procurando ultrapassar (sem solução clara e inequívoca) o nihilismo tecnológico, condição pela qual a técnica não serve qualquer objetivo humano para além de sua própria expressão.” 3 “Technological determinism I define simply as the belief that technical forces determine social and cultural change.” 4 No que apenas repetem um tema iluminista introduzido por Turgot e Condorcet (WILLIAMS, 1994, p. 223-225).

13

Nenhum outro tipo de escrita, a não ser a fonética, jamais transportou o homem para fora do mundo possessivo de interdependência e inter-relação totais existente na rede auditiva. Do mágico mundo ressonante de relações simultâneas que é o espaço oral e acústico há apenas uma rota para a liberdade e a independência do homem destribalizado. Tal rota passa pelo alfabeto fonético (...).5 (McLUHAN, 1962, p. 22)

Em lugar da desimpedida adaptação da tradição passada a necessidades presentes, uma grande quantidade de indivíduos encontrou nos registros escritos, nos quais muito de seu repertório tradicional havia alcançado uma forma permanente, tantas inconsistências entre as crenças e as categorias de entendimento transmitidas a eles que foram impelidos a uma atitude muito mais consciente, comparativa e crítica diante da imagem de mundo recebida, notadamente diante das noções de Deus, universo e passado.6 (GOODY e WATT, 1968, p. 48)

Com efeito, como fazem notar SMITH e MARX (1994, p. xi) na introdução da

coletânea Does technology drive history?, tornou-se um lugar comum empregar frases de

efeito baseadas nesse raciocínio determinista, como “o automóvel criou o subúrbio” ou “a

pílula detonou a revolução sexual”, que possuem o atrativo poderoso de remeter processos

complexos e abstratos a causas materiais simples. Esses autores propõem uma tipologia

dessa espécie de vício intelectual, classificando suas ocorrências nas variedades hard (dura)

e soft (suave). No primeiro caso,

... a agência (o poder de efetuar mudança) é imputada à própria tecnologia, ou a algum de seus atributos intrínsecos; assim, o avanço da tecnologia conduz a uma situação de inescapável necessidade. (...) Para os otimistas, [tal] futuro é o resultado de muitas escolhas livres e a realização do sonho do progresso.7 (SMITH e MARX, 1994, p. xii)

No segundo,

... os deterministas “suaves” começam por nos recordar que a história da tecnologia é a história de ações humanas. (...) Em lugar de tratar a “tecnologia” per se como o locus da agência histórica, os deterministas suaves a localizam em uma matriz social, econômica, política e cultural muito mais variada e complexa. (...) Assim, a agência, tal como

5 “No other kind of writing save the phonetic has ever translated man out of the possessive world of total interdependence and interrelation that is the auditory network. From the magical resonating world of simultaneous relations that is the oral and acoustic space there is only one route to the freedom and independence of detribalized man. That route is via the phonetic alphabet (...).” 6 “Instead of the unobstrusive adaptation of past tradition to present needs, a great many individuals found in the written records, where much of their traditional repertoire had been given permanent form, so many inconsistencies in the beliefs and categories of understanding handed down to them that they were impelled to a much more conscious, comparative and critical attitude to the accepted world picture, and notably to the notions of God, the universe and the past.” 7 “... agency (the power to effect change) is imputed to technology itself, or to some of its intrinsic attributes, thus the advance of technology leads to a situation of inescapable necessity. (...) To optimists, [such a] future is the outcome of many free choices and the realization of the dream of progress.”

14

concebida pelos deterministas tecnológicos “suaves”, está profundamente incrustada na estrutura social e cultura mais amplas –tão profundamente, deveras, a ponto de despir a tecnologia de seu suposto poder como agente independente iniciador da mudança.8 (SMITH e MARX, 1994, p. xiii-xiv)

Essa tipologia serve menos o propósito, aqui, de classificar o grau de determinismo

de um McLuhan (hard) ou de um Goody (soft), e mais o de ilustrar como essa atitude

floresceu sob formas variadas, conforme se atribuíam pesos maiores ou menores aos termos

polarizados da equação, agência humana versus agência tecnológica. Do volume editado

por Smith e Marx sobressai, além disso, um aspecto ainda mais importante do

determinismo tecnológico: seu caráter eminentemente histórico. Esse conceito, ou talvez

fosse o caso de designá-lo como estilo interpretativo da história, seria assim fruto ele

próprio de uma época histórica, “... aquela do alto capitalismo e do baixo socialismo –na

qual as forças da mudança técnica foram desencadeadas, mas na qual as agências para o

controle ou condução da tecnologia ainda são rudimentares” (HEILBRONER, 1994, p.

65; ênfase do original). 9

Esse aspecto historicizado do determinismo tecnológico é corroborado por Leo

MARX (1994, p. 247-248), que ressalta o fato de o vocábulo “tecnologia”, apesar de

guardar registros na língua inglesa já em 1615, ter adquirido seu sentido atual somente

depois de 1829, sobretudo com o amadurecimento das pretensões meritocráticas das novas

áreas profissionais da engenharia e da administração e com sua progressiva entronização na

estrutura das universidades –processo que ganharia impulso com a fundação do Instituto de

Tecnologia de Massachusetts (MIT) em 1861. Ele correspondeu a uma substituição

progressiva da idéia iluminista de uma sociedade mais justa e republicana pela noção mais

tecnocrática de incremento contínuo da tecnologia, que era assim alçada à condição de

principal agente de mudança. Ora, precisamente essa equiparação de história com progresso

técnico foi denunciada por Rosalind Williams como a base da circularidade da noção de

8 “... the ‘soft’ determinists begin by reminding us that the history of technology is a history of human actions. (...) Instead of treating ‘technology’ per se as the locus of historical agency, the soft determinists locate it in a far more various and complex social, economic, political, and cultural matrix. (...) Thus agency, as conceived by ‘soft’ technological determinists, is deeply embedded in the larger social structure and culture –so deeply, indeed, as to divest technology of its presumed power as an independent agent initiating change.” 9 “Technological determinism is thus peculiarly a problem of a certain historical epoch –specifically that of high capitalism and low socialism– in which the forces of technical change have been unleashed, but when the agencies for the control or guidance of technology are still rudimentary.” O texto de Heilbroner, “Do machines make history?”, havia sido publicado originalmente em 1967.

15

determinismo tecnológico, ou seja, que o desenvolvimento sistemático da técnica move a

história porque esta é concebida, na doutrina iluminista, como progresso técnico; mais que

isso, tal circularidade encerraria um componente oculto de intencionalidade: “Sistemas

tecnológicos podem ser projetados para ser altamente sensíveis a controle humano – ou

não. A impotência humana pode fazer parte do projeto [design]. O destino pode ser

projetado [engineered]” (WILLIAMS, 1994, p. 225). 10

Como já se pode vislumbrar, negar a autonomia a seres humanos para emprestá-la à

técnica ou a seus artefatos pode ter conseqüências funestas, e passar da visão prometéica da

tecnologia à fáustica custa apenas um pequeno passo.

1.2 A percepção da técnica como veículo de regressão

As primeiras obras a chamarem a atenção para a centralidade do fenômeno técnico

para a sociedade e a economia contemporâneas sob o prisma de seus aspectos globalmente

ameaçadores surgiram na esteira da Primeira Guerra Mundial. Na Alemanha, por exemplo,

Ernst JÜNGER (1990, p. 98) diria em 1930 que “a melhor maneira de fazer aparecer o

caráter específico dessa grande catástrofe consiste sem dúvida em mostrar que ela foi, para

o gênio da guerra e para o espírito do progresso, a ocasião de concluir uma aliança

estreita”.11 A técnica, de sua perspectiva, aparece como o processo canalizador de toda a

energia potencial, como a força que não enfrenta limites exteriores e por isso impulsiona a

Mobilização Total (título do seu ensaio de 1930), que encontra uma realização maior no

empreendimento militar e transforma os países em gigantescas fábricas de exércitos, num

esforço contrário a finalidades propriamente humanas:

A mobilização total, enquanto medida decretada pelo espírito de organização, não é senão um índice dessa mobilização superior realizada pela época por nosso intermédio. Esta outra

10 “Technological systems can be designed to be highly responsive to human control –or not be. Human powerlessness can be part of the design. Fate can be engineered.” 11 “La meilleure manière de faire apparaître le caractère spécifique de cette grande catastrophe consiste sans doute à montrer qu’elle a été pour la génie de la guerre et l’esprit de progrès l’occasion de conclure une alliance étroite.”

16

mobilização possui sua lógica própria; e, se a lógica humana visa preservar alguma eficácia, ela terá de seguir um curso paralelo.12 (JÜNGER, 1990, p. 127-8)

Nessa via de estranhamento, cai por toda parte a máscara de humanismo envergada

pela noção de progresso e se explicitam uma espécie de fetichismo da máquina e um culto

ingênuo da técnica (JÜNGER, 1990, p. 137). “Há uma embriaguez do conhecimento cuja

origem ultrapassa a simples lógica, e há um orgulho das conquistas da técnica e da tomada

de posse ilimitada do espaço que pressionam obscuramente a vontade de potência mais

secreta”, escreverá JÜNGER (1993, p. 77), em 1932, em Der Arbeiter [O Trabalhador].13 A

identificação de um elo entre a técnica e o reverso escuro da idéia de progresso não redunda

porém numa anatemização da técnica enquanto tal (esta figura de resistência e de apego ao

aspecto emancipador do conhecimento aplicado no mundo se repetirá em vários momentos

durante o século). Mesmo ressaltando que um grau mais elevado de organização não

corresponde a um estágio superior de valor (1993, p. 222), JÜNGER rejeita um falso

retorno à natureza e um certo desprezo pela ciência e pela razão: “Não se trata de

menosprezar o intelecto, mas de remetê-lo ao seu lugar” (p. 249). 14

O principal a reter da visão por vezes hipostasiante de Jünger é a própria noção de

mobilização, de disposição, de convocação de homens e de coisas –ou seria o caso de dizer:

de homens como de coisas– para a consecução de fins postos abstratamente pela própria

organização em funcionamento. Se o objetivo maior – seja ele a produção de riquezas, a

vitória militar, a superioridade da raça ou a competitividade nacional – se impõe como algo

de evidente e até mesmo natural para todos na sociedade, sem distinção (a ponto de até a

morte tornar-se fenômeno democrático, como nos campos de batalha da Primeira Guerra),

então se segue que nada e ninguém pode permanecer alheio a sua realização. Esse

imperativo de disponibilidade, para Jünger, se encontra também no cerne da própria

técnica. Pode-se assim dizer que, desse ponto de vista, a própria natureza, mais que algo

dado, representa um efetivo que o progresso pode e deve mobilizar, e é por isso que a

mobilização é total. “A vertente técnica da mobilização total não constitui seu aspecto

12 “La mobilisation totale, en tant que mesure décrétée par l’esprit d’organisation, n’est qu’un indice de cette mobilisation supérieure accomplie par l’époque à travers nous. Cette mobilisation-là possède sa logique propre; et si la logique humaine veut garder quelque efficacité, il lui faudra suivre un cours parallèle.” 13 “Il y a une ivresse de la connaissance dont l’origine dépasse la simple logique et il y a un orgueil des conquêtes de la technique et de l’entrée en possession illimitée de l’espace qui pressent obscurément la volonté de puissance la plus secrète.”

17

decisivo. Seu princípio, como o pressuposto de toda técnica, está, ao contrário, mais

profundamente enraizado: nós o definimos aqui como disponibilidade para ser

mobilizado.” (JÜNGER, 1990, p. 115) 15

No mesmo ano em que foi publicada Die totale Mobilmachung, do outro lado do

Atlântico Norte e na pátria do otimismo maquinal começava a ser escrito um clássico da

literatura sobre a crescente importância da técnica, Technics and civilization, de Lewis

Mumford, lançado em 1934. Não foi decerto a primeira vez em que a técnica apareceu para

o pensamento social como uma chave para a compreensão do homem, tese que já havia

sido avançada por Ernst Kapp nos anos 1860, como ensina Hermínio MARTINS (1996a).

Constituiu, porém, um dos esforços pioneiros para reconstruir toda a trajetória

civilizacional tomando por fio condutor um aspecto da vida social que só adquiriria

proeminência com o capitalismo industrial, como se apenas a forma plenamente

desenvolvida contivesse determinações ou energia suficientes para iluminar toda a história

pregressa. A máquina, do ponto de vista de Mumford, revela-se como desenvolvimento

máximo e também como explicação cabal de todas as ferramentas já inventadas pelo

homem.

O centro de gravidade dessa forma de pensar a técnica é a sua imanência, entendida

não como algo que se desenvolve separada e automaticamente e nessa evolução determina

de modo exterior o caráter das instituições humanas – tal seria a concepção de Marx,

segundo MUMFORD (1963, p. xi) –, mas sobretudo como moldura delimitadora das

possibilidades futuras de desenvolvimento da própria técnica, no que esta já não poderá

mais distinguir-se tão marcadamente da cultura. Assim é que o relógio, mais que um

dispositivo surgido de certas necessidades e relações sociais circunscritas à Europa

medieval e renascentista, torna-se um materializador da noção crucial de regularidade, na

medida em que dissociava o tempo dos eventos humanos e ajudava a preparar o mundo da

ciência e de suas seqüências matematicamente mensuráveis (MUMFORD, 1963, p. 15). Os

efeitos sociais e culturais da técnica se manifestam oportunamente também como causas,

ou ao menos condicionantes, de seu próprio desenvolvimento: “Por trás de todas as grandes

14 “Il ne s’agit pas de mépriser l’intellect mais de la remettre à sa place.” 15 “Le versant technique de la mobilisation totale n’en constitue pas l’aspect décisif. Son principe, comme le préssupposé de toute technique, est au contraire enfoui plus profond: nous le définissons ici comme disponibilité à être mobilisé.”

18

invenções materiais do último século e meio não havia apenas um longo desenvolvimento

interno da técnica: havia também uma mudança de mentalidade. Antes que os novos

processos industriais pudessem firmar-se em grande escala, foi necessária uma reorientação

de desejos, hábitos, idéias e objetivos” (MUMFORD, 1963, p. 3).16 Para Mumford, no

entanto, nem a mecanização nem seus tentáculos na esfera da cultura são novos na história

humana:

O que é novo é o fato de essas funções terem sido projetadas e incorporadas em formas organizadas que dominam cada aspecto de nossa existência. Outras civilizações alcançaram um alto grau de proficiência técnica sem aparentemente ser influenciadas de maneira profunda pelos métodos e objetivos da técnica. (...) Elas tinham máquinas; não desenvolveram, contudo, “a máquina”. Coube aos povos da Europa Ocidental conduzir as ciências físicas e as artes exatas a um ponto que nenhuma outra cultura alcançou e adaptar todo o modo de vida à cadência e às capacidades da máquina.17 (MUMFORD, 1963, p. 4)

Essa rendição da civilização ocidental à máquina é a forma de Mumford exprimir a

autonomização da técnica em relação ao propriamente humano. Como Jünger, no entanto,

ele recusa a idéia de que a técnica seja de todo estranha ao homem: “Mesmo quando [a

técnica e a civilização] são incontroláveis, não são externas. (...) Por mais completamente

que a técnica se baseie nos procedimentos objetivos das ciências, não forma um sistema

independente, como o universo: ela existe como elemento na cultura humana”

(MUMFORD, 1963, p. 6).18 É na sua simbiose com o capitalismo que a máquina,

essencialmente um elemento neutro, se aliena dos interesses humanos (MUMFORD, 1963,

p. 27). Mesmo assim, transformada em dispositivo de dominação, preserva como que uma

semente de emancipação, na forma de propriedades pedagógicas, de uma espécie de

objetivação da própria perfectibilidade humana coletiva:

16 “Behind all the great material inventions of the last century and a half was not merely a long internal development of technics: there was also a change of mind. Before the new industrial processes could take hold on a great scale, a reorientation of wishes, habits, ideas, goals was necessary.” 17 “What is new is the fact that these functions have been projected and embodied in organized forms which dominate every aspect of our existence. Other civilizations reached a high degree of technical proficiency without, apparently, being profoundly influenced by the methods and aims of technics. (...) They had machines; but they did not develop ‘the machine’. It remained for the peoples of Western Europe to carry the physical sciences and the exact arts to a point no other culture had reached, and to adapt the whole mode of life to the pace and the capacities of the machine.”

19

Desde o início, com efeito, as conquistas mais duradouras da máquina residiam (...) nos modos de vida tornados possíveis por meio da máquina e na máquina: o inconfiável escravo mecânico era também um pedagogo. (...) Desafiava pensamento e esforço como nenhum sistema prévio da técnica havia feito. (...) O que permanece como a contribuição permanente da máquina, repassada de uma geração a outra, é a técnica do pensamento e da ação cooperativos que ela incentivou, a excelência estética das formas da máquina, a lógica delicada de materiais e forças (...). Ao projetar um aspecto da personalidade humana nas formas concretas da máquina, criamos um ambiente independente que reagiu sobre todos

os outros aspectos da personalidade.19 (MUMFORD, 1963, p. 323-324; ênfase do original)

1.3 Forças produtivas e relações de produção, uma dialética difícil

Quem se ocupa da questão da tecnologia e do determinismo tecnológico no século

XX, por outro lado, não pode deixar de considerar a contribuição da corrente de

pensamento iniciada por Karl Marx, que vai desembocar naquela que é talvez a maior e

mais destacada linha de investigação filosófica e sociológica sobre o tema no século

passado, a perspectiva crítica preconizada pela Escola de Frankfurt. Pode-se dizer que a

tradição marxista sempre se caracterizou por uma certa dubiedade com respeito à

tecnologia e encontrou na questão da mudança social, em sua relação com esse fator

primordial de dinamismo, um problema teórico fundamental e recorrente. Em aparência, é a

que encontra solução mais fácil, bastando para isso invocar o poder terminante do esquema

segundo o qual tudo se resume à contradição entre o desenvolvimento das forças produtivas

e as relações de produção. Da emergência de uma consciência de classe à própria

revolução, tudo que se refira a transformação social parece derivar desse motor

fundamental (MARTINS, 1996a, p. 219; HEILBRONER, 1994, p. 63).

18 “Even when they are uncontrollable they are not external. (...) No matter how completely technics relies upon the objective procedures of the sciences, it does not form an independent system, like the universe: it exists as an element in human culture”. 19 “From the beginning, indeed, the most durable conquests of the machine lay (...) in the modes of life made possible via the machine and in the machine: the cranky mechanical slave was also a pedagogue. (...) It challenged thought and effort as no previous system of technics had done. (...) What remains as the permanent contribution of the machine, carried over from one generation to another, is the technique of cooperative thought and action it has fostered, the esthetic excellence of the machine forms, the delicate logic of materials and forces (...). In projecting one side of the human personality into the concrete forms of the machine, we have created an independent environment that has reacted upon every other side of the personality.”

20

Poucos conceitos marxianos foram, no entanto, tão discutidos e questionados. A

formulação mais sucinta –e provavelmente também a mais famosa– se encontra no

“Prefácio” de Para a crítica da economia política:

Em uma certa etapa de seu desenvolvimento, as forças produtivas materiais da sociedade entram em contradição com as relações de produção existentes ou, o que nada mais é do que a sua expressão jurídica, com as relações de propriedade dentro das quais aquelas até então se tinham movido. De formas de desenvolvimento das forças produtivas estas relações se transformam em seus grilhões. Sobrevém então uma época de revolução social. Com a transformação da base econômica, toda a enorme superestrutura se transtorna com maior ou menor rapidez. (MARX, 1978, p. 130)

As objeções a essa formulação, ou pelo menos à interpretação mais simplificadora

que dela se fixou, são conhecidas. É difícil aceitar a pretensão de universalidade histórica

do mecanismo, que tende a ser visto como motor da mudança social mesmo em modos de

produção anteriores ao capitalismo no qual se explicitou. Tampouco são facilmente

assimiláveis o automatismo e a prefiguração associados com a mudança deflagrada por essa

contradição entre forças produtivas e relações de produção. Dito de outro modo, não cabe

contaminar a teoria sociológica com o pressuposto filosófico de que a história tem um

sentido necessário e predeterminado. A dificuldade maior para a tradição de pensamento

social originada por Marx parece estar em encontrar uma resposta para a seguinte questão,

tanto mais pertinente para um século que viu o sistema capitalista expandir-se sem

sucumbir a uma contradição emancipadora e, em paralelo, naufragarem em burocracias

autoritárias as revoluções realizadas em seu nome: como explicar que, na presença perene

dessa contradição, em alguns casos se produza mudança social e, em outros, não?

É verdade que, no próprio Marx, segundo interpretação muito comum, a ciência e a

técnica aparecem imbuídas de um aspecto positivo, uma fé no progresso,20 de acordo com o

credo racionalista do século XIX na sua capacidade de dar ao homem o domínio da

natureza e, por que não, do próprio destino. No próprio transbordamento das forças

produtivas, diante das comportas das relações de produção, fica evidente que o papel da

ciência e da técnica (ainda não se falava em “tecnologia”) era central: é de condições

20 ELLUL (1964, p. 144) diz que a tecnologia (“technique”, na sua terminologia) é a verdadeira religião do marxismo: “Technique is the god which brings salvation. Capitalism is an abomination because on occasion it opposes technique. (...) Karl Marx may have been able to explain rationally how technique would free the

21

materiais que se trata, de seu desenvolvimento, vale dizer, do aumento da fecundidade do

trabalho por meio da introdução de novas máquinas, materiais e métodos de organização,

os resultados de um ímpeto racionalizante generalizado, no capitalismo, sob a forma de

uma ciência cada vez mais próxima da técnica, da aplicação. Sem essas inovações, e sem a

sua capacidade de explicitar os limites impostos pelas relações de produção vigentes, não

haveria mudança social. Nas palavras de MARX e ENGELS na Ideologia alemã, “não se

pode superar a escravidão sem a máquina a vapor” (1977, p. 65). Ou nas do Marx de

Miséria da filosofia: “O moinho manual nos dá a sociedade com o senhor feudal; o moinho

a vapor, a sociedade com o capitalista industrial” (citado por HEILBRONER, 1994, p.

54).21 Nascia o estilo interpretativo que resultaria nas frases de efeito no diapasão de “o

automóvel criou o subúrbio” ou “a pílula anticoncepcional detonou a revolução sexual”.

Pode-se discutir longamente se a qualificação de determinista tecnológico se aplica

a Marx ou não. BIMBER (1994, p. 98) acredita que não, se a esse qualificativo se

emprestar uma condição “nomológica” (segundo a qual a tecnologia determinaria a história

de modo ontológico, independentemente, por exemplo, da intermediação cultural); para ele,

antes de ser um determinista, Marx foi um economista. Na opinião de Williams, a resposta

é negativa, igualmente, mas tampouco enfática:

Se Marx foi de fato um determinista tecnológico, era um determinista excessivamente sutil e ambivalente. (...) Mas como suas [do capitalismo] contradições fatais emergem de seu modo de produção (e, como quer que se pretenda interpretar essa frase, ela está claramente fundamentada na tecnologia), o colapso não pode ser evitado. A revolução é inevitável precisamente porque a tecnologia está em grande medida fora do controle humano.22 (WILLIAMS, 1994, p. 222-223)

Um argumento forte em favor dessa negativa é que Marx não estabeleceu um

vínculo explícito e orgânico, determinado, entre a evolução das formas tecnológicas e a

seqüência dos modos de produção, como assinala MARTINS (1996a, p. 219).

proletariat, but the proletariat itself is scarcely equal to a full understanding of this ‘how’. It remains mysterious for them. They retain merely the formula of faith.” 21 “The hand-mill gives you society with the feudal lord; the steam-mill, society with the industrial capitalist.” 22 “If Marx was a technological determinist at all, he was an exceedingly subtle and ambivalent one. (...) But since its fatal contradictions arise from its mode of production (and however one wants to interpret that phrase, it is clearly grounded in technology), collapse cannot be averted. Revolution is inevitable precisely because technology is largely out of human control.”

22

Responder definitivamente a essa questão, no entanto, pode não ser tão

fundamental; mais importante, aqui, mostra-se estabelecer quanto é central no pensamento

marxiano a dinâmica imposta à mudança social e à história pela dialética entre forças

produtivas e relações de produção. Mais ainda, cabe destacar que ela já contém também

algo como uma aporia em germe, pois sua definição como primeiro motor da mudança

social revela-se indissociável de uma filosofia da história que se dissolveu no ar conturbado

do século XX.

1.4 A dialética negativa da Escola de Frankfurt

De forma simplificada, pode-se dizer que a interrogação sobre as razões da ausência

de mudança social de sentido emancipador, no capitalismo do século XX, animou o cerne

do projeto de pesquisa da Escola de Frankfurt, colhida entre a deterioração da Revolução

Russa e a gestação do Terceiro Reich. Merece atenção especial, nesse sentido, o sexto e

último tema do programa de pesquisa interdisciplinar formulado por Horkheimer, segundo

a sistematização apresentada por HABERMAS (1982, p. 555),23 a saber, a crítica da ciência

e do positivismo. Pode-se dizer que esses pensadores alemães introduziram formal e

teoricamente na problemática do determinismo tecnológico (ou seja, se a tecnologia é ou

não capaz de determinar mudança social) uma segunda disjuntiva, de ordem valorativa, já

tematizada de modo mais ensaístico do que teórico em obras como as de Jünger e

Mumford: a possibilidade de a capacidade de efetuar mudança social, transferida dos

homens para a técnica, ser ou regressiva ou emancipadora.

A Escola de Frankfurt virou decididamente pelo avesso qualquer otimismo quanto

ao potencial da ciência e da técnica para a transformação emancipadora da sociedade.

Caudatários da visão crítica do pensamento tecnocientífico por Edmund Husserl e Martin

Heidegger, seus teóricos apontam o triunfo da ciência iluminista como condutora do

processo de racionalização e desencantamento do mundo. Não um simples esforço de

objetividade para destruição dos mitos e da superstição, mas a instituição de uma maneira

23 Os outros cinco temas são: “(a) as formas de integração das sociedades pós-liberais, (b) socialização familiar e desenvolvimento do eu, (c) cultura e meios de massa, (d) psicologia social do protesto silenciado, (e) teoria da arte”.

23

de ver o mundo que já engendra em si mesma as bases para melhor dispor, não só da

natureza, mas dos próprios homens. Como escreveram em 1944 ADORNO e

HORKHEIMER (1985, p. 20) , na Dialética do esclarecimento: “A técnica é a essência

desse saber, que não visa conceitos e imagens, nem o prazer do discernimento, mas o

método, a utilização do trabalho dos outros, o capital. (...) O que os homens querem

aprender da natureza é como empregá-la para dominar completamente a ela e aos homens.”

Em 1937, Horkheimer já havia defendido na obra Teoria tradicional e teoria crítica a idéia

de que a razão instrumental integra o próprio âmago teórico da investigação científica, não

se tratando portanto de algo apensado a ela:

... o que os cientistas consideram, nos diferentes campos, como a essência da teoria, corresponde àquilo que tem constituído de fato sua tarefa imediata. O manejo da natureza física, como também daqueles mecanismos econômicos e sociais determinados, requer a enformação do material do saber, tal como é dado em uma estruturação hierárquica das hipóteses. Os progressos técnicos da idade burguesa são inseparáveis deste tipo de funcionamento da ciência. (HORKHEIMER, 1980, p. 121)

A unificação e homogeneização da natureza para a apropriação por essa razão

essencialmente instrumental é correlata de uma identidade abstrata do sujeito social, em

que este se encontra atomizado e isolado, submetido por uma coerção que lhe aparece como

emanada da coletividade, e não de um processo determinado de dominação. O pensamento

de corte frankfurtiano, na obra de Adorno e Horkheimer, enterra o otimismo racionalista do

século XIX numa catacumba, bem longe da mudança social emancipadora:

A forma dedutiva da ciência reflete ainda a hierarquia e a coerção. Assim como as primeiras categorias representavam a tribo organizada e seu poder sobre os indivíduos, assim também a ordem lógica em seu conjunto –a dependência, o encadeamento, a extensão e união dos conceitos– baseia-se nas relações correspondentes da realidade social, da divisão do trabalho. Só que, é verdade, esse caráter social das formas de pensamento não é, como ensina Durkheim, expressão da solidariedade social, mas testemunho da unidade impenetrável da sociedade e da dominação. (...) O todo enquanto todo, a ativação da razão a ele imanente, converte-se necessariamente na execução do particular. A dominação defronta o indivíduo como o universal, como a razão na realidade efetiva. (...) É essa unidade de coletividade e dominação e não a universalidade social imediata, a solidariedade, que se sedimenta nas formas de pensamento. (ADORNO e HORKHEIMER, 1985, pp. 34-35)

Uma proposta teórica que tentava escapar dessa aporia, ou seja, do fechamento das

oportunidades de emancipação justamente pelo que antes figurava na tradição marxista

24

como moinho triturador de relações de produção limitadoras do desenvolvimento humano,

foi tentativamente formulada em 1941 por Herbert Marcuse. Leitor de Lewis Mumford,

Marcuse parece ter como alvo, no ensaio “Algumas implicações sociais da tecnologia

moderna”, o determinismo tecnológico em sua vertente progressista, vale dizer, a noção de

que o mero desenvolvimento da técnica engendre –por assim dizer, automaticamente–

progresso social, que ele rejeita realizando uma distinção entre os conceitos de técnica e de

tecnologia,24 sendo o primeiro um simples fator do segundo, este sim um aparato em

conexão com o dinamismo da sociedade capitalista industrial (e, como será visto, com a

dominação).

A primeira implicação dessa separação é que a técnica, de modo isolado, pode ser

considerada socialmente neutra: “A técnica por si só pode promover tanto o autoritarismo

quanto a liberdade, tanto a escassez quanto a abundância, tanto o aumento quanto a

abolição do trabalho árduo” (MARCUSE, 1999, p. 74). Já a tecnologia não faria sentido

senão no contexto da “era da máquina”, pois constitui o núcleo do modo de produção que a

caracteriza e deve ser entendida como a totalidade dos instrumentos, dispositivos e

invenções que caracterizam a era da máquina: “A tecnologia (...) é assim, ao mesmo tempo,

uma forma de organizar e perpetuar (ou modificar) as relações sociais, uma manifestação

do pensamento e dos padrões de comportamento dominantes, um instrumento de controle e

dominação” (MARCUSE, 1999, p. 73).

Um dos efeitos sociais da crescente mecanização e racionalização da produção,

além da concentração do poder econômico, é a corrosão dos padrões de individualidade de

corte burguês, baseados na noção de autonomia. Na era da máquina, o imperativo passa a

ser cada vez mais o da utilização eficiente do aparato industrial, ao que tudo o mais deve

subordinar-se. A racionalidade deixa de ser individualista para tornar-se tecnológica e

“fomenta atitudes que predispõem os homens a aceitar e introjetar os ditames do aparato”

(MARCUSE, 1999, p. 77). Surge a “personalidade objetiva” de que falava Mumford, com a

transferência de toda a espontaneidade à máquina e a subordinação da vida à

“factualidade”. A tecnologia, portanto, é acima de tudo um veículo de dominação, de

homogeneização do pensamento e do comportamento, mas, muito importante, nem por isso

Marcuse abre mão do aspecto ou momento emancipador da tecnologia, pois nela sobrevive

24 É curioso notar que Jacques Ellul (1964), anos mais tarde, fará distinção semelhante, escolhendo porém o

25

como promessa o fator da técnica, que liberta progressivamente os homens das agruras da

sobrevivência, do reino da necessidade, e lhes franqueia, ao menos em princípio, o da

liberdade e da individuação. Torna-se assim contraditório, e mesmo contra-revolucionário,

combater as locomotivas e outras máquinas:

A técnica impede o desenvolvimento individual apenas quando está presa a um aparato social que perpetua a escassez, e este mesmo aparato liberou forças que podem aniquilar a forma histórica particular em que a técnica é utilizada. Por este motivo, todos os programas de caráter antitecnológico, toda propaganda a favor de uma revolução antiindustrial servem apenas àqueles que vêm as necessidades humanas como um subproduto da utilização da técnica. (...) A filosofia da vida simples, a luta contra as grandes cidades e sua cultura freqüentemente servem para ensinar os homens a desacreditar nos instrumentos potenciais que poderiam libertá-los. 25 (MARCUSE, 1999, p. 101)

O próprio Marcuse, contudo, abandonaria em grande medida essa admissão de ao

menos um aspecto emancipador na técnica e avançaria no processo de indiciamento da

ciência e da técnica como inimigas da transformação social em One-dimensional man, obra

publicada 20 anos depois de Dialética do esclarecimento e 23 anos depois do ensaio em

que o próprio Marcuse introduzira a distinção entre técnica e tecnologia. Ele passa a fazer

desta última, mais que um meio entre outros (como os de comunicação de massa) para a

dominação, sua própria essência: “Hoje, a dominação se perpetua e propaga não só por

meio da tecnologia, mas como tecnologia, e esta fornece a grande legitimação do poder

político em expansão, que absorve todas as esferas da cultura” (MARCUSE, 1991, p.

158).26 Mais adiante: “Com respeito às formas institucionalizadas de vida, a ciência (pura

como aplicada) teria assim uma função estabilizadora, estática, conservadora”

(MARCUSE, 1991, p. 165).27

Na base desse processo de legitimação da ordem social pela tecnologia estaria uma

suposta capacidade inaudita de gerar ganhos continuados de produtividade do trabalho e do

padrão de vida, uma generalização do bem-estar (ao menos nas sociedades industrializadas)

par trocado de conceitos: tecnologia neutra e técnica como sistema, aparato. 25 Entende-se um pouco melhor, agora, por que Marcuse podia falar, como foi citado mais atrás, em tecnologia “como uma forma de organizar e perpetuar (ou modificar) as relações sociais”, com esses perturbadores parênteses (uma vez que é flagrante a contradição entre “perpetuar” e “modificar”). 26 “Today, domination perpetuates and extends itself not only through technology but as technology, and the latter provides the great legitimation of the expanding political power, which absorbs all spheres of culture.” 27 “With respect to the institutionalized forms of life, science (pure as well as applied) would thus have a stabilizing, static, conservative function.”

26

que não prescinde da desigualdade e da exploração, mas oferece como que um colchão de

ar entre a vida na superestrutura e as asperezas de sua base material, permitindo ao modo de

produção capitalista deslizar, em sua expansão, sem grandes solavancos. Está-se, assim,

tendo em vista o potencial da ciência tanto como força de integração, diante de um

candidato no mínimo plausível para explicar por que a contradição entre o desenvolvimento

das forças produtivas e as relações de produção tardou tanto em desembocar na mudança

social, ao longo do século XX (e ainda tarda, no XXI).

Como essa capacidade integradora e normalizadora da vida social estaria inscrita na

própria estrutura conceitual do pensamento científico, do ponto de vista marcuseano

qualquer perspectiva de mudança social deverá enfrentar também – e de pronto – a

transformação da própria ciência: “A mudança na direção do progresso, que poderia

seccionar esse vínculo fatal [entre hierarquia racional e hierarquia social], também

afetaria a própria estrutura da ciência – o projeto científico” (MARCUSE, 1991, p. 166).28

Um ano depois de One-dimensional man, em 1965, no ensaio “Industrialisierung und

Kapitalismus im Werk Max Webers” [Industrialização e capitalismo na obra de Max

Weber],29 a condenação se estende à própria técnica e parece extrapolar os limites do

sistema capitalista, adquirindo um alcance quase antropológico:

O conceito de razão técnica é talvez também em si mesmo ideologia. Não só a sua aplicação, mas já a própria técnica é dominação metódica, científica, calculada e calculante (sobre a natureza e o homem). Determinados fins e interesses da dominação não são outorgados à técnica apenas “posteriormente” e a partir de fora – inserem-se já na própria construção do aparelho técnico; a técnica é, em cada caso, um projecto histórico-social; nele se projecta o que uma sociedade e os interesses nela dominantes pensam fazer com os homens e com as coisas. Um tal fim de dominação é “material” e, neste sentido, pertence à própria forma da razão técnica. (citado em HABERMAS, 1993, p. 46-47)

Parafraseando Marx, não se poderia doravante superar o capitalismo sem um nova

física e uma nova biologia (além da locomotiva e do moinho a vapor). A ciência e a técnica

voltam a ocupar, assim, o próprio cerne da mudança social com sentido emancipador,

agora porém como entrave, tornando-se por isso o alvo por excelência da teoria crítica (que

manifesta com isso uma espécie de determinismo tecnológico às avessas).

28 “The change in the direction of progress, which might sever this fatal link, would also affect the very structure of science –the scientific project.” 29 Kultur und Gesellschaft, II, Frankfurt, 1965.

27

Cabe aqui lembrar que primeira metade dos anos 60, quando foi publicada essa que

é uma das obras mais conhecidas e influentes de Marcuse (One-dimensional man), havia

sido um período de acentuado pessimismo com a ciência e a tecnologia, sobretudo nos

Estados Unidos. É significativa a relação de autores críticos que tiveram obras

transformadas em best-sellers, como fez notar MENDELSOHN (1994): Rachel Carson,

com Silent Spring (1962); Barry Commoner, com Science & survival (1963); Thomas S.

Kuhn, com Structure of scientific revolutions (1962); Derek J. de Solla Price, com Big

science, little science (1963). Essa voga não demorou por despertar uma reação dos que

tinham uma concepção mais militantemente realista – e progressista em sentido estrito – da

ciência e da tecnologia, sobretudo de inconformismo com a condenação da própria

atividade investigativa (a razão instrumental de Adorno e Horkheimer) como raiz de todos

os males. Diante disso, segundo a narrativa de MENDELSOHN (1994, p. 161), já em 1967

Marcuse havia recuado de sua posição radical, num ensaio intitulado “The responsibility of

science”.30 Dois anos mais e já teria revertido plenamente, em An essay on liberation,31

para a posição em que voltava a admitir um papel emancipador para a ciência e a técnica:

É ainda necessário afirmar que não são a tecnologia, nem a técnica, nem a máquina os motores da repressão, mas a presença neles dos mestres que determinam seu número, a duração de sua vida, seu poder, seu lugar na vida e sua necessidade? É ainda necessário repetir que a ciência e a tecnologia são os grandes veículos da libertação, e que apenas seu uso e sua restrição na sociedade repressiva os transformam em veículos de dominação?32 (citado em MENDELSOHN, 1994, p. 162)

Nessa altura já havia sido publicado na Alemanha outro ensaio, por um autor da

nova geração da Escola de Frankfurt, Jürgen Habermas, em que este tentava avançar na

reflexão a partir de One-dimensional man, mas em sentido menos auto-revisionista, por

assim dizer. Trata-se de Técnica e ciência como “ideologia” (HABERMAS, 1993) – um

texto de homenagem a Marcuse publicado apenas quatro anos depois de Homem

30 In: KRIEGER, L. e STERN, F. (Eds.) The responsibility of power. Nova York: Doubleday, 1967. 31 Boston: Beacon Press, 1969. 32 “Is it still necessary to state that not technology, not technique, not the machine are the engines of repression, but the presence in them of the masters who determine their number, their lifespan, their power, their place in life, and the need for them? Is it still necessary to repeat that science and technology are the great vehicles of liberation, and that it is only their use and restriction in the repressive society which makes them into vehicles of domination?”

28

Unidimensional –, em que o autor destaca33 aquela que teria sido a grande percepção de

Marcuse, a de que ciência e técnica deixam de figurar como o impulsionador crítico da

antiga dialética entre forças produtivas e relações de produção para se converter no seu

oposto. Como diz HABERMAS (1993, p. 48), “...as forças produtivas parecem entrar numa

nova constelação com as relações de produção: já não funcionam em prol de um

esclarecimento político como fundamento da crítica das legitimações vigentes, mas elas

próprias se convertem em base da legitimação. Isto é o que Marcuse considera novo na

história mundial”. Assim, e em continuidade com a interpretação de Adorno, Horkheimer e

do Marcuse de One-dimensional man, ele vê nas ciências empíricas modernas “um marco

metodológico de referência que reflecte o ponto de vista transcendental da possível

disposição técnica” (HABERMAS, 1993, p. 66-67), mas vai além, assinalando “uma

crescente interdependência de investigação e técnica, que transformou as ciências na

primeira força produtiva” (p. 68; ênfase minha).

Para Habermas, as conseqüências dessa reunião de ciência, técnica e produção de

valor num mesmo circuito de pesquisa industrial em grande escala (do qual a biotecnologia

atual oferece um exemplo ilustrativo, assim como o chamado complexo industrial-militar

nas décadas de 1960 e 1970) são o esfumaçamento dos interesses que se prendem à

manutenção do modo de produção e a transformação da contradição entre classes numa

simples “latência”. Ele propõe a substituição da oposição entre forças produtivas e relações

de produção por outra, que entende ser mais geral, entre trabalho e interação (antecipando

assim o que desenvolveria, uma década depois, como sua teoria da ação comunicativa).

Posicionar a ciência moderna bem no centro da questão da (ausência de) mudança social,

como fizera Marcuse, é a maneira de Habermas recusar a necessidade e a direcionalidade –

em suma, a filosofia da história – tradicionalmente aderidas à idéia de contradição entre

forças produtivas e relações de produção:

As relações de produção designam um nível em que o marco institucional esteve ancorado, mas só durante a fase do desenvolvimento do capitalismo liberal (...). Por outro lado, as forças produtivas, em que se acumulam os processos de aprendizagem organizados nos subsistemas da acção instrumental, foram certamente desde o princípio o motor da evolução social, mas parece que, em sentido contrário ao da suposição de Marx, não representam em todas as circunstâncias, um potencial de liberação nem provocam movimentos emancipadores –de qualquer modo, deixam de os provocar desde que o incremento

33 Aparentemente, ignorando o recuo marcuseano nos textos citados de 1967 e 1969.

29

incessante das forças produtivas se tornou dependente de um progresso tecno-científico, o qual assume também funções legitimadoras da dominação. (HABERMAS, 1993, p. 83)

A crítica implícita de Habermas a Marcuse seria a de que este acabou por erigir o

que é uma ocorrência histórica – a função legitimadora alcançada pela ciência e pela

tecnologia no capitalismo – em algo de transcendental, inerente ao modo de conhecimento

voltado para a transformação de objetos naturais. Por isso ele recusa o programa

marcuseano de revolução da técnica como precondição da emancipação, pois só existe uma

técnica (não se concebe uma técnica alternativa) e ela está estruturalmente ligada à ação

racional com respeito a fins (HABERMAS, 1993, p. 51-52). A dificuldade não está nela

mesma, mas no fato de ter-se transformado na primeira força produtiva e legitimadora,

numa espécie de colonização, pela razão instrumental, da esfera que deveria permanecer

reservada para a ação comunicativa, para a interação entre os homens, no que se poderia

chamar de desvio instrumental da razão. Não resta dúvida de que ciência e técnica foram

mobilizadas num sistema de legitimação de alta eficácia, mas ainda assim cabe manter as

aspas em “ideologia”, como faz Habermas no título de seu ensaio, para não ter de abrir mão

de algo que afeta o interesse emancipador como tal do próprio gênero humano: “... a

dialética da ilustração foi por Marcuse transformada na tese extrema de que a técnica e a

ciência se tornam elas próprias ideológicas”. (HABERMAS, 1993, p. 84)

Em Discurso filosófico da modernidade, de 1985, Habermas viria a dirigir o mesmo

tipo de objeção à dialética do esclarecimento de Adorno e Horkheimer. Para ele, a tese de

que o esclarecimento é prisioneiro desde sempre da autoconservação que mutila a razão34

depende de uma demonstração de que esta “permanece submetida ao ditame da

racionalidade com respeito a fins até em seus mais recentes produtos” (HABERMAS,

2000, p. 159), a saber, a ciência moderna, o direito universalista e a arte autônoma. O erro

de Adorno e Horkheimer estaria em “nivelar de modo espantoso” a imagem da

modernidade, em sua convicção de que a ciência moderna teria encontrado a realização

suprema no positivismo lógico e renunciado às pretensões de validade (emancipadoras),

34 Assim HABERMAS apresenta a ótica de Adorno e Horkheimer: “O mundo moderno, o mundo completamente racionalizado é desencantado apenas na aparência; sobre ele paira a maldição da coisificação demoníaca e do isolamento mortal. (...) A pressão para dominar racionalmente as forças naturais que ameaçam do exterior pôs os sujeitos na via de um processo de formação que intensifica até a desmesura as forças produtivas por mor da pura autoconservação, mas deixa definhar as forças da reconciliação que

30

como que tomada apenas por pretensões de poder (HABERMAS, 2000, p. 161-162). O

esgotamento da crítica das ideologias diagnosticado pela Escola de Frankfurt, assim, teria

desembocado numa paralisia: “... se as forças produtivas entram em uma funesta simbiose

com as relações de produção, que deveriam um dia rebentar, também não há mais dinâmica

alguma na qual a crítica pudesse depositar suas esperanças” (HABERMAS, 2000, p. 169).

Tanta heterodoxia de Habermas, mesmo aquela revelada apenas em Técnica e

ciência como “ideologia”, não parece ter sido bem assimilada pela velha guarda

frankfurtiana. Adorno, por exemplo, reabilita a atualidade e a centralidade da luta de classes

(“a sociedade permanece como luta de classes, hoje como no período em que esse conceito

foi originado”) e rejeita o novo papel atribuído por Marcuse e Habermas à tecnociência:

“Que ainda assim a sociedade vá em frente de modo tão bem-sucedido quanto vai deve ser

atribuído a seu controle sobre o relacionamento de forças sociais básicas, que há muito foi

estendido a todos os países do globo” (ADORNO, 1989, p. 273).35 A industrialização como

tal (sob o impulso do desenvolvimento técnico), no seu entender, é “apenas a imagem da

própria produtividade humana, cibernética e computadores sendo meramente uma extensão

dos sentidos humanos: o avanço técnico é portanto apenas um momento na dialética entre

as forças de produção e as relações de produção, e não uma terceira coisa, demoniacamente

auto-suficiente” (ADORNO, 1989, p. 273).36

Não cabe aqui julgar se resultam satisfatórias as razões adiantadas por Adorno para

explicar a ausência de desenlace (mudança social emancipadora) para a contradição entre

forças produtivas e relações de produção, mas assinalar que a concomitante recusa de um

papel fundamental para a tecnociência parece ser correlata de uma recaída – ou insistência,

talvez fosse o caso de dizer – na filosofia da história, que Habermas gostaria de ver

expurgada do materialismo histórico. Admitindo que esse aggiornamento da teoria

marxista ao século XX não pudesse ter sido feito sem a análise da função legitimadora da

transcendem a mera autoconservação. A dominação sobre uma natureza exterior objetivada e uma natureza interior reprimida é o signo permanente do esclarecimento.” (2000, p. 158) 35 “That even so society goes on as successfully as it does is to be attributed to its control over the relationship of basic social forces, which has long since been extended to all the countries of the globe.” 36 “... only the image of human productivity itself, cybernetics and computers merely being an extension of the human senses: technical advancement is therefore only a moment in the dialectic between the forces of production and the relationships of production, and not some third thing, demonically self-sufficient.” É curioso notar como Adorno se serve aqui de uma noção típica do determinismo tecnológico à McLuhan (meios técnicos como extensões dos sentidos humanos), embora seu objetivo seja oposto: retirar da tecnologia a condição de principal fator de dinamismo social.

31

ciência proposta por Marcuse e Habermas, com a qual ao menos se abrem perspectivas para

a reconstrução da teoria sociológica e para a investigação social empírica de fundo

marxista, torna-se compreensível que a recusa de Adorno desemboque numa forma de

pessimismo, nessa mescla de confiança teórica ortodoxa no mecanismo da história e de

paradoxal desesperança política na sua capacidade de engendrar a transformação esperada,

tão bem retratada pelo próprio Adorno no mesmo texto: “Os homens têm de agir para

mudar as suas presentes condições petrificadas de existência, mas estas deixaram suas

marcas tão profundamente nas pessoas, privando-as de tal modo de sua vida e individuação,

que eles dificilmente parecem capazes da espontaneidade necessária para fazê-lo”

(ADORNO, 1989, p. 275).37

1.5 O papel central do risco tecnológico na teoria da modernização reflexiva

Desde então, a penetração da tecnociência no mundo da vida só fez avançar. O

pessimismo com a ciência e a tecnologia dos anos 60 recebeu respostas vigorosas do campo

da razão instrumental cientificista, com o florescimento e a sofisticação de saberes

tecnocráticos, como a análise estatística de riscos. A cibernética e a teoria da informação

que tanto intrigavam os pensadores de todos os matizes naquela mesma época

condensaram-se na informática, peça central na flexibilização do mundo do trabalho, por

sua vez apontada como cerne do novo regime de produção pós-fordista. O próprio domínio

da constituição da pessoa, depois de ver-se submetido a inúmeras formas tentativas de

controle e adaptação do comportamento oriundas do campo das ciências ditas humanas,

cada vez mais reassume a condição de presa legítima das ciências naturais, na exata medida

em que o pêndulo nature vs. nurture (natureza vs. ambiente) volta com força ao primeiro

pólo da oscilação, que já freqüentara no princípio do século XX, quando o paroxismo da

explicação naturalista fora alcançado pela eugenia. Dos computadores que racionalizam a

produção, mas agravam o desemprego, à engenharia genética que ameaça produzir

monstros reais ou imaginários apesar das curas prometidas, da energia nuclear pós-

37 “Men must act in order to change the present petrified conditions of existence, but the latter have left their mark so deeply on people, have deprived them of so much of their life and individuation, that they scarcely seem capable of the spontaneity necessary to do so.”

32

Chernobyl ao efeito colateral da mobilidade universal alimentada a petróleo (aquecimento

global), a esfera da tecnociência não consegue libertar-se de sua ambivalência congênita: à

primeira vista libertadora de forças materiais a serviço dos homens, mas que no entanto se

revela impositora de barreiras para o desenvolvimento das sociedades humanas.

Com a crescente complexidade da vida cotidiana provocada pela disseminação da

tecnociência nos interstícios do tecido social, não é de admirar que ela permaneça em

posição de destaque nas novas formulações do pensamento que buscam compreender e

explicar as formas sociais no novo regime de produção. A produção e a substituição de

tecnologias não apenas se acelera como passa por um processo de “aceleração da

aceleração”, como lembra Laymert Garcia dos SANTOS (2001a, p. 30), recuperando uma

expressão de Buckminster Fuller. Com essa aceleração exponencializada, o esquema

tradicional e determinista da contradição entre forças produtivas e relações de produção já

não parece dar conta da perda generalizada de referenciais e de formas de integração ou

legitimação social. O entrave que o segundo termo dessa contradição representava para a

expansão continuada do primeiro como que foi dissolvido, liquefeito, pela turbinagem das

forças produtivas no estágio capitalista que Jean-François LYOTARD (2000) chamou de

pós-modernidade, e outros, de modernidade reflexiva. É o caso de Ulrich BECK (1997, p.

13), segundo o qual “o dinamismo industrial, extremamente veloz, está se transformando

em uma nova sociedade sem a explosão primeva de uma revolução, sobrepondo-se a

discussões políticas de parlamentos e governos”.

O movimento teórico-filosófico de afastamento em relação às filosofias da história,

empreendido tanto por Habermas quanto por Lyotard e Beck (para citar três nomes

representativos de tendências mais recentes do pensamento social pós-Escola de Frankfurt),

parece ser correlato de um descolamento objetivo da tecnociência em relação a qualquer

locus privilegiado de ação ou mudança social que se encontre fora dela. Para LYOTARD

(2000), seu afastamento das grandes narrativas, especulativa (Hegel) ou emancipadora

(Marx), faz com que ela entre no século XX em processo de deslegitimização e

fracionamento. Habermas tenderá a encará-la como um caso especial e em certo sentido

paradigmático de um conceito de razão comunicativa, “derivada das estruturas da

intersubjetividade produzida lingüisticamente e concretizada nos processos de

racionalização do mundo da vida” (HABERMAS, 2000, p. 482), incompatível com a idéia

33

de uma práxis em si e por si mesma racional. Beck diagnostica um impulso de

autonomização que tende a libertá-la até mesmo do vínculo visceral com a indústria:

A mudança, impossível de ser detida e controlada (...), torna-se a lei da modernidade a que cada um deve se submeter, sob o risco de morte política. (...) Pelo menos algo adicional pode ser lançado na arena das possibilidades como uma hipótese que torna o impensável pensável: a tecnologia que deseja escapar do destino de sua “mediocridade”, de sua submissão ao jugo do utilitarismo econômico e militar, para se transformar ou ser nada além de pura tecnologia. (BECK, 1997, p. 39)

Esta última passagem, ao aventar – seria o caso de dizer: reivindicar – uma

reabertura da “arena de possibilidades”, toca na ferida aberta do pensamento pós-

frankfurtiano, que também parece comum a essas três correntes, a saber, uma clara

insatisfação com o imobilismo e pessimismo nada heurísticos e tampouco favorecedores da

ação política que, de sua ótica, caracterizam a crítica radical da razão de que trata

Habermas:

As diferenças e oposições estão agora tão minadas, e mesmo desmoronadas, que a crítica, na paisagem plana e descorada de um mundo totalmente administrado, calculado e atravessado por relações de poder, não pode mais divisar contrastes, matizes e tonalidades ambivalentes. (...) Todas [as críticas radicais] mostram-se insensíveis ao conteúdo altamente ambivalente da modernidade cultural e social. (HABERMAS, 2000, p. 470)

Se esses autores resgatam o tema da ambigüidade do processo de racionalização

capitaneado pela tecnociência, em que pesem as profundas divergências entre eles, tudo

indica que seja para revalidá-lo como fator de abertura para o novo, como espaço

reconquistado de ação política – seja na forma de uma nova pragmática de múltiplos jogos

de linguagem orientada para a justiça (Lyotard), de fronteiras consensualmente repactuadas

na esfera pública entre mundo da vida e sistema social (Habermas), ou, ainda, de uma

subpolítica que busque na prática a separação possível entre desenvolvimento e aplicação

das tecnologias (Beck). Parecem também ser comuns a essas novas formas de pensar a

realidade social dois outros movimentos: o reconhecimento de uma mudança de estatuto da

ciência, que sofre um estreitamento conceitual – ainda que paralelo a uma percolação por

todos os poros da vida social – e passa a merecer a designação de tecnociência (como vem

sendo referida neste texto), e também da natureza, que vê suas fronteiras com o mundo

social serem remarcadas (ou, mais propriamente, borradas).

34

Um domínio do qual não se podem mais traçar fronteiras claras é também um

domínio de incerteza, que franqueia o terreno para uma espécie de ontologia movediça, por

assim dizer. Partindo mais dos efeitos da crise ecológica do que dos debates mais recentes

sobre a engenharia genética, Anthony Giddens, Ulrich Beck e Scott Lash registraram logo

na introdução de seu Modernização reflexiva, obra originalmente publicada em 1994, o

processo de incorporação da natureza pela cultura: “As questões ecológicas só vieram à

tona porque o ‘ambiente’ na verdade não se encontra mais alheio à vida social humana, mas

é completamente penetrado e reordenado por ela. Se houve um dia em que os seres

humanos souberam o que era a ‘natureza’, agora não o sabem mais” (GIDDENS, BECK e

LASH 1997, p. 8). Tanto mais seria o caso, hoje, do que antes se chamava de “natureza

humana”. Mas esse alcance ontológico da tecnociência não se reveste apenas de um aspecto

negativo (a temática do risco e da insegurança), mas também – e talvez mais importante –

de um caráter positivo, no sentido de engendrador de possibilidades. Este ponto é

desenvolvido por exemplo por Beck, que fala da natureza como “um projeto social, uma

utopia que deve ser reconstruída, ajustada e transformada”:

A “natureza” (no significado não-simbólico e materializado da palavra) fabricada, a “natureza determinada”, torna na verdade possível a produção de matérias e corpos. Neste caso, uma política de criação produz um mundo de criaturas vivas que pode ocultar o caráter fabricado do que ele cria e representa. (BECK, 1997, pp. 41-42)

É o caso, no entanto, de deter-se um pouco sobre esse aspecto negativo da

tecnociência, sobretudo naquela que parece ser a perspectiva teórica mais elaborada sobre

ele, a sociedade de risco tal como definida por Ulrich BECK: “Este conceito designa uma

fase no desenvolvimento da sociedade moderna, em que os riscos sociais, políticos,

econômicos e individuais tendem cada vez mais a escapar das instituições para o controle e

a produção da sociedade industrial. (...) as instituições da sociedade industrial tornam-se os

produtores e legitimadores das ameaças que não conseguem controlar” (1997, p. 15-16). A

novidade aqui, para além de uma provisória colocação entre parênteses – no momento da

análise e do diagnóstico – da segunda disjuntiva referida mais atrás sobre a influência da

técnica na história (se ela se faz em sentido emancipador ou regressivo), é uma espécie de

subversão do conceito habitual de determinismo tecnológico: em lugar de um

desenvolvimento lógico da própria técnica exercer um papel enformador sobre a

35

organização material da vida humana e social, são os resultados materiais da progressão

tecnológica – na forma irrecorrível de efeitos colaterais – que impõem para o pensamento

uma consideração reflexiva desse processo de desenvolvimento. É o ponto de mutação

entre o que Beck define (em Die Erfindung des Politischen [A invenção do político], de

1993) como modernização simples (objeto tradicional da sociologia) e modernização

reflexiva:

Se a modernização simples significa o desencaixe [disembedding] de formas sociais tradicionais e o subseqüente reencaixe [re-embedding] de formas industriais, a modernização reflexiva significa o desencaixe de formas sociais industriais e o subseqüente reencaixe de outras modernidades. (...) O motor da transformação social não é mais considerado como sendo a racionalidade instrumental, mas sim o efeito colateral: riscos, perigos, individualização, globalização.38 (BECK, 1996a, p. 22-23)

Naquela que é talvez sua obra mais conhecida, Risikogesellschaft [Sociedade de

risco], de 1986, Beck já havia explicitado as determinações que teriam alçado a noção de

risco à condição de categoria-chave para a interpretação da sociedade contemporânea: não

se trata de meros riscos de caráter pessoal, mas de perigos globais (como os representados

por rejeitos radiativos e pela mudança climática global); riscos que escapam à percepção

individual e se localizam na esfera rarefeita das fórmulas físicas e químicas; riscos que

resultam da superprodução e não da suboferta de meios higiênicos; por fim, riscos que

ameaçam formas de vida não só no mundo todo como também nas gerações futuras, não

sendo portanto passíveis de seguro (BECK, 1996, p. 21-22). Em que pese sua

materialidade, riscos são cognitivamente apreendidos:

Eles induzem dano sistemático e com freqüência irreversível, em geral permanecem invisíveis, são baseados em interpretações causais e inicialmente só existem, portanto, em termos do conhecimento (científico ou anticientífico) sobre eles. Podem, assim, ser alterados, magnificados, dramatizados ou minimizados no interior do conhecimento e, nessa medida, são particularmente abertos à definição e à construção sociais.39 (BECK, 1996b, p. 22-23)

38 “If simple modernization means the disembedding of traditional social forms and then the re-embedding of industrial ones, reflexive modernization means the disembedding of industrial social forms and then the re-embedding of other modernities. (...) The motor of social transformation is no longer considered to be instrumental rationality, but rather the side-effect: risks, dangers, individualization, globalization." 39 “They induce systematic and often irreversible harm, generally remain invisible, are based on causal interpretation, and thus initially only exist in terms of the (scientific and anti-scientific) knowledge about them. They can thus be changed, magnified, dramatized or minimized within knowledge, and to that extent they are particularly open to social definition and construction.”

36

Essa característica intrinsecamente cognitivo-construtivista do risco40 está longe, no

entanto, de conferir meios de atuação ou controle individual sobre ele. Ao contrário, essa

configuração implica antes uma “vitimização” do indivíduo, pois contra a nova distribuição

global de ameaças as decisões individuais pouco ou nada podem, uma vez que a produção

de toxinas e poluentes está indissoluvelmente ligada à base natural do mundo industrial: “A

experiência dessa vitimização por riscos que está interditada para decisões torna

compreensível muito do choque, da raiva impotente e dos sentimentos ‘de falta de futuro’

com os quais muitas pessoas reagem, de modo ambivalente e com críticas necessariamente

oportunistas [exploitative], às últimas realizações da civilização técnica” (BECK, 1996b, p.

41).41 Como explica o autor em seu capítulo de Modernização reflexiva, toda a produção de

sentido sobre um mundo em contínua e acelerada transformação recai agora sobre o

indivíduo, que não conta mais com as formas tradicionalmente coletivas (grandes

narrativas) de obtê-lo, como a consciência de classe ou a crença no progresso, exauridas e

desintegradas que foram na cultura da sociedade industrial (BECK, 1997, p. 18).

Obviamente, essa exigência sobre o indivíduo está fadada a fracassar, abandonando as

pessoas no pior dos mundos “modernos”: cada vez mais acossadas por riscos e cada vez

menos em condições de racionalizá-los na sua própria escala de vida. Foi, de resto, a

notável convergência das formulações de Beck com as temáticas da insegurança ontológica

e da (crise de) confiança em Anthony GIDDENS (1991, p. 116),42 assim como o papel

central da deterioração do ambiente, que terminou por reuni-los na colaboração com Scott

Lash resultante no volume Modernização reflexiva.

40 Que será mobilizada contra a própria noção de sociedade de risco e sua dimensão mais crítica, como será visto na seção seguinte. 41 “The experience of this victimization by risks which is closed to decisions make understandable much of the shock, the helpless rage and the ‘no future’ feelings with which many people react ambivalently and with necessarily exploitative criticism to the latest achievements of technical civilization.” 42 Eis como ROSA (2000, p. 76) resume a problemática da incerteza que espreita a segurança ontológica, em Giddens: “Certo grau de regularidade ou de ordenação é central para a viabilidade de uma auto-identidade reflexiva e para a fixação do tecido social. (...) Embora a incerteza não possa ser evitada, ela precisa ser administrada para ´revenir a sobrecarga psíquica e para regular o perigo. (...) Risco é a conceituação da incerteza que demarca quais situações ou ações têm resultados que afetam interesses humanos, e quais não. Conseqüências com potencial catastrófico são especialmente perturbadoras para a segurança ontológica.” [A degree of regularity or orderliness is pivotal to the viability of a reflexive self-identity and to an anchoring of the social fabric. (...) While uncertainty cannot be avoided, it must be managed to prevent psychic overload and to regulate danger. (...) Risk is a conceptualization of uncertainty that demarcates between situations or

37

Ora, essa autonomia de que se despojam os indivíduos é precisamente o cerne da

promessa da modernidade: sua libertação das amarras da tradição e da superstição,

concomitantemente ao incremento contínuo tanto do conhecimento objetivo quanto do

progresso técnico e da esfera individual de ação (ou espaço para a tomada de decisões sobre

a vida e o futuro). É por essa razão que Beck define a sociedade industrial moderna como

fruto de uma modernização simples, ou seja, incompleta, pois carece do atributo de reflexão

(ou ceticismo) que mobilizara contra mito, tradição e religião quando da inauguração do

projeto iluminista burguês, no século XVIII. Nas palavras de BECK (1996b, p. 14), a

modernização reflexiva significa mais, e não menos, modernidade: “Na sociedade de risco

os princípios da modernidade são redimidos de suas separações e limitações na sociedade

industrial” (1996b, p. 15).43

A modernização simples mantém, contudo, raízes fundas mesmo na sociedade de

risco (que deve portanto ser entendida mais como uma transição, ou como época de

convivência de momentos até contraditórios da modernidade), em particular nas operações

da tecnociência – aqui assumindo o papel de agente da modernidade simples – em face dos

riscos que ela mesma contribuiu para produzir. Sendo essas ameaças algo que se constitui

na ordem do conhecimento e não tanto dos fatos, elas implicam necessariamente um

componente normativo, que a ciência domesticada pela tecnocracia tentará monopolizar,

diante da lógica incansavelmente vitoriosa da reprodução material da riqueza (BECK,

1996b, p. 45). A abundância de perigos impõe-se como manifestamente indesejável: “Estes

[riscos] precisam ser ou eliminados ou negados e reinterpretados. A lógica positiva da

aquisição contrasta com a lógica negativa da disposição, da prevenção [avoidance], da

negação [denial] e da reinterpretação” (1996b, p. 26).44 Lida-se aqui, necessariamente, com

uma forma de consciência que é sempre teórica e, portanto, cientificada, assinala BECK

(1996b, p. 28)

Sob a tutela da tecnociência, os riscos oferecem oportunidade não só para uma

manipulação simbólico-construtiva (reinterpretação, negação) como igualmente para a

actions with outcomes involving human stakes and those that do not (...). Consequences with catastrophic potential are specially disquieting to ontological security.] 43 “In the risk society the principles of modernity are redeemed from the separations and limitations in industrial society.” 44 “These must be either eliminated or denied and reinterpreted. The positive logic of acquisition contrast with a negative logic of disposition, avoidance, denial, and reinterpretation.”

38

reprodução, tanto no sentido de multiplicação material das próprias ameaças quanto no da

proliferação de negócios e instituições para administrá-las (das consultorias especializadas

na análise estatística de riscos à indústria da remediação ambiental). Mas os riscos

oferecem ainda muito mais do que isso, exatamente por serem social e cognitivamente

construídos – a possibilidade de se tornarem objeto de crítica:

... mesmo onde se aproximam de nós silenciosamente, envoltos em números e fórmulas, riscos permanecem fundamentalmente localizados, condensações matemáticas de imagens dilaceradas de uma vida que vale a pena viver. Essas idéias precisam em contrapartida ser aceitas, isto é, não podem ser experimentadas enquanto tais. Neste sentido, riscos são imagens negativas objetivadas de utopias, nas quais o humano, ou o que dele restou, é preservado e revivido no processo de modernização.45 (BECK, 1996b, p. 28)

Enquanto para Horkheimer, Adorno e mesmo Marcuse a crítica da ciência como

razão instrumental redunda em pessimismo, por permanecer agrilhoada a uma filosofia da

história que não se cumpre, com Beck a crítica da ciência aparece como momento por

excelência da reintrodução da reflexão na modernidade, propiciada pelo paroxismo dos

riscos engendrados pelo capitalismo industrial. Assume, portanto, posição central na esfera

das subpolíticas que Beck acredita investidas da capacidade de fazer avançar a

transformação social, tanto no sentido temporal da diferenciação quanto no sentido ético da

emancipação. Trata-se de reverter, ainda que parcialmente, o espúrio processo de

desdiferenciação que apagou as fronteiras entre ciência básica e pesquisa tecnológica e

degenerou no que se chama de tecnociência, voltando contra esse liga resistente o

instrumento cortante da primeira – o ceticismo. Romper com seu monopólio, seus dogmas

frágeis (porque corroídos pelo fluido interno da dúvida), sua incongruente infalibilidade, é

tarefa reservada não tanto para uma sociologia da ciência de corte tradicional, mas para o

que Beck define como sociologia cognitiva: “... a sociologia de todas as misturas, todos os

amálgamas e todos os agentes de conhecimento em sua combinação e oposição, suas

fundações, suas reivindicações, seus erros, suas irracionalidades, sua verdade, assim como

em sua impossibilidade de conhecer o conhecimento que reivindicam” (BECK, 1996b, p.

45 “... even where they approach us silently, clad in numbers and formulas, risks remain fundamentally localized, mathematical condensations of wounded images of a life worth living. These ideas must in turn be believed, that is, they cannot be experienced as such. In this sense, risks are objectified negative images of utopias, in which the human, or what is left of it, is preserved and revived in the modernization process.”

39

55).46 Em Erfindung des Politischen, essa crítica da ciência será qualificada como uma

nova simbiose da filosofia com a vida cotidiana: “O objetivo deve ser o de contrapor a

estreiteza mental da ciência de laboratório à estreiteza mental da consciência cotidiana e

dos meios de comunicação de massa, e vice-versa” (BECK, 1996a, p. 124).47

É essa dimensão ética, ou o que HABERMAS (2000, p. 453) qualifica como

conteúdo normativo da modernidade e como que uma obrigação transcendental (p. 451) de

realizá-lo, ou ao menos persegui-lo, que parece ter escapado aos pioneiros da Escola de

Frankfurt na sua crítica redutora da razão à razão instrumental. Decerto que o projeto

moderno foi desde o início assombrado por uma ambivalência fundamental no que

concerne à noção de progresso; tampouco se pode negar que a ciência esteja hoje

diretamente engajada na geração de ondas tecnológicas que são ao mesmo tempo ondas de

legitimação, ou que o progresso técnico implique certa regressão da moralidade (SANTOS,

2003), ou ainda que um tipo de “gnosticismo tecnológico” – a promessa de superar a

finitude e a contingência do que é humano – sirva sobretudo à legitimação das operações da

própria tecnociência contemporânea (MARTINS, 1996a, p. 172). O importante é que essa

constatação não impede (antes estimula e exige) a busca de entendimento e de soluções

para as ambivalências da modernização (BECK, 1997, p. 21; HABERMAS, 2000, p. 469-

470; GIDDENS, 1991, p. 19), pois isso é o que garante a permanência de ao menos um

vetor de emancipação. Desse ponto de vista, é preciso mais, e não menos, modernidade;

aprofundar e expandir a razão para além da razão instrumental, e não abandoná-la.

1.6 Modernização ecológica e construcionismo: contramodernidades?

Em sua contribuição para Modernização reflexiva, a certa altura Ulrich Beck

responde a um argumento corrosivo de sua noção de sociedade de risco: a afirmação de que

as questões de risco não passariam de questões de ordem, vale dizer, de premissas

valorativas que condicionam a própria análise, em lugar de compor seu resultado. O

46 “... the sociology of all the admixtures, amalgams and agents of knowledge in their combination and opposition, their foundations, their claims, their mistakes, their irrationalities, their truth and in the impossibility of their knowing the knowledge they lay claim to.” 47 “The goal ought to be to play the narrow-mindedness of laboratory science off against the narrow-mindedness of everyday consciousness and the mass media and vice-versa”.

40

sociólogo alemão, como de hábito, responde de forma paradoxal – dizendo que isso

exatamente é o que elas são, mas também justamente o que não são:

Ao contrário, são a forma pela qual a lógica instrumentalmente racional do controle e da ordem é conduzida em virtude de seu próprio dinamismo ad absurdum (...). Isto implica que aqui começa uma ruptura, um conflito no interior da modernidade sobre as bases da racionalidade e o autoconceito da sociedade industrial, e isto está ocorrendo bem no centro da própria modernização industrial. (BECK, 1997, p. 21)

Precisamente essa questão – a saber, se a base material da vida social pode ou não

determinar sua estrutura e o rumo de sua mudança, ainda que na forma de efeitos não-

pretendidos – tem alimentado um acalorado debate no campo da sociologia ambiental,

aquele que opõe o que se poderia resumir como noções realista e construcionista da questão

ecológica. É uma discussão relevante para o argumento deste capítulo, porque guarda uma

relação estreita com a do determinismo tecnológico (ainda que pelo flanco da negatividade,

as questões de risco encarnam efeitos determinantes da tecnologia sobre a história).

Esse debate foi formalizado e tematizado por Riley Dunlap no final dos anos 1970 e

parece guardar relação tanto com o pessimismo com a tecnologia da década anterior quanto

com a reação a ele, sobretudo na sociologia norte-americana. Na literatura, ficou conhecido

como a oposição entre o paradigma excepcionalista do humano (HEP, a partir da

abreviação em inglês) e o novo paradigma ecológico (NEP). O HEP, segundo a

reconstrução feita pelo próprio DUNLAP (1997, p. 21), teve uma origem teórica que se

poderia considerar virtuosa, na perspectiva crítica aqui adotada: a aversão aos

determinismos biológico e geográfico dominantes na primeira metade do século XX. Mas a

origem histórica desse paradigma também ajuda a entendê-lo, tendo nascido numa época de

prosperidade – o segundo pós-guerra – em que os recursos naturais ainda eram abundantes,

o que teria levado a sociologia a supor que a vida humana era crescentemente independente

do mundo físico (DUNLAP, 1997, p. 21). Alteradas profundamente as condições objetivas

da vida na década de 70, o que resultou na crescente preocupação da sociedade com

problemas ambientais, a visão do HEP seria seguida, ou deveria ser, pela do NEP, não

substituindo as perspectivas marxista, weberiana, ou outras, mas estimulando o

desenvolvimento de versões mais ecologicamente sensíveis delas (DUNLAP, 1997, p. 34).

41

Assumindo a premissa de que existe e deve existir uma cesura epistemológica total

entre sociedade e ambiente, a sociologia ambiental excepcionalista advogará o estudo de

questões ambientais primordialmente como construções sociais, não necessariamente

aderidas à materialidade (e portanto à irrefutabilidade) de processos físicos reais na base da

atividade econômica. Ora, como já se viu mais atrás, uma dimensão assim construcionista

não é necessariamente incompatível com um paradigma ecológico mesmo em sua

radicalização à maneira de Beck; o próprio DUNLAP (1997, p. 35) chega a admiti-la como

elemento enriquecedor do programa de pesquisa da sociologia ambiental, desde que isso

não implique cortar o vínculo mais profundo da sociedade com a natureza: “É somente

quando uma orientação construcionista forte leva a rejeitar a possibilidade de estudar a

interação humana com o ambiente que os sociólogos permanecem confinados na premissa

excepcionalista de que o ambiente físico é irrelevante para os seres humanos modernos”

(1997, p. 35).48

DUNLAP (1997, p. 22) afirma que Frederick Buttel tentou ressuscitar o HEP, em

meados dos anos 80 do século XX, quando ocorreu um refluxo no entusiasmo dos anos 70

com a sociologia ambiental. Com efeito, uma década depois BUTTEL (1997, p. 41-42)

ainda continuaria a criticar adeptos do NEP por exigirem muito mais – primazia ou

equiparação de variáveis biofísicas sobre variáveis sociais – do que o devido

reconhecimento da existência e da importância das questões ambientais, para ele de todo

consistentes com a sociologia clássica e com o paradigma durkheimiano dos fatos sociais.

Na análise da sociologia ambiental da vertente NEP por Buttel, às críticas a essa pretensão

se seguem aquelas voltadas contra a escala mundializada dos efeitos colaterais sobre a

mudança social, sobretudo no caso da mudança climática global (sem sombra de dúvida um

contribuinte expressivo para a noção distributiva de risco em Beck). Autores como Arthur

Mol e Gert Spaargaren enxergariam aí muito mais os contornos de uma construção social,

de uma ideologia do movimento ambientalista que se mundializa, do que de um “fato

científico” (BUTTEL, 1997, p. 42).

Outro flanco da tradição NEP/sociedade de risco explorada por seus críticos é o

privilégio conferido nessa perspectiva para os aspectos negativos da questão ambiental, que

48 “It is only when a strong constructionist orientation leads to dismissal of the possibility of studying human interaction with the environment that sociologists remain within the confines of the exemptionalist premise that the physical environment is irrelevant to modern humans.”

42

tende aí a ser formulada sempre em termos de degradação (BUTTEL, 1997, p. 44). Tal

viés impediria aquela corrente da sociologia ambiental de reconhecer que a mudança

ambiental também possa ocorrer em sentido positivo (não-degradador), idéia que é

enfatizada pelos mesmos Mol e Spaargaren e se tornou a peça de resistência de uma visão

alternativa, batizada como modernização ecológica: “A modernização ecológica não enfoca

tanto a contínua sobrecarga da base de sustentação, mas se concentra, ao contrário, na

reestruturação ambientalmente induzida dos processos de produção e consumo” (MOL,

1997, p. 139).49 Essa teoria de reforma ambiental se apóia em quatro pilares, dos quais

importa aqui sobretudo o primeiro: o papel central da ciência e da tecnologia (MOL, 1997,

p. 140-141).50 Do ponto de vista da modernização ecológica, conclui-se, é hora não de

aprofundar, mas de arrefecer a crítica da ciência:

... a teoria da modernização ecológica identifica a ciência e a tecnologia modernas como instituições centrais para a reforma ecológica (e não, em primeiro lugar, como bodes expiatórios da ruptura ecológica e social). Ciência e tecnologia são instituições de relevo para ecologizar a economia. Na era da modernidade reflexiva e no enfrentamento com a crise ecológica, as trajetórias científicas e tecnológicas estão mudando. Os regimes tecnológicos simples, end-of-pipe, que foram tão fortemente criticados nos anos 70 (...), estão sendo cada vez mais substituídos por tecnologias ambientais mais avançadas, que não só redirecionam produtos e processos de produção para versões mais ambientalmente saudáveis, mas também começam a ser engajados no descomissionamento [contraction] seletivo de grandes sistemas tecnológicos que não mais satisfazem exigências ecológicas estritas. Neste sentido, medidas tecnológicas no contexto da modernização ecológica não estão limitadas a [ser] “só um artefato a mais”.51 (MOL, 1997, p. 140)

As diferenças e mesmo incompatibilidades entre a sociedade de risco e a

modernização ecológica ficam consideravelmente turvadas pelo fato de os defensores desta

última reivindicarem-na como continuação ou resultado da perspectiva aberta por Giddens

49 “Ecological modernization does not focus so much on the continuing burdening of the sustenance base but rather concentrates on the environment-induced restructuring of processes of production and consumption.” 50 Os outros três são: crescente importância da dinâmica de mercado e de empreendedores inovadores; função preventiva do Estado (e não reativa ou curativa); e organizações não-governamentais engajadas como participantes críticos e independentes, não como críticos externos. 51 “... ecological modernization theory identifies modern science and technology as central institutions for ecological reform (and not in the first place as culprits of ecological and social disruption). Science and technology are principal institutions in ecologizing economy. In the era of reflexive modernity and in confrontation with the ecological crisis, scientific and technological trajectories are changing. The simple end-of-pipe technological regimes, that were criticized so strongly in the 1970s (...), are increasingly being replaced by more advanced environmental technologies that not only redirect production processes and products into more environmentally sound ones, but are also starting to be engaged in the selective

43

e Beck com a teoria da modernização reflexiva (MOL, 1997, p. 147) e por rejeitarem as

críticas pós-modernistas, reconhecendo que elas se tornam por demais relativistas e recaem

nos exageros excepcionalistas do pós-guerra (SPAARGAREN, MOL e BUTTEL, 2000, p.

7-8). Para eles, ainda persistiria uma diferença entre constatar que há algo de construído

(resultado do jogo de interesses e discursos de vários atores e instituições) na “grande

narrativa” da mudança climática global, por exemplo, e concluir que tudo nela é construído

socialmente e que, portanto, essa questão não teria existência “real” (SPAARGAREN,

MOL e BUTTEL, 2000, p. 10-11).52 Comparem-se, a título de ilustração dessa aparente

proximidade entre a sociedade de risco e a modernização ecológica, os argumentos de Beck

ou Habermas sobre a necessidade de uma crítica da ciência com a seguinte passagem de

SPAARGAREN: “Tecnologia e ciência como instituições semimodernas – guardando

incertezas para si mesmas e exibindo autoridade no relacionamento com o mundo externo –

são ‘destronadas’ pelo processo em curso de modernização. Nas palavras de Giddens:

chegou-se ao fim da razão providencial e todo mundo sabe disso” (2000, p. 63).53

E, no entanto, a incongruência da modernização ecológica com a sociedade de risco

parece manifesta. Fica difícil compatibilizar a mobilização da ciência pela modernização

ecológica, tal como proposta acima por MOL (1997, p. 140), com sua desmistificação, tal

como advogadas por BECK (1996b, p. 14), por meio da extensão impiedosa do ceticismo

que lhe é inerente às suas próprias fundações e riscos. A modernização ecológica se

mantém no marco daquela fé no progresso – ainda que mitigada – que caracteriza a

contramodernidade: “As forças produtivas, ao lado daqueles que as desenvolvem e as

administram, ciência e negócios, tomaram o lugar de Deus e da Igreja” (BECK, 1996b, p.

214).54 Aplica-se à sociologia da modernização ecológica, com toda propriedade, o duplo

otimismo que o sociólogo do risco enxerga combinados na modernização simples: “... a

perspectiva linear da cientização com a fé na controlabilidade rapidamente progressiva dos

contraction of large technological systems that can no longer fulfil stringent ecological requirements. In that way technological measures within ecological modernization are not limited to ‘just another artefact’ ”. 52 A propósito, FREUDENBURG (2000, p. 106) se queixa de que há uma longa literatura sobre a construção social do tema do aquecimento global, mas quase nada sobre como se construiu socialmente a defesa da inocuidade do problema. 53 “Technology and science as half-modern institutions –keeping uncertainties for themselves and displaying authority in the relationship with the outside world– are ‘dethroned’ by the ongoing process of modernization. In Giddens’ words: there has come an end to providential reason and everybody knows it.” 54 “The productive forces, along with those who develop and administer them, science and business, have taken the place of God and the Church.”

44

efeitos colaterais, possam estes ser ‘externalizados’ ou processados por influxos ‘mais

inteligentes’ de racionalização do segundo tipo e transformados em novas recuperações

econômicas” (BECK, 1996a, p. 32).55 A proposta de reforma dos modernizadores

ecológicos parece confinada às aporias do que Hermínio Martins qualifica como “quase-

soluções”, retomando um termo do norte-americano Eugene Schwartz:

Cada quase-solução engendra um resíduo de novos problemas tecno-sociais devido à incompletude decorrente das inter-relações e limitações dos sistemas fechados e aos efeitos secundários. (...) [Schwartz] argumentou que os novos problemas tecnológicos ou tecno-sociais proliferam mais rapidamente que as soluções, que cada conjunto de problemas residuais se torna mais difícil que o anterior devido a fatores como a dinâmica da tecnologia, a complexidade crescente, os custos crescentes e os recursos decrescentes, as exigências de maior controle e a inércia das instituições sociais. (MARTINS, 1998, p. 103)

Talvez a maneira mais eficiente de resumir essas diferenças seja dizer que, enquanto

o aparato conceitual da sociedade de risco visa estabelecer ou ao menos vislumbrar uma

política, o da modernização ecológica parece almejar apenas uma reforma, ou a

domesticação de um sistema cuja destrutividade é realçada pelo outro ponto de vista, que só

encontra saída numa acentuação da negatividade: “Talvez o declínio das estrelas-guia do

Esclarecimento primário – indivíduo, identidade, verdade, realidade, ciência, tecnologia e

assim por diante – seja o pré-requisito para o início de um Esclarecimento alternativo, um

que não tema a dúvida, mas que faça dela, ao contrário, o elemento de sua vida e de sua

sobrevivência” (BECK, 1996a, p. 161).56 Ceticismo – numa palavra, crítica – é o programa

político da modernidade radicalizada, concluirá exclamativamente BECK (1996a, p. 168)

no fecho de Erfindung des Politischen.

Para finalizar, cabe assinalar que esse ceticismo tornado instrumento político deve

ser exercido, obviamente, na esfera pública. Há uma notável coincidência de vários autores

nesse prognóstico, a começar por Habermas. Desde o ensaio de 1968 sobre ciência e

tecnologia ele já alertava para a necessidade de preservar a razão mediada lingüisticamente

como única maneira de decidir o escopo e a intensidade da ação racional com respeito a

55 “Simple modernization sociology combines two optimisms: the linear perspective on scientization with the faith in the rapidly progressing controllability of the side-effects, whether the latter are ‘externalized’ or can be processed by ‘more intelligent’ surges of rationalization of the second type and transformed into new economic recoveries.”

45

fins, vale dizer, de orientar as forças produtivas, para que a auto-objetivação do homem se

faça também com consciência, e não apenas com vontade:

... a questão não é se esgotamos um potencial disponível ou ainda a desenvolver, mas se escolhemos aquele que podemos querer em vista da paz e da satisfação da existência. Mas importa logo acrescentar que unicamente podemos pôr esta questão e não dar-lhe uma resposta antecipadora; ela exige antes uma comunicação sem restrições sobre os fins da práxis vital, contra cuja tematização o capitalismo tardio, remetido estruturalmente para uma opinião pública despolitizada, desenvolve no entanto um comportamento de resistência. (HABERMAS, 1993, p. 89)

Duas décadas depois, o pensador alemão concluirá seu Discurso filosófico da

modernidade chamando a atenção para a rede de esferas públicas autônomas, locais e

especializadas (literárias, científicas etc.), que no entanto prenunciam como que um centro

virtual de auto-entendimento: “Os limites são permeáveis; cada esfera pública está aberta

também às demais. Devem suas estruturas discursivas a uma tendência universalista

dificilmente dissimulada. Todas as esferas públicas parciais remetem a uma esfera pública

abrangente em que a sociedade em seu todo desenvolve um saber de si mesma”

(HABERMAS, 2000, p. 500).

Além desse, são comuns outros alertas para a necessidade de combater, na esfera

pública, o estreitamento da razão, particularmente no que respeita à esterilização da

vocação cética do pensamento científico numa tecnociência subjugada pelos imperativos da

reprodução capitalista. Da generalização da crítica e do ceticismo defendida por BECK sob

a proteção de meios de comunicação e de tribunais independentes e fortes (1996b, p. 234) à

inevitabilidade da discussão pública de questões de valor deixadas sem resposta pelo

conhecimento perito freqüentemente fragmentário e inconsistente, tal como formuladas por

GIDDENS (1991, p. 148 e 153), e mesmo à defesa da necessidade política de desafiar as

práticas material-semióticas da tecnociência no que HARAWAY (1997, p. 11) chama de

“conhecimentos situados”, não são poucos os que parecem convergir para a idéia de que o

combate à noção incapacitante de uma tecnologia fora de controle tem como palco

principal a opinião pública.

56 “Perhaps the decline of the lodestars of primary Enlightenment, the individual, identity, truth, reality, science, technology, and so on, is the prerequisite for the start of an alternative Enlightenment, one which

46

1.7 A questão do momento

Nesta altura, é preciso retomar a problemática do determinismo tecnológico,

definido mais no início deste capítulo como “a crença de que forças técnicas determinam a

mudança social e cultural” (HUGHES, 1994, p. 102), ou seja, de que a técnica, a tecnologia

ou a tecnociência possuam tanto ou mais autonomia do que os homens em sociedade,

tornando-se um fator estranho a eles e mesmo capaz de determinar à sua revelia os rumos

da mudança social e da história, determinação esta que em geral se concebe como negativa

(contrária ao interesse emancipador). Embora referindo-se especificamente ao pessimismo

tecnológico do pós-modernismo, Leo Marx estabelece uma relação entre essa concepção

negativa e a impotência diante da tecnologia descontrolada que parece válida para todas as

noções fáusticas do problema, para retomar o termo de Hermínio Martins: “Foi um

pessimismo cujo tom peculiar derivava da incapacidade da cultura opositora, em que pese

todo o seu surpreendente sucesso em mobilizar os movimentos de protesto dos anos 60,

para definir e sustentar um programa antitecnocrático eficaz de ação política” (MARX,

1994, p. 255).57 Dito de outro modo: o determinismo tecnológico é uma precondição do

pessimismo tecnológico; é preciso estar convencido de que a tecnologia tem o poder de

conduzir a sociedade humana para convencer-se de que ela a conduz necessariamente para

o abismo.

Restam, é evidente, as opções prometéicas. Filosófica e sociologicamente, contudo,

não há mais como sustentá-las no mundo de hoje, seja pelo vigor inegável do pensamento

crítico da tecnociência, sobretudo no segundo pós-guerra, seja pela proliferação e acúmulo

de riscos e danos tão convincentemente tematizados por Ulrich Beck. Cabe notar, no

entanto, que tanto Beck quanto Habermas e Martins conduzem suas análises no sentido de

não sucumbir nem ao pessimismo (frankfurtiano ou pós-moderno), nem a um

construcionismo que estigmatiza e desengana no nascedouro toda e qualquer iniciativa

crítica; nos três casos, e apesar de muitas e profundas diferenças, busca-se manter aberta

does not fear doubt, but instead make it the element of its life and survival.” 57 “It was a pessimism whose distinctive tenor derived from the adversary culture’s inability, for all its astonishing success in mobilizing the protest movement of the 1960s, to define and sustain an effective anti-technocratic program of political action.”

47

uma fresta prometéica para a tecnologia, mesmo em meio à mais devastadora análise da

tecnociência. Sem ela, parecem dizer, só resta renunciar em definitivo e na totalidade ao

projeto moderno – numa palavra, à emancipação –, o que não parecem dispostos a fazer.

Manter tal convicção na necessidade de relançar o programa da modernidade,

enfim, parece exigir que se abra mão do próprio determinismo tecnológico, ou pelo menos

que se reivindique a filiação à sua versão “suave”. Sem reservar uma paridade mínima de

autonomia para os homens, diante dos sistemas tecnológicos, tornar-se-ia inviável qualquer

perspectiva de ação visando seu controle ou sua orientação. Por outro lado, é inegável que a

tecnociência tornou-se onipresente na vida social da virada do século XX para o XXI,

penetrando e acarretando alguma dose de risco para todas as esferas da vida social e

individual, como um fator estranho a elas e, para quase todos os efeitos, fora de controle.

Uma saída para essa aporia do determinismo tecnológico, no entanto, pode estar na rejeição

da própria dicotomia autonomia humana versus autonomia da máquina:

Sistemas tecnológicos evoluem tanto em trajetórias de curto prazo quanto em arcos de longo prazo de modos que se assemelham à evolução ou a instituições humanas, produtos do desígnio humano que no entanto não são inteiramente pretendidos, planejados ou compreendidos de forma abrangente por ninguém (...). Talvez seja mais adequado dizer que nós co-evoluímos com a tecnologia, em lugar de simplesmente criá-la ou instrumentalizá-la.58 (MARTINS, 1996b, p. 237)

Movimento conceitual similar é realizado por HUGHES (1994, p. 113), para quem

os sistemas tecnológicos são comparáveis às grandes burocracias que mereceram a atenção

de Weber, com o agravante de adquirirem grandes infra-estruturas físicas e técnicas, o que

as torna ainda mais rígidas. Na sua visão, esses sistemas não adquirem autonomia (em

relação aos homens), mas sim momento: “Eles têm uma massa de componentes técnicos e

organizacionais, possuem direção, ou objetivos, e exibem uma taxa de crescimento que

sugere velocidade. Um alto nível de momento leva observadores com freqüência a presumir

que um sistema tecnológico se tenha tornado autônomo. Sistemas maduros têm uma

58 “Technological systems evolve both in short-term trajectories and over long-time spans in ways that resemble the evolution or human institutions, products of human design yet not fully intended, planned or comprehensively understood by anyone (...). It may be more fitting to say that we co-evolve with technology rather than simply create or instrumentalize it.”

48

qualidade que é análoga, portanto, à inércia do movimento”.59 (HUGHES, 1999, p. 76)

Algo de crucial a assinalar, aqui, é que o autor considera como parte importante da

superioridade do conceito de momento sobre o de autonomia que o primeiro implique ao

menos a possibilidade de perda (ou quebra) de momento, dando como exemplo a reação

social à energia nuclear na segunda metade do século XX (1999, p. 80), que acabaria por

desviá-la de uma trajetória que a certa altura pode ter parecido irresistível.

Sistemas tecnológicos, em resumo, por gigantescos e maciços que sejam e pareçam,

não são inamovíveis, nem tampouco se encontram inteiramente fora do controle humano e

social. Sua reorientação exige que se repensem as bases da política, como defende Beck,

mas a concepção de risco no centro de gravidade da teoria da modernização reflexiva

revela-se um tanto datada, por força de uma ligação estreita demais com a questão

ambiental, o que torna difícil a mobilização desse conceito – sem os necessários ajustes e

acréscimos – para entender novas modalidades de influências que a tecnociência lança

sobre a vida, em particular após o advento da engenharia genética e da genômica. Este é o

tema do próximo capítulo.

59 “They have a mass of technical and organizational components; they possess direction, or goals; and they display a rate of growth suggesting velocity. A high level of momentum often causes observers to assume that a technological system has become autonomous. Mature systems have a quality that is analogous, therefore, to inertia of motion.”

49

CAPÍTULO 2

Biotecnologia como arauto da Nova Era

Um domínio do qual não se podem mais traçar fronteiras claras é também um

domínio de incerteza, que franqueia o terreno para uma espécie de ontologia movediça, por

assim dizer. Partindo mais dos efeitos da crise ecológica do que dos debates mais recentes

sobre a engenharia genética, Anthony Giddens, Ulrich Beck e Scott Lash registraram logo

na introdução de seu Modernização reflexiva o processo de incorporação da natureza pela

cultura: “As questões ecológicas só vieram à tona porque o ‘ambiente’ na verdade não se

encontra mais alheio à vida social humana, mas é completamente penetrado e reordenado

por ela. Se houve um dia em que os seres humanos souberam o que era a ‘natureza’, agora

não o sabem mais” (GIDDENS, BECK e LASH, 1997, p. 8). Esse alcance ontológico da

tecnociência não se reveste, porém, apenas de um aspecto negativo, dissolvedor (a temática

do risco e da insegurança), mas também – e talvez mais importante – de um caráter

positivo, no sentido de engendrador. Este ponto é desenvolvido por exemplo por Beck, que

destaca o papel cada vez mais central da engenharia genética (e mais recentemente, caberia

acrescentar, da genômica) na transformação da sociedade:

A qualidade do político que está emergindo aqui é capaz de mudar a sociedade em um sentido existencial. Se os desenvolvimentos da biologia e da genética continuam sendo implementados apenas como demanda do mercado, da constituição, da liberdade de pesquisa e da crença no progresso médico, então o efeito cumulativo será, e não por decisão parlamentar ou governamental, uma profunda mudança “genética” da sociedade, no sentido mais verdadeiro da palavra. (BECK, 1997, p. 62)

Não é pacífica, no entanto, a atribuição de centralidade para a engenharia genética

na transformação social em curso na era da pós-modernidade, da modernidade reflexiva ou

do regime flexível de produção capitalista (não importando aqui fixar-se numa ou noutra

dessas caracterizações). Na realidade, dois complexos técnicos concorrem hoje pela

primazia de explicar o que mais uma vez se percebe como uma revolução tecnológico-

social: a internet e a biotecnologia. A seção seguinte se ocupará principalmente da segunda,

a mais problemática, entre outras razões porque, embora sendo objeto de copiosa literatura

de ocasião, em geral não se qualifica como um fator de transformação sistêmica, capaz de

50

alterar profundamente os regimes de produção e trabalho, como se especula da teia mundial

de computadores; quando muito, a biotecnologia costuma aparecer revestida de potencial

para refundar a medicina e a agricultura, que de artes milenares enfim se converteriam em

ciências exatas – o que já não seria revolução medíocre (ainda que setorial), seja pelos

efeitos práticos, seja pelos simbólicos.

2.1 Informática e economia

Quando se trata da rede informática internacional, a percepção parece ser muito

mais abrangente – e benigna. É certo que sua disseminação mundial e o componente de

comunicação instantânea que agrega a associam diretamente com o fluxo eletrônico de

capitais e, por essa via, com o que se enxerga de negativo na chamada “globalização”, a

capacidade da finança internacional de dirigir seletiva e instantaneamente seus capitais

especulativos para aqueles países aquiescentes a seus imperativos (e também de abandoná-

los pela mesma via célere da telemática). A internet, apesar desse parentesco suspeito,

encarna a figura clássica do meio tecnológico neutro, cuja perniciosidade ou benevolência

dependerá do uso que dele se fizer. Pode tanto servir de suporte para um comércio

eletrônico mundializado que contribua para eliminar empregos, destruir o ambiente ou

reduzir a competitividade de setores e países já enredados na armadilha da dependência

quanto para a mobilização rápida de organizações não-governamentais (ONGs) e

manifestantes de qualquer ponto do planeta em protestos e campanhas contra esses mesmos

efeitos.60

Essa aparente neutralidade parece estar na origem de uma imagem pública em que a

utilidade percebida se sobrepõe a riscos eventuais e que, portanto, resulta mais favorável

que a das biotecnologias.61 De resto, proliferam – a ponto de constituir quase que um senso

60 Depois de cientistas, militantes de ONGs estiveram entre os primeiros a aderir à World Wide Web e ao correio eletrônico; foi o caso do Brasil, onde a rede Alternex –fruto da iniciativa da ONG Ibase (Instituto Brasileiro de Análises Sociais e Econômicas)– tornou-se em julho de 1989 um dos pioneiros provedores de acesso. 61 Como exemplo, pode-se citar pesquisa de opinião sobre tecnologia nos EUA apresentada por Susanna H. Priest em Nature Biotechnology (v. 18, set.2000, pp. 939-942): 72,1% dos norte-americanos entrevistados responderam que a internet iria melhorar seu modo de vida nos 20 anos subseqüentes, contra 52,8% no caso

51

comum sociológico – as obras interpretativas que põem as redes informáticas como

princípio explicador da sociedade contemporânea, como seu foco de dinamismo ou, pelo

menos, como metáfora das novas formas de organização social engendradas por uma

economia mais e mais mundializada (reduzindo-se tudo a um fator abstrato, como

“conectividade”, ou “o virtual”). Mesmo quando pretende fazê-lo de uma perspectiva

crítica, o ponto de vista eleito por esse gênero de interpretação conduz a uma atitude no

mínimo reificadora ou circular, que usa um fator atual da mudança para explicar a gênese

do próprio processo de mudança. Um exemplo é o de Pierre Lévy, para quem o processo

que chama de virtualização não apenas marca a época atual como está na base da “aventura

de autocriação que sustenta nossa espécie”, nada menos que a forma de hominização do

homem, em três planos:

Através da linguagem, a emoção virtualizada pela narrativa voa de boca em boca. Graças à técnica, a ação virtualizada pela ferramenta passa de mão em mão. Do mesmo modo, na esfera das relações sociais, pode-se organizar o movimento ou a desterritorialização de relacionamentos virtualizados. (LÉVY, 1999, p. 77)

A biotecnologia não é em geral alçada a altitudes tão rarefeitas, em que uma

imagem proveniente do mundo da informática (a chamada realidade virtual) se desfaz da

materialidade técnica e histórica em que surgiu para inverter a clássica explicação pela

origem, inaugurando algo como uma iluminação retrospectiva pela conseqüência. Houve,

por certo, tentativas de des-historicizá-la, analogamente, como no argumento

freqüentemente avançado por defensores da biotecnologia na agricultura segundo o qual a

confecção de plantas geneticamente modificadas nada mais seria do que a evolução normal

– apenas com a incorporação de métodos mais precisos (a engenharia genética) – do

melhamento milenar de plantas e animais, baseado em cruzamentos de variedades. Ou seja,

que a biotecnologia sempre teria existido e se confundiria com a prática da agricultura e,

por que não, com a própria humanidade. Mais comuns e mais articulados, porém, são os

esforços para colocar a biotecnologia no centro da dinâmica social atual, imprimindo-lhe

um aspecto revolucionário, como na “nova matriz” de que fala Jeremy Rifkin em The

biotech century:

da biotecnologia (enquanto 30,1% opinaram que esta “tornaria as coisas piores”, muito perto dos 32,4% que prevêem efeitos adversos da energia nuclear, a mais temida das tecnologias abordadas na pesquisa).

52

O Século da Biotecnologia traz consigo uma nova base de recursos, um novo conjunto de tecnologias transformadoras, novas formas de proteção comercial para estimular o comércio, um mercado de trocas global para re-semear a Terra com um segundo Gênese artificial, uma ciência eugênica emergente, uma nova sociologia de suporte, uma nova ferramenta de comunicação para organizar e administrar a atividade econômica no nível genético e uma nova narrativa cosmológica para acompanhar a jornada.62 (RIFKIN, 1998, p. 9-10)

2.2 Biotecnologia periférica

Surge para esse tipo de esforço, entretanto, uma limitação de horizonte: não há

propriamente como representar a biotecnologia no centro da atividade econômica, de modo

a fazer dela a base de uma indústria com tanto potencial indutor quanto teleinformática,

petróleo, energia elétrica ou metalurgia, ou mesmo um ramo de serviços com a penetração

do setor financeiro ou da indústria cultural. É unicamente numa confluência com a

informática que ela pode integrar o veio fundamental da economia, como se verá mais

adiante e como parece ter-se dado conta o próprio Rifkin, que em obra subseqüente (The

age of access, 2001) faz da interação entre provedor e internauta o modelo da relação

econômica em via de predominar, investindo o acesso como a forma histórica que

sucederia nada menos que a propriedade (ecoando assim os temas da virtualização e

desmaterialização, tão freqüentes na literatura sobre redes e sociedades em rede). Na Era do

Acesso, os genes que há pouco reinavam no Século da Biotecnologia se tornam pouco mais

que uma nota de rodapé, um tipo entre outros de ativos que se volatilizam. 63

No final dos anos 80, a questão sobre a centralidade da biotecnologia havia

alimentado uma polêmica esclarecedora (FRANSMAN, JUNNE e ROOBEEK, 1995)

iniciada por Frederick H. Buttel, que, contra a corrente entusiasmada com as

62 “The Biotech Century brings with it a new resource base, a new set of transforming technologies, new forms of commercial protection to spur commerce, a global trading market to reseed the Earth with an artificial second Genesis, an emerging eugenics science, a new supporting sociology, a new communication tool to organize and manage economic activity at the genetic level, and a new cosmological narrative to accompany the journey.” 63 Movimento similar é realizado por Scott LASH no livro Critique of information (2002), que fala em informacionalização e substitui a centralidade da produção na economia pela centralidade da informação, a partir da qual o mecanismo de exclusão (e não mais exploração) definiria uma nova divisão de classes sociais mundializadas. Aqui, em contraste com o segundo Rifkin, os bancos de dados genéticos aparecem em posição proeminente.

53

potencialidades desse campo técnico, negou-lhe a condição de fator comparável à

informática na conformação da nova economia em nascimento –um vínculo que, na sua

descrição, se apoiava apenas numa forma “casual” de pensamento. A biotecnologia não só

teria seu escopo econômico limitado a processos e produtos baseados em fatores

biológicos, ou por eles substituíveis, como ainda carregaria uma pecado original para

contendores dessa arena schumpeteriana: vincular-se a setores em declínio da economia

global, como a agricultura e a indústria química/farmacêutica. Não seria assim

“revolucionária” nem capaz de “fazer época”:

O motor elétrico, por exemplo, permitiu a manufatura com linhas de montagem e de massa, que contribuiu para a formação da classe operária industrial, e levou a categorias inteiras de novos produtos (...). A microeletrônica e as novas tecnologias da informação podem augurar mudanças comparáveis, mas a biotecnologia, que é principalmente uma tecnologia de substituição, provavelmente não o fará. (BUTTEL, 1995, p. 34)64 Em primeiro lugar, a importância futura da biotecnologia estará na racionalização de um grupo de setores manufatureiros primários e tradicionais, em paralelo com a transição para uma economia mundial baseada em parte considerável na nova microeletrônica e nas tecnologias da informação. Em segundo lugar, a biotecnologia será uma tecnologia subordinada, subsidiária ou derivativa das relações sociais das tecnologias da informação predominantes. (BUTTEL, 1995, p. 40)65

Uma resposta vigorosa a Buttel partiu de Annemieke J.M. Roobeek, para quem a

biotecnologia é integrante pleno da associação de tecnologias fundamentais (core

technologies), “que não só alteram dramaticamente a base tecno-industrial corrente como

também fazem pressão sobre a estrutura sócio-institucional existente para se ajustar a uma

nova ordem de manufatura, ação, consumo e comunicação” (ROOBEEK, 1995, p. 63).66

Sua visão é a de que a aparente subordinação da biotecnologia decorre de ser ela ainda

“embrionária”, como a tecnologia de novos materiais (a terceira perna do tripé), situação

64 “The electric motor, for example, permitted mass, assembly-line manufacturing, which contributed to the formation of the industrial working class, and led to whole categories of new products (...). Microelectronics and the new information technologies may portend comparable changes, but biotechnology, which is principally a substitution technology, probably will not.” 65 “First, the future importance of biotechnology will lie in rationalization of a number of primary and traditional manufacturing sectors in tandem with the transition to a new world economy based in considerable part on new microelectronics and information technologies. Second, biotechnology will be a subordinate technology, subsidiary to or derivative from the social relations of the predominant technologies.” 66 “… which not only dramatically change the current techno-industrial base but also put pressure on the existing socio-institutional structure to adjust to a new order of manufacturing, acting, consuming and communicating”.

54

que deverá alterar-se com a futura dependência do campo informático em relação a

inovações biotecnológicas (biochips, redes neurais) e o contínuo esfumaçamento –

provocado pela complementaridade e pela convergência dessas três tecnologias – das

fronteiras setoriais estipuladas para descrever um regime anterior de produção, o fordismo.

Mais, ainda: o que define essa tríade como unidade histórica e técnica, como o motor da

transição para uma nova economia, é a sua capacidade de oferecer soluções para o que

Roobeek chama de “problemas de controle” do fordismo (o que hoje talvez se designasse

como uma questão de sustentabilidade, ou um eco da temática do risco em Ulrich Beck),

aportando miniaturização, flexibilidade, desmaterialização, minimização de rejeitos e

design customizado: “Nossa tese é que a ascensão dessas três novas tecnologias

fundamentais, entre as quais está a biotecnologia, não é um acidente, mas sim que a

dinâmica por trás dessa ascensão deve ser buscada nas limitações dos conceitos tecno-

econômicos dominantes precedentes” (ROOBEEK, 1995, p. 73).67 Eis como a

biotecnologia contribui ou deverá contribuir para a estabilidade do tripé:

O poder derivado da capacidade de controlar e manipular a natureza, assim como o benefício da baixa intensidade energética e da possibilidade de usar materiais substituíveis como material de base da indústria, deixa fora de dúvida que muitos setores ou usarão ou serão influenciados pelas novas técnicas biotecnológicas. Já 40% dos bens produzidos em países industrializados têm base biológica. As novas aplicações certamente elevarão ainda mais essa cifra. 68 (ROOBEK, 1995, p. 73)

Em verdade não chega a instaurar-se uma contradição entre as visões representadas

por Buttel e Roobeek. Ambos concordam em que a relevância econômica atual da

biotecnologia é incomparável com a da informática, e o próprio Buttel admite que eventuais

inovações futuras, aí sim “revolucionárias”, podem alterar a situação que o compele a

subordinar aquela a esta. Outra uniformidade aparente entre os dois lados, esta mais

surpreendente, está no fato de que ambos parecem ter em mente o paradigma da agricultura,

quando abordam a biotecnologia, em particular as variedades vegetais geneticamente

67 “Our thesis is that the rise of the three new core technologies, of which biotechnology is one, is not an accident, but the dynamics behind the rise are to be found in the limitations of the preceding ruling techno-economic concepts.” 68 “The power derived from the ability to control and manipulate nature as well as the benefit of low energy intensity and the possibility of using replaceable materials as an industrial base material, put it beyond doubt that many sectors will either use or be influenced by the new biotechnological techniques. Already 40 per cent

55

modificadas que então debutavam com alarde no mercado norte-americano do agronegócio.

Hoje, uma imagem-feixe mais representativa da biotecnologia talvez fosse encontrada na

genômica, que, com a promessa sempre reiterada de revolucionar diagnósticos e

tratamentos de saúde, pode vir a derrubar as objeções de Buttel quanto ao

“substitucionismo” da biotecnologia e à sua alegada incapacidade de penetrar no dinâmico

setor de serviços. O autor chega a conceder que a biotecnologia possa levar a grandes

mudanças na indústria de fármacos e que esse seria o único setor realmente dinâmico

passível de ser afetado por ela (BUTTEL, 1995, p. 36-37), mas prevê que este também

entrará em declínio, com a derrocada do welfare state e a conseqüente desmobilização dos

serviços nacionais de saúde pública – no que é contraditado por Gerardo Otero, que

assinala o fato de custos de assistência médica abocanharem fatias cada vez maiores do

produto interno bruto dos Estados Unidos, por exemplo, acima de 10% (OTERO, 1995, p.

48). De todo modo, a conclusão de Buttel é que a biotecnologia não terá como surtir efeito

econômico de peso nas próximas duas ou três décadas, o que não se mostra de todo

incompatível com a visão de Roobeek, para quem isso fatalmente ocorrerá, a partir de

horizonte de tempo similar. Um enfatiza o aspecto negativo, que a biotecnologia terá

dificuldade para tornar-se economicamente hegemônica nesse prazo; a outra, positiva,

prevê que isso acontecerá ao cabo do período.

Há também muita concordância entre ambos no diagnóstico de que as grandes

transformações a serem induzidas pela biotecnologia terão caráter sobretudo social, por

assim dizer extratécnico. De acordo com Buttel, “a defesa da natureza não-revolucionária

da biotecnologia não deve ser vista como o equivalente de argumentar que a biotecnologia

(...) desempenhará papel sem importância na mudança social, ou que a biotecnologia

deixará de ter grandes efeitos sociais” (BUTTEL, 1995, p. 29).69 Já para Roobeek, o viés

meramente econômico e schumpeteriano não tem a capacidade de esgotar a compreensão

das relações entre transformação técnica e mudança social, o que diminui de modo

dramático a relevância do questionamento da biotecnologia sob esse ponto de vista

of the goods produced in the industrial countries are biologically based. The new applications are sure to raise this figure even further.” 69 “a claim of the nonrevolutionary nature of biotechnology should not be seen as equivalent to arguing that biotechnology (...) will play an unimportant role in social change, or that biotechnology will fail to have major social effects”.

56

reducionista. Do ângulo do futuro, ela tem mais influência a exercer do que permite a esfera

acanhada da produção:

Mas, embora as novas tecnologias fundamentais [core technologies] possam fornecer uma resposta a muitas das limitações técnicas do fordismo, a própria tecnologia nunca poderá ser uma cura para um conceito de controle em declínio, uma vez que os problemas do fordismo não são puramente técnicos, mas estão relacionados com mudanças no quadro político-econômico, assim como as normas e valores cambiantes no contexto social mais amplo e o ambiente. 70 (ROOBEEK, 1995, p. 81)

“Para além do substitucionismo, a engenharia genética está levando cientistas e

industrialistas a reconceituar o que é vida”, escreve OTERO (1995, p. 55).71 Com ele

concorda Freeman, outro participante da polêmica:

Embora os efeitos econômicos dessa nova atividade possam ser limitados e seja provável que se desenvolva primeiramente como um “serviço” oferecido por firmas especializadas a governos e outras indústrias, ela suscita questões muito fundamentais de comportamento pessoal e social, assim como legais.72 (FREEMAN, 1995, p. 22)

2.3 Genômica e sociedade

A biotecnologia só se torna protagonista inconteste, assim, quando se encontram em

tela seus efeitos sociais e culturais, mais marcadamente as promessas e os temores que

suscita. Foram esses os ingredientes que atraíram tanta atenção pública para a divulgação

dos resultados preliminares do Projeto Genoma Humano (de ora em diante referido como

PGH) e da iniciativa concorrente da empresa privada norte-americana Celera que fizeram

de 2000 o aclamado Ano do Genoma. Entre o anúncio da finalização de um “rascunho” da

seqüência de “letras” químicas que compõem o repertório de especificações para o

70 “But although new core technologies can provide an answer to many of the technical limitations of Fordism, technology itself can never be a cure for a concept of control in decline, for the problems of Fordism are not purely technical, but are related to changes in the political-economical framework, as well as the changing norms and values in the broader social context and the environment.” 71 “Besides substitutionism, genetic engineering is leading scientists and industrialists to reconceptualize what life is.”

57

desenvolvimento de um ser humano, numa cerimônia para a imprensa em 26 de junho de

2000 de que participaram o presidente norte-americano Bill Clinton e o premiê britânico

Tony Blair (este por meio de um link de satélite), e a publicação dos artigos científicos com

os dados propriamente ditos, em meados de fevereiro de 2001,73 a genética ocupou o

proscênio da ciência como empreendimento épico, atividade do espírito que descortina o

enredo oculto da natureza – nos casos de retórica mais inflamada, da própria natureza

humana. De posse do que se supõe ser o código-fonte da espécie, a humanidade estaria em

posição de começar a subjugar uma pletora de doenças, a principiar pelo câncer, atacando-

as com suas próprias armas, as da bioquímica, e conquistando por sua força um território de

grande importância simbólica no reino da necessidade a que (ainda) estão confinados os

homens.

A aparência pública do genoma humano, assim, é hoje fundamentalmente positiva e

beneficiária da promessa de vastos benefícios, mas não imune à ansiedade que ronda as

tecnologias e suas aplicações, pois a genômica nasce no epicentro das biotecnologias e de

suas ramificações no domínio pantanoso da engenharia genética. Assim como a internet,

constituída a partir de uma rede criada com fins estratégico-militares,74 o PGH também traz

do berço essa marca de ambivalência social e de fruto do intervencionismo estratégico na

esfera da tecnociência. Como programa de pesquisa, teria surgido de um insight de cunho

prometéico do Nobel de Medicina italiano Renato Dulbecco, que presidia o prestigiado

Salk Institute. Segundo seu próprio relato:

O Projeto Genoma é ainda muito jovem. Teve início em 1986, a partir de um artigo de minha autoria, publicado na Science (...). Tratava-se de uma reflexão: os longos anos empregados no estudo do câncer haviam me convencido de que, para vencê-lo, seria necessário um conhecimento profundo dos genes que, quando alterados, induzem as células a se tornarem malignas. (DULBECCO, 1997, p. 90)

72 “Although the economic effects of this new activity may be limited and it is likely to develop first as a ‘service’ provided by specialized firms to government and other industries, it raises very fundamental issues of personal and social behaviour as well as legal issues.” 73 Em edições especiais dos periódicos científicos Nature (v. 409, 15.fev.01, pp. 745-964), com os resultados do PGH, e Science (v. 291, 16.fev.01, pp. 1145-1434), com os dados da Celera. 74 A Arpanet, montada no final dos anos 60 por um órgão do Departamento de Defesa norte-americano, a Advanced Research Projects Agency (ARPA). Esta, por sua vez, havia sido criada para suscitar a reação tecnológica dos Estados Unidos ao feito soviético do lançamento do satélite Sputnik, em 1957, segundo relato de Michael Hauben, da Universidade Columbia, em Behind the Net (www.dei.isep.ipp.pt/docs/arpa).

58

Institucionalmente, porém, o PGH começara a surgir em outubro de 1985, num

escritório do Departamento de Energia (DOE, o mesmo que conduzira o Projeto

Manhattan) chefiado pelo físico Charles DeLisi, 75 que teria tido uma iluminação correlata à

de Dulbecco: criar um instrumento para comparar, letra por letra, o patrimônio genético dos

pais com o de uma criança portadora de doença genética, para tentar detectar aquelas

alterações envolvidas no surgimento da doença. O PGH, sugere sua gênese, é fruto de um

arrefecimento da Guerra Fria e da necessidade de formular um projeto de pesquisa

biológica big science à altura do Projeto Manhattan e capaz de concorrer com os imensos

aceleradores de partículas que estavam então em voga:

O departamento apoiou DeLisi quando, em 1986, ele apresentou um plano para um ambicioso programa de genoma humano de cinco anos no DOE (...). Em setembro de 1987, o secretário de Energia determinou o estabelecimento de centros de pesquisa sobre o genoma humano em três dos laboratórios nacionais do departamento: Los Alamos, Livermore e Lawrence Berkeley. A investida do departamento no trabalho sobre o genoma encontrou apoio entusiasmado do senador Pete Domenici, do Novo México, um defensor tenaz dos laboratórios armamentistas nacionais de seu Estado que se preocupava com o destino dessas instituições no advento da paz. Domenici pôs o Projeto Genoma Humano na agenda do Congresso ao conduzir audiências públicas sobre a questão no mesmo mês da determinação do DOE e ao propor um projeto de lei com vistas a promovê-la em conexão com uma revitalização geral dos laboratórios nacionais.76 (KEVLES, 1993, p. 23)

As prioridades nacionais dos EUA parecem ter se deslocado nos anos 1980 e 1990. A Guerra nas Estrelas (o pretendido plano de construir um sistema estratégico de defesa por mísseis baseado no espaço) e o Supercolisor Supercondutor (uma enorme instalação para esmagar átomos que havia sido parcialmente construída no Texas) foram abandonados, e um plano para mapear e seqüenciar o genoma humano ganhava apoio. Objetivos de defesa nacional e física nuclear saíam de moda; entravam necessidades humanas de saúde e biologia molecular. 77 (ZWEIGER, 2001, p. 54)

75 Office of Health and Environment, cuja divisão de biociências no Los Alamos National Laboratory havia estabelecido em 1983 o GenBank (KEVLES, 1993, p. 18), até hoje o principal banco de dados para seqüências de DNA. 76 “The department backed DeLisi when, in 1986, he advanced a plan for an ambitious five-year DOE human genome program (...). In September 1987, the secretary of energy ordered the establishment of human genome research centers at three of the department’s national laboratories: Los Alamos, Livermore, and the Lawrence Berkeley Laboratory. The department’s move into genome work found enthusiastic support from Senator Pete Domenici, of New Mexico, a staunch supporter of the national weapons laboratories in his state who was himself worried about the fate of these institutions should peace break out. Domenici put the human genome project on the congressional agenda by holding hearings on the issue in the same month as the DOE’s order and introducing a bill designed to advance it in connection with a general revitalization of the national laboratories.” 77 “U.S. national priorities appear to have shifted in the 1980s and the 1990s. Star Wars (the purported plan to build a space-based strategic missile defense system) and the superconducting supercollider (an enormous atom-smashing facility that had been partially constructed in Texas) were abandoned, and a plan to map and

59

DeLisi e seu colega David Smith viram o seqüenciamento do genoma humano como um meio de cumprir a missão do DOE de entender os efeitos biológicos da radiação (um resquício da era pós-explosões atômicas de Hiroshima e Nagasaki) e de utilizar mais extensivamente os laboratórios do DOE. 78 (ZWEIGER, 2001, p. 57)

Além dessa espécie de pecado original, que a afasta claramente do paraíso ético da

ciência pura e desinteressada, a genômica e seu séquito de biotecnologias ocupam hoje

posto central e nevrálgico na representação social da tecnociência, o estágio atual da

pesquisa organizada que, à diferença do século XIX, engata a investigação científica no

motor do avanço técnico-produtivo, enquadrando-se decididamente na estratégia

materialista de pesquisa apoiada na valorização moderna do controle de que fala LACEY

(1998, 1999). Isso põe por terra o sistema de dicotomias que dava solidez à sua

representação tradicional: ciência vs. técnica, natureza vs. sociedade, vida vs. tecnologia.

Uma ciência que não se limita a explicar coisas, mas já o faz em condições de mobilizá-las,

apropriá-las e modificá-las no processo de produção. Qual outro ramo se prestaria melhor

ao papel de protótipo dessa tecnociência impetuosa, senão aquele que invade com um

projeto utilitarista o âmago mesmo dos seres vivos?

Como a maior parte da ciência moderna, [o PGH] está profundamente imbricado com avanços tecnológicos no sentido mais literal (...). O segundo sentido de tecnológico é o mais importante e interessante: o objeto a ser conhecido – o genoma humano – será conhecido de modo a poder ser alterado. Essa dimensão é cabalmente moderna; pode-se até dizer que ela exemplifica a definição de racionalidade moderna. Representação e intervenção, conhecimento e poder, entendimento e reforma estão embutidos desde o início como objetivos e meios simultâneos.79 (RABINOW, 1992, p. 236)

O potencial dissolvedor de valores e representações contido na engenharia genética

parece inesgotável. Os anos 1980 e 1990 estiveram repletos de controvérsias públicas e

sequence the human genome gained support. National defense and nuclear physics objectives were out of favor; human health needs and molecular biology were in.” 78 “DeLisi and colleague David Smith saw human genome sequencing as a means to fulfill the DOE’s mission of understanding the biological effects of radiation (a carry-over from the post-Hiroshima and Nagasaki bomb blast era) and of more fully utilizing the DOE-administered labs.” 79 “Like most modern science, it is deeply imbricated with technological advances in the most literal way (...). The second sense of technological is the more important and interesting one: the object to be known –the human genome– will be known in such a way that it can be changed. This dimension is thoroughly modern; one could even say that it instantiates the definition of modern rationality. Representing and intervening, knowledge and power, understanding and reform, are built in, from the start, as simultaneous goals and means.”

60

jurídicas desencadeadas por movimentos bruscos e imprevisíveis – diante da marcha lenta

da esfera pública – oriundos dos laboratórios de pesquisa das universidades e das life

sciences companies às quais aqueles se associam em escala crescente. Do patenteamento de

seres vivos, inaugurado nos Estados Unidos em 1980 com a decisão da Suprema Corte em

favor de Ananda Chakrabarty e da General Electric, protegendo uma bactéria modificada

para degradar petróleo derramado (RIFKIN, 1998, p. 41-43), à disputa jurídico-regulatória

sobre alimentos transgênicos no Brasil, a genética se revelou em duas décadas uma central

perturbadora de convenções e convicções em vários domínios da vida social: economia,

direito, saúde, ambiente, reprodução, alimentação.

Para incrementar a mística que cerca o genoma não faltou nem mesmo o tempero

ideológico da dicotomia estatismo vs. privatização, adicionado à polêmica em maio de 1998

com a criação da Celera, empresa resultante da associação entre a Perkin Elmer (fabricante

de equipamentos para laboratórios de biologia) e Craig Venter, cientista que se notabilizou

no início dos anos 1990 tanto pela invenção de técnicas para o seqüenciamento automático

de DNA quanto por apresentar milhares de pedidos de patentes sobre fragmentos de genes

humanos, em 1992 (ZWEIGER, 2001, p. 62-63). Venter pôs em crise o PGH oficial e

acadêmico quando anunciou que a joint-venture Celera completaria a soletração do genoma

humano até 2001, quatro anos antes do previsto por seus concorrentes nas universidades e

institutos públicos – promessa cumprida à risca, ainda que o PGH tenha sido capaz de

alcançá-lo. Em jogo nessa disputa estavam bilhões de dólares do que então se imaginava

ser o futuro mercado para informações e licenças cruciais para a indústria farmacêutica

desenvolver uma nova geração de medicamentos sob medida para pacientes, a partir da

análise de suas peculiaridades genéticas – um ramo econômico-tecnocientífico novo, já

batizado como farmacogenômica. Embora raros produtos lucrativos tenham de fato saído

dessas companhias de alta biotecnologia (NIGHTINGALE e MARTIN, 2004. p. 566), sete

líderes do setor nos EUA somavam no final de 2000 um valor de mercado total de US$ 71

bilhões (ZWEIGER, 2001, p. 168), boa medida do potencial projetado por investidores para

a nova indústria.

2.4 Biossocialidade

61

O que para um entusiasta da genômica como Gary Zweiger aparece como signo de

pujança, ou seja, da capacidade de subjugar males que afligem o homem, para outros

autores, simetricamente, pode ser portador de maus presságios. Para toda uma corrente

crítica das biotecnologias, a informação genética que jorra dos seqüenciadores automáticos

do PGH e flui pela internet para o GenBank é menos um conteúdo de conhecimento do que

precondição para a abertura do domínio da vida à lógica proprietária da reprodução

capitalista, por intermédio da propriedade intelectual, processo que já foi comparado com

um cercamento (enclosure) do acervo biológico comum (biological commons). Embora não

se restrinja ao genoma humano, pois está em curso uma corrida internacional pelo

seqüenciamento e patenteamento do DNA de inúmeros organismos, do camundongo e da

mosca drosófila às bactérias como a Xylella fastidiosa (esta no Brasil, em projetos genoma

fomentados pela Fundação de Amparo à Pesquisa do Estado de São Paulo-Fapesp), é sobre

a pessoa humana que se fariam sentir os efeitos mais desarticuladores dessa espécie de

colonização. Desmaterializado e reduzido à informação entesourada no diminuto recôndito

dos núcleos de suas células, o indivíduo estaria em processo de dissolução:

Não é só o cidadão que, reduzido à condição de consumidor cativo, fica superexposto e tem a sua privacidade violada. Na verdade, na nova economia, a própria existência do indivíduo é posta em questão. Aqueles que processam a sua vida descendo a níveis microscópicos não o concebem mais como sujeito, mas sim como gerador de padrões informacionais que é preciso manipular; aos olhos de quem opera com o valor do tempo de vida [lifetime value], o indivíduo dissolve-se em fluxos de dados. Entretanto, não é só no plano da informação digital que o indivíduo desaparece, –também no plano da genética assistimos à sua desintegração. (SANTOS, 2000, p. 37)

Vê-se assim, dessa perspectiva, que por intermédio da noção de informação (digital

e genética) a genômica se reencontra com a informática, agora concebidas não mais como

princípios concorrentes na capacidade de explicar a desconcertante transformação social

contemporânea, mas como o par de trilhos gêmeos que determinaria o curso do bólido

informacional (ver capítulo 5). Se redes de computadores ubíquas passam a condicionar e

potencializar de forma inaudita as trocas desmaterializadas entre os homens, segundo essa

visão, a bioinformática aliada à engenharia genética permitiria interferir nas próprias bases

(até então incondicionadas, fruto da interação ao acaso de forças da natureza) da

62

constituição da pessoa, num mercado de serviços eugênicos ou ortogênicos (um passo além

da farmacogenômica, que leva da correção a posteriori do “mau funcionamento” de certos

genes, por meio de drogas, à prevenção de sua transmissão intergerações). Dentro dessa

concepção, a genômica adquiriria o peso de um fator estruturante da sociedade e de sua

transformação, menos pela ponta da base econômica do que pelo flanco da formação dos

sujeitos e, por seu intermédio, da sociabilidade (sobretudo com a crescente e vigorosa

crença nas promessas deterministas de identificar e até manipular genes associados com

comportamentos). Teria efeitos não apenas simbólicos sobre a cultura, como no caso dos

valores, mas efeitos que poderiam ser materialmente inscritos nos seus produtores.

A abordagem mais produtiva para avançar no entendimento dos efeitos sociais da

genômica não é fazer dela, da biotecnologia ou de sua convergência com a informática

fatores determinantes e centrais da estrutura e da mudança social, nem decidir de antemão

que sua influência será necessariamente restritiva das potencialidades e aspirações

humanas, mas adotar a atitude que Paul RABINOW (1992, p. 237) qualifica como

“etnográfica”, ou seja, descrever como se transformam as práticas sociais e éticas à medida

que o PGH avança. Sua resposta é que o binômio genômica/engenharia genética se afigura

muito mais poderoso para entranhar-se no tecido social do que as práticas médicas

tradicionais e as muitas analogias biologizantes (como no caso do darwinismo e da

eugenia) empregadas para explicar a mudança social:

A nova genética deixará de ser uma metáfora biológica para a sociedade moderna e se tornará, em lugar disso, uma rede circulatória de termos de identidade e sítios de restrição, em torno dos quais e por meio dos quais um tipo verdadeiramente novo de autoprodução emergirá, que eu chamo de “biossocialidade’’. Se sociobiologia é a cultura construída sobre a base da metáfora da natureza, então na biossocialidade a natureza será modelada a partir da cultura entendida como prática.80 (RABINOW, 1992, p. 241)

Parafraseando um velho lugar comum do pensamento social, seria o caso de

concluir aqui que Edward O. Wilson, criador do termo “sociobiologia” e autor de On

human nature (WILSON, 1978), se limitou a interpretar a biologia do homem (tomando-o

portanto como um absoluto, como o incondicionado), quando se trata agora de modificá-la.

80 “The new genetics will cease to be a biological metaphor for modern society and will become instead a circulation network of identity terms and restriction loci, around which and through which a truly new type of

63

O que Rabinow tem em foco é a emergência de novas formas de circunscrever e promover

conceitos de normalidade, em que as noções de handicap ou doença genética ganham

importância crescente, dentro do que Robert Castel (citado por RABINOW, 1992, p. 243)

chama de “administração tecnocrática de diferenças”, em que “administração” talvez se

deva entender também no sentido prescritivo, médico, do termo:

Prevenção, então, será a vigilância não do indivíduo mas de prováveis ocorrências de doenças, anomalias, comportamento desviante a ser minimizado e comportamento saudável a ser maximizado. Estamos parcialmente nos afastando da velha vigilância face-a-face de indivíduos e grupos sabidamente perigosos ou doentes (para propósitos disciplinares ou terapêuticos), em direção à projeção de fatores de risco que desconstruam e reconstruam o sujeito individual ou grupal.81 (RABINOW, 1992, p. 242)

Mais que uma possibilidade aberta pela genética, a ser realizada num futuro

mercado de serviços ortogenéticos (pelas vias da terapia gênica ou da biópsia genética de

embriões para sua seleção, e não mais no quadro de programas centralizados e mandatórios

de eugenia), tal administração representa para alguns até mesmo um imperativo de ordem

ética. Assim como propagandistas dos alimentos geneticamente modificados argumentam

que se contrapor a eles equivale a abortar a solução tecnológica para o problema da fome

mundial (um exagero evidente, que omite ser esse um problema mais distributivo do que

tecnológico), deixar de pesquisar e pôr em prática as geneterapias seria um crime de lesa-

humanidade. Dulbecco acredita até mesmo que exista algo como uma injustiça genética: “A

responsabilidade pelos indivíduos deficientes deve ser assumida pela sociedade, não porque

ela tenha alguma culpa pela injustiça genética, mas porque o pool que lhes forneceu os

genes anômalos pertencem à coletividade humana” (DULBECCO, 1997, p. 210).

2.5 Nova Era Genômica?

autoproduction will emerge, which I call ‘biosociality’. If sociobiology is culture constructed on the basis of a metaphor of nature, then in biosociality, nature will be modeled on culture understood as practice.” 81 “Prevention, then, is surveillance not of the individual but of likely occurrences of diseases, anomalies, deviant behavior to be minimized and healthy behavior to be maximized. We are partially moving away from the older face-to-face surveillance of individuals and groups known to be dangerous or ill (for disciplinary or therapeutic purposes), toward projecting risk factors that deconstruct and reconstruct the individual or group subject.”

64

Não é decerto a primeira vez que se busca num complexo ou fator tecnológico – dos

tipos móveis à bomba atômica – o princípio organizador de sociedades e toda uma época

(ou, pelo menos, como sua metáfora capaz de iluminá-las). É rica a literatura no gênero,

mas um de seus primeiros expoentes, Lewis Mumford, mesmo tendo sucumbido à tentação

intelectual de enfeixar a longa argumentação de Technics and civilization sob a

denominação histórica Era da Máquina (que soa inapelavelmente datada, diante de

tecnologias tão pouco mecânicas quanto a informática e a genômica), já alertava numa

introdução de 1962 para os riscos de entronizar essa metáforas sob o manto de conceitos ou

princípios explicadores:

Ao apresentar o desenvolvimento técnico no cenário de uma ecologia social mais geral, evitei o viés corrente de fazer dele o fator dominante e mais importante, como fazem as pessoas ainda hoje quando caracterizam ingenuamente nosso período como Era do Jato, Era Nuclear, Era do Foguete ou Era Espacial.82 (MUMFORD, 1963, p. xiii)

Cabe agora, diante desse alerta, retomar a questão de fundo que norteia os dois

primeiros capítulos deste trabalho: pode uma tecnologia como a genômica definir ou

condicionar significativamente uma forma de organização social, ou no mínimo a direção

de sua mudança? Pode-se dizer que sim, mas somente se tal conclusão se ativer ao aspecto

socialmente ontológico da genômica humana e não extrapolar com isso os limites de sua

condição de um componente entre outros da mudança social, como se procurou demonstrar

acima. Erigir essa tecnologia em pilar refundador da sociedade implicaria desconhecer a

sua relativa desimportância para a esfera da economia, ao menos no horizonte das próximas

décadas (e diante da performance ainda acanhada do setor farmacogenômico). Renunciar

antecipadamente à tentação de cunhar uma Era do Genoma não isenta o pensamento social,

contudo, de captar o potencial dessa tecnociência em fase de constituição para influenciar e

mesmo constituir novas formas de sociabilidade. Seu papel, no caso, passa a ser o de

inventariar as implicações e antecipar-lhes os contornos, subsidiando com isso um debate

esclarecido sobre as conseqüências da tecnologia, antes que elas se tornem fatos

consumados e possam vir a ser percebidas como um destino – ou uma desgraça – que se

abate sobre os homens, e não mais como parte de uma obra coletiva para enfrentar o

65

império da necessidade. Como se verá a seguir, essa missão tem sido abraçada de forma

decidida, ainda que não conclusiva, por pensadores dos mais variados quadrantes, movidos

sobretudo pela interrogação sobre os efeitos das biotecnologias sobre a tradicional fronteira

entre natureza e cultura.

2.6 A dicotomia Natureza vs. Cultura

Poucas coisas na filosofia e nas humanidades têm uma história tão estabelecida – e

ao mesmo tempo tão problematizada – quanto a distinção entre vida natural e vida em

sociedade, ou, em menos palavras, entre Natureza e Cultura. Pode-se mesmo dizer que essa

dicotomia repousa na base do conjunto de disciplinas nascentes que, a partir do final do

século XIX, viria a ficar conhecido como ciências sociais (sociologia, antropologia, ciência

política). Considere-se, a título de exemplo, a célebre conceituação de fato social oferecida

em 1895 por Émile DURKHEIM:

Aqui está, portanto, um tipo de fatos que apresentam características muito especiais: consistem em maneiras de agir, pensar e sentir exteriores ao indivíduo, e dotadas de um poder coercivo em virtude do qual se lhe impõem. Por conseguinte, não poderiam ser confundidos com os fenômenos orgânicos, visto consistirem em representações e ações; nem com os fenômenos psíquicos, por estes só existirem na consciência dos indivíduos, e devido a ela. Constituem, pois, uma espécie nova de fatos, aos quais deve atribuir-se e reservar-se a qualificação de sociais. Tal qualificação convém-lhes, pois, não tendo o indivíduo por substrato, não dispõem de outro para além da sociedade (...). (1978, p. 88)

Infere-se daí que a vida em sociedade pressupõe, decerto, a existência puramente

orgânica, por assim dizer animal, mas dela prescindiria como categoria explicativa na

medida em que o fato social se realiza num plano superior, tecido pelas determinações de

uma substância diversa, supra-individual, mas ainda assim constituída de maneiras de agir,

pensar e sentir: representações e ações. Numa palavra, cultura.

Décadas depois, já no contexto da antropologia, a distinção será retomada em

chave ligeiramente dissonante por Claude LÉVI-STRAUSS (1982), numa reflexão sobre a

82 “In presenting technical development within the setting of a more general social ecology, I avoided the current bias of making it the dominant and all-important factor, as people still do today when they naively characterize our period as the Jet Age, the Nuclear Age, the Rocket Age, or the Space Age.”

66

constatação desconcertante do tabu do incesto, constatação esta que desloca a esfera natural

do plano orgânico-individual para o da espécie, no que ela tem de universal. Para o autor,

“a proibição do incesto apresenta, sem o menor equívoco e indissoluvelmente reunidos, os

dois caracteres nos quais reconhecemos os atributos contraditórios de duas ordens

exclusivas, isto é, constituem uma regra, mas uma regra que, única entre todas as regras

sociais, possui ao mesmo tempo caráter de universalidade” (LÉVI-STRAUSS, 1982, p. 47).

A proibição do incesto é a única regra “natural” entre as regras sociais. Trata-se de um

fenômeno que apresenta, lado a lado, caracteres de duas ordens excludentes, a natureza e a

cultura. Embora professe essa unidade fundamental entre espontaneidade e norma, tendo o

incesto como ponto de articulação, o que afasta a noção de uma cisão ontológica entre

Natureza e Cultura na condição humana, parece claro que Lévi-Strauss admite-a como

dicotomia ao menos num plano metodológico, para a etnografia: seu objeto de estudo são

as formas culturais, a diferença, e esta se explica apenas e tão-somente na esfera da própria

cultura, sem necessidade ou possibilidade de recurso à biologia humana. A questão de uma

eventual predeterminação biológica do leque de possibilidades culturais não se coloca; o

que está em causa é o particular, não tanto o universal impregnado na natureza.83

Reconhece, como não pode deixar de ser, a continuidade ontológica entre natureza e cultura

humanas, ao mesmo tempo em que advoga a autonomia do fato cultural.

Bater-se pela independência do objeto das ciências sociais tem como contrapartida

reservar o domínio do natural para um ramo diverso de investigação, apropriadamente

designado como ciências naturais – no que diz respeito aos seres humanos, o campo da

biologia e da psicologia experimental (hoje talvez se prefira a designação de neurociência).

Objetos diversos, objetivos e métodos idem, como resume Renato Janine RIBEIRO (2003,

p. 18): “... as ciências naturais terão, como conceito-chave, o de natureza (physis) – algo

que se pretende descobrir, controlar, manipular. E as ciências humanas se concentrarão no

conceito de cultura ou de educação, entendendo-se que o ser humano é formado,

construído, em vez de estar pronto ou dado”.

É certo que essa repartição de competências capitaneada pelas ciências sociais não

foi aceita sem combate por aqueles que vêem as ciências experimentais como as únicas

dignas desse nome, uma vez que equacionam natureza física e mensurável com

83 Se bem que Lévi-Strauss não perde de vista um outro universal, o da forma (Estrutura), mas esse aspecto

67

objetividade, criando com isso a exigência de que as ciências humanas ou se revisem

teórica e metodologicamente para ascender à objetividade, ou se deixem reduzir

(fundamentar) ao que de objetivo for possível descobrir e verificar sobre a natureza humana

em seus vários aspectos. Foi esse o projeto que animou a polêmica sociobiologia em

meados dos anos 1970: desvendar os tipos e invariantes comportamentais selecionados pela

evolução e transmitidos pelos genes, supostamente a única maneira de conferir uma base

empírica confiável às humanidades (WILSON, 2000). Com polêmica consideravelmente

menor, após um laborioso aggiornamento ao longo de duas décadas, o projeto

sociobiológico renasce nos anos 1990 sob a denominação de psicologia evolucionista, com

ataques virulentos contra o que TOOBY e COSMIDES (1992) e PINKER (2002)

pejorativamente qualificam e descartam como SSSM (standard social science model, ou

modelo padrão da ciência social). Trata-se aí de negar toda e qualquer separação de origem

durkheimiana entre os planos natural (entendido por eles como o do indivíduo e seu cérebro

moldado pela evolução) e social (agregado de indivíduos), esterilizando-a com a pá de cal

reducionista: “A história e a cultura (...) podem ser fundadas na psicologia, que pode ser

fundada na computação, na neurociência, na genética e na evolução” (PINKER, 2002, p.

69).84

2.7 As biotecnologias e a culturalização da natureza

A psicologia evolucionista granjeia hoje considerável audiência no cenário

acadêmico anglo-saxão, mas decerto não é de seu vigor revisionista e naturalizante que tem

fluído o principal da caudalosa torrente de interrogações sobre a estabilidade da fronteira

entre Natureza e Cultura. Suscitada sobretudo pela explosão das biotecnologias e da

genômica na década de 1990, proliferou em todas as partes uma literatura entre perplexa e

alarmada com o estatuto e o futuro da vida, em geral, e da natureza humana, em particular,

diante da insidiosa ação corrosiva de enzimas de restrição, seqüenciadores automáticos de

DNA e outras ferramentas da tecnociência biológica que as ciências sociais acreditavam

não será discutido aqui. 84 “History and culture (...) can be grounded in psychology, which can be grounded in computation, neuroscience, genetics, and evolution.”

68

seguramente desterradas do lado de lá da cerca epistemológica que haviam erguido em

torno de si mesmas. Surpreendendo até mesmo aqueles que não haviam perdido

inteiramente de vista a marcha batida das engenharias genética e celular, de uma hora para

a outra o mundo se viu povoado de genomas, clones, transgênicos e outras quimeras. Não

parece de fato haver muita coisa em comum entre os vários focos de emergência dessa

preocupação – além da fonte de provocação na hybris dos laboratórios e do parentesco com

a reflexão sobre o alcance sistêmico da questão ambiental.85

Quando tudo que até então contara como natural e base da vida social – a própria

biologia humana – se torna objeto das tecnologias reprodutiva, celular ou genômica,

abrindo-se assim para a esfera da manipulação, criam-se as condições para a construção

lingüística e prática de oxímoros como engenharia genética e inteligência artificial. Ocorre

como que uma culturalização da natureza, sua invasão por artefatos, num processo de

tecnologização que por assim dizer a desnaturaliza (um pouco como a racionalização

weberiana leva ao desencantamento do mundo), retirando-lhe com isso a condição de

fundamento e referência externa do social. Diante de um ser vivo, já não subsiste mais a

certeza de que se depara com um ser formado; cada vez mais, insinua-se a possibilidade

concreta de que se trate de algo ao menos parcialmente construído: “A natureza se torna um

departamento da empresa humana, e nós descobrimos que ela jamais fora autônoma. A

distinção entre o natural e o cultural é revelada como a construção cultural que sempre

havia sido”,86 constata Marilyn STRATHERN (1992, p. 55). Para Ulrich BECK (1997, p.

8), é o “ambiente” (doravante com aspas) que “... na verdade não se encontra mais alheio à

vida social humana, mas é completamente penetrado e reordenado por ela. Se houve um dia

em que os seres humanos souberam o que era a ‘natureza’, agora não o sabem mais.”

Já da perspectiva de Bruno Latour, a emergência dessas quimeras representa uma

proliferação inaudita, sim, mas não de figuras inéditas do que ele chama de híbridos, os

não-humanos que participam como atores das redes ativas que os humanos estabelecem

85 Como se depreende de uma rápida enumeração de alguns autores que lhe dedicaram atenção: no Brasil, SANTOS (1998) e RIBEIRO (2003); fora dele, LATOUR (1994), RABINOW (1992), HARAWAY (1997), STRATHERN (1992), FRANKLIN (2000), BECK (1997), MARTINS (1996), HABERMAS (2001), FUKUYAMA (2002) e ZIZEK (2003) –entre outros. 86 “Nature becomes a department of human enterprise, and we discover that it was never autonomous. The distinction between the natural and the cultural is revealed for the cultural construction it always was.” De certo modo, é o espanto diante dessa descoberta (ou premonição) que alimentou a literatura de ficção de um Phillip K. Dick e o ensaísmo pós-feminista e ciborguiano de Donna HARAWAY (1997).

69

com a “natureza”, com a “realidade objetiva”, sobretudo a partir do laboratório.87 As

biotecnologias, para ele, são somente mais uma entre as muitas zonas ativas, ou

“barafundas” (LATOUR, 2001, p. 33), em que se explicita a conexão social com o que a

epistemologia tradicional teima em segregar como “natureza”: neuropsicologia,

primatologia, genômica etc. Esses hibridismos desconcertantes são o objeto por excelência

da sua vertente dos estudos científicos, dedicada a evidenciar a continuidade entre o que

epistemólogos e sociólogos prefeririam manter segregado: “Multiplicam-se os artigos

híbridos que delineiam tramas de ciência, política, economia, direito, religião, técnica,

ficção. Se a leitura do jornal diário é a reza do homem moderno, quão estranho é o homem

que hoje reza lendo estes assuntos confusos. Toda a cultura e toda a natureza são

diariamente reviradas aí”. (LATOUR, 1994, p. 8)

2.8 Culturalização vs. naturalização

Paradoxalmente, no momento mesmo em que vivem seu auge – com a finalização

do seqüenciamento do genoma humano e o desenvolvimento protótipo de clones de

mamíferos – as biotecnologias vêem instaurar-se uma crise no seio da atitude investigativa

que sempre esteve na base de seu bem-sucedido projeto de hegemonia entre as ciências

experimentais, atitude essa que se poderia resumir como naturalização. Por um lado, nunca

parece ter obtido tanta penetração na esfera pública, ao menos de países ocidentais, a noção

de que a ciência natural se encontra cada vez mais perto de explicar comportamentos

individuais e coletivos por intermédio de regularidades biológicas. Por outro, torna-se mais

e mais patente, ao menos para os poucos que se dão ao trabalho de refletir sobre a noção,

que a elucidação de tais mecanismos88 ao mesmo tempo solapa a fundamentação da cultura

a partir da natureza, na medida em que a marcha da tecnociência torna o contexto da

descoberta e da explicação inextricável do contexto da intervenção e da manipulação. Eis o

que se pode chamar de paradoxo do determinismo: como tomar por fundamento dos

87 “... esta cozinha repugnante onde os conceitos são refogados com ninharias” (LATOUR, 1994, p. 27). 88 Que fique de lado, por ora, a dúvida muito pertinente sobre sua real capacidade de explicar cabalmente quaisquer comportamentos.

70

comportamentos que compõem a cultura justamente aquilo (a natureza) que uma parte da

própria cultura (a tecnologia) já franqueou para suas maquinações?

O paradoxo assinalado não impede, porém, que a naturalização (ou determinismo

biológico) preserve e até aprofunde suas raízes, sobretudo depois de cooptada para integrar

os circuitos de reprodução do capitalismo. Quem talvez tenha formulado melhor essa perda

de condição de referência (vida natural) concomitante com o ganho de disponibilidade

técnica (vida reprogramável) foi Sarah Franklin, com seu conceito de Vida Própria (Life

Itself): 89

... a natureza se torna biologia, que se torna genética, por meio da qual a própria vida se torna informação reprogramável. [...] A transformação da própria vida no século XX teve a conseqüência de que a função basilar ou fundacional da natureza como um limite ou força em si mesma se tornou problemática e perdeu seu valor axiomático, a priori, como um referente ou uma autoridade, tornando-se um horizonte fugidio. A natureza, podemos dizer, foi des-tradicionalizada. [...] Isso não significa que seja menos útil, como já argumentamos, mas a natureza entrou em parafuso. No lugar antes ocupado por “fatos naturais” há um novo quadro de referência, um rebento da era genômica, que é a própria vida – agora órfã da história natural, mas cheia de promessa deslumbrante.90 (FRANKLIN, 2000, p. 190-191)

Convém reforçar aqui a idéia avançada por Strathern, entre outros: o que se esboroa

após a genômica e a avalanche de biotecnologias não é a “natureza exterior” ela mesma,

mas toda uma tradição epistemológica “purificadora” (LATOUR, 1994) que dependia de

mantê-la à distância, segregada de tudo que seja social e cultural. Sua construção central era

a noção de natureza humana, que poderia ser inferida, segundo os deterministas, da leitura

de comportamentos em princípio individuais (mas cujo agregado resultaria em

comportamento social) e explicada com base apenas nos invariantes fixados nos genes e

nos circuitos cerebrais pela seleção natural.

Diante da eficácia heurística e simbólica desse procedimento, pode-se talvez

diagnosticar que um certo mal-estar das ciências sociais, uma espécie de percepção de

89 Um aspecto interessante a explorar, noutro momento, seriam os pontos de contato entre essa concepção histórico-tecnológica de Franklin e a análise mais ético-política do conceito de vida nua por Giorgio Agamben em Homo sacer. 90 “... nature becomes biology becomes genetics, through which life itself becomes reprogrammable information. [...] The twentieth-century transformation of life itself has had the consequence that the grounding or foundational function of nature as a limit or force in itself has become problematic and lost its axiomatic, a priori value as a referent or authority, becoming instead a receding horizon. Nature, we might say, has been de-traditionalised. [...] That does not mean it is less useful, as we have already argued, but

71

inferioridade epistemológica diante das ciências naturais, decorreria de sua dificuldade em

fixar, demonstrar e expor teoricamente um mínimo de autonomia para as ações humanas no

plano social, sem o qual esse saber perderia a própria razão de ser. Segundo VIVEIROS DE

CASTRO (2002, p. 303), três grandes paradigmas (Spencer, Durkheim e Boas) concorrem

na tentativa de solucionar o dilema teórico das ciências humanas; seria o caso de

acrescentar à sua análise que a simples competição entre paradigmas talvez seja sintoma da

dificuldade de resolver suas antinomias centrais, Natureza vs. Cultura e Indivíduo vs.

Sociedade:

Ambas conotam o mesmo dilema teórico, o de decidir se as relações entre os termos opostos são de continuidade (solução reducionista) ou de descontinuidade (solução autonomista ou emergente). A cultura é um prolongamento da natureza humana, exaustivamente analisável em termos de biologia da espécie, ou ela é uma ordem suprabiológica que ultrapassa dialeticamente seu substrato orgânico? A sociedade é a soma das interações e representações dos indivíduos que a compõem, ou ela é sua condição supraindividual, e como tal um “nível” específico da realidade? (VIVEIROS DE CASTRO, 2002, p. 302)

Compreende-se, com base nessa dificuldade imanente às ciências sociais, o sucesso

relativo obtido pelas críticas dos psicólogos evolucionistas ao SSSM (standard social

science model). As ciências sociais são por assim dizer vítimas da própria dicotomia que

corroboram, Natureza vs. Cultura; necessitam dela para delimitar e instituir o próprio

campo, mas esse fosso as impede ao mesmo tempo de ancorá-lo no substrato em que se

ancora tradicionalmente a “realidade objetiva”, tornando-a vulnerável às investidas

cientificistas. Com efeito, como postulou Bruno Latour, dicotomias como Natureza vs.

Cultura são conceitos eminentemente polêmicos, armas de “ressentimento e vingança”

(LATOUR, 2001, p. 337) na imposição de um domínio (natureza) e de uma atividade

(ciência) como fundamentos esclarecedores da política, configurando um método de

classificação para separar o moderno do tradicional (LATOUR, 1994, p.70-71), para

distinguir o que pertenceria ao passado (crença, ou a confusão entre coisas e homens) do

que aponta para o futuro (conhecimento, ou a capacidade de discriminar objetos e sujeitos).

Assim, as ciências sociais vêem voltar-se contra elas – pelas mãos da psicologia

evolucionista – a pecha que muitas vezes dirigiram contra seus “objetos”, outras culturas e

nature is in a spin. In the place formerly occupied by ‘natural facts’ is a new frame of reference, an offspring

72

sociedades: uma incapacidade autóctone de elevar-se acima do domínio das crenças, até o

plano do conhecimento objetivo.91

2.9 Racionalismo, autonomismo e ansiedade ética

Não é de estranhar, assim, que a conjunção de crises em torno da fronteira entre

natureza e cultura conduza a uma espécie de ansiedade ética. Todo e qualquer pensador de

inspiração racionalista começa a inquietar-se com a perspectiva de não mais poder contar

com tipo algum de fundamentação para um conjunto mínimo de princípios e regras de

cunho universalista. Ninguém mais do que Jürgen Habermas personifica cabalmente essa

descoberta repentina e dolorosa da porosidade da natureza como contraparte da vida social,

sobretudo da fragilidade da natureza humana diante das investidas da tecnologia – ainda

que ele entenda essa natureza não como um repositório de inclinações pré-formadas, mas

(pós-kantianamente) como um tipo de condição de possibilidade da igualdade inter-

subjetiva. Engajando-se inicialmente numa polêmica pública, pelos jornais, acerca da

permissibilidade da clonagem e da manipulação genética antes do nascimento,92 as quais

ameaçariam a indeterminação igualitária com que todos os seres humanos adentram a

esfera social, o filósofo social alemão herdeiro da tradição frankfurtiana dedica ao tema um

livro sintomaticamente intitulado Die Zukunft der menschlichen Natur ([O futuro da

natureza humana] HABERMAS, 2001).

Habermas está preocupado com o efeito das biotecnologias no homem sob o ponto

de vista ético, ou seja, da auto-representação da espécie como composta por sujeitos morais

e, assim, das condições de possibilidade das relações sociais (relações entre pessoas, e não

entre coisas). Ele parte da constatação de que a aceleração da mudança social diminuiu

of the genomic era, which is life itself –now orphaned from natural history but full of dazzling promise.” 91 LATOUR (2001) denuncia como intolerante a atitude iconoclasta da crítica moderna: “... os modernos e os pós-modernistas [...] acreditam na crença. Acreditam que as pessoas acreditam ingenuamente” (p. 315); “... os que não se entusiasmam pela modernidade são acusados de possuir unicamente uma cultura e crenças, mas não conhecimentos a respeito do mundo”. O tema é retomado por VIVEIROS DE CASTRO (2002), apoiando-se precisamente em Latour: “Sempre que ouço um pronunciamento sobre as causas –sob este ou outro nome, e sejam elas de que natureza forem– do comportamento de alguém, em especial de um ‘nativo’, sinto como se estivessem a lhe tentar bater epistemologicamente a carteira” (p. 17). 92 Seus artigos de intervenção no debate sobre a clonagem reprodutiva humana podem ser encontrados no volume La constelación posnacional (Barcelona: Paidós, 2000), p. 207-217.

73

progressivamente o prazo de validade dos sistemas éticos, ou seja, da capacidade da

filosofia de dar respostas generalizantes às perguntas pelo que caracteriza a vida “boa”, a

vida digna de ser vivida. Com isso, essas respostas cada vez mais se restringem à esfera da

identidade pessoal, sem validade intersubjetiva.

Tal estado de coisas se junta às possibilidades (ou promessas) de modificação do

genoma humano, resultando num abalo profundo desse autoconceito moral da espécie. Um

de seus pressupostos é a distinção categorial entre o que é formado (pela natureza) e o que é

fabricado (pelo homem), e é ela que se desfaz quando se impõe a perspectiva de modificar

o genoma. Na medida em que a disposição genética de todas as pessoas que já viveram foi

fruto do acaso, essa indeterminação se integra na própria entrada de todos os homens na

vida em sociedade como uma condição inerente à sua igualdade e à sua liberdade. É a partir

desse substrato absolutamente peculiar, único e ao mesmo tempo tão aleatório quanto o de

qualquer outro homem, que cada sujeito se constituirá como autor de sua própria biografia.

Há um parentesco dessa noção com a de “natalidade” tal como formulada por Hannah

Arendt, afirma Habermas:

Os homens se sentem livres para iniciar algo de novo em suas ações porque o próprio nascimento, como divisor de águas entre Natureza e Cultura, marca um novo começo. Entendo essa indicação no sentido de que o nascimento põe em marcha uma diferenciação entre o destino socializante de uma pessoa e o destino natural de um organismo. Apenas a referência a essa diferença entre Natureza e Cultura, entre inícios intocáveis e a plasticidade de práticas históricas, permite àquele que age o autoposicionamento performativo sem o qual ele mesmo deixa de poder conceber-se como o iniciador das próprias ações e anseios.93 (HABERMAS, 2001, p. 102-103)

No entanto, quando passa a ser determinado total ou parcialmente por outrem,

rompe-se essa condição de igualdade e surge uma assimetria inédita, anterior ao próprio

nascimento e, com isso, impossível de ser problematizada na esfera da comunicação.

Esfuma-se a fronteira entre coisa e pessoa e, com ela, o fundamento da possibilidade de

93 “Die Menschen fühlen sich im Handeln frei, etwas Neues zu beginnen, weil schon die Geburt, als Wasserscheide zwischen Natur und Kultur, einen Neubeginn markiert. Ich verstehe diese Andeutung so, dass mit der Geburt eine Differenzierung einsetzt zwischen dem Sozialisationsschicksal einer Person und dem Naturschicksal ihres Organismus. Allein die Bezugnahme auf diese Differenz zwischen Natur und Kultur, zwischen unverfügbaren Anfängen und der Plastizität geschichtlicher Praktiken erlaubt dem Handelnden die performativen Selbstzuschreibungen, ohne die er sich selbst nicht als Initiator seiner Handlungen und Ansprüche verstehen könnte.”

74

reconhecimento: “Até agora encontravam-se em interações sociais somente pessoas

nascidas, e não fabricadas” (HABERMAS, 2001, p. 112).94

Dito de outro modo, a experiência do próprio corpo como algo de incondicionado é

a condição da liberdade, como continuação autônoma do orgânico, a partir de algo

naturalmente indisponível para a técnica. A intervenção biotecnológica, por outro lado, não

se confunde com a clínica, pois o médico tem de manter-se nos limites discursivos da

justificação do tratamento ministrado – mas é precisamente essa distinção que se perde na

crescente assimilação da clínica à técnica, assim como na determinação das características

genéticas de um ser humano segundo as preferências pessoais de outro ser humano. Pouco

importa, aqui, se esse poder é real e amplo, como supõe o determinismo genético, ou mera

fantasia de mercado – em ambos os casos, já foi transposta a fronteira entre o que deve

estar e o que não deve estar disponível, no humano, para a manipulação técnica.

Por fim, Habermas argumenta que essa recusa da manipulação genética é um ato de

vontade e de resistência, e não uma defesa da ressacralização ou do reencantamento do

mundo – essa seria a perspectiva igualmente alarmada assumida por um teórico

conservador como Francis FUKUYAMA (2002) –, mas de um passo na direção de a

modernidade tornar-se reflexiva, de esclarecer-se sobre as suas próprias fronteiras. Trata-se

de uma questão normativa (o que deve permanecer indisponível) e não ontológica (o que

deve ser preservado como dignidade inerente, ou natureza humana).

A posição de Habermas comporta algumas dificuldades, e não apenas por esse

parentesco incômodo com o pensamento conservador em pânico com a erosão de valores

pela manipulação da natureza humana. Slavoj Zizek, por exemplo, não hesita em condená-

lo e a Fukuyama como encarnações de filósofos de Estado, que se auto-atribuem a

clarividência necessária para prescrever limites que não devem ser transpostos pelo

pensamento:

O ponto-chave aqui é que não há retorno para a imediatidade ingênua anterior: a partir do momento em que sabemos que nossas disposições naturais dependem da contingência genética cega, toda adesão teimosa a essas disposições é tão falsa quanto a adesão aos velhos costumes “orgânicos” num universo moderno. Desse modo, basicamente o que Habermas está dizendo é: embora saibamos que nossas disposições dependem da contingência genética desprovida de sentido, vamos fingir e agir como se não fosse esse o caso, de modo que possamos manter nosso senso de dignidade e autonomia. O paradoxo

94 “Bisher begegneten sich in sozialen Interaktionen nur geborene, nicht gemachte Personen.”

75

aqui é que a autonomia só pode ser mantida pela proibição do acesso à contingência natural cega que nos determina, isto é, no final, pela limitação de nossa autonomia e de nossa liberdade de intervenção científica.95 (ZIZEK, 2003. p. 126)

[A] lógica de Habermas é esta: como os resultados da ciência representam uma ameaça à nossa (noção predominante de) autonomia e liberdade, deve-se restringir a ciência. O preço que pagamos por essa solução é a cisão fetichista entre ciência e ética [...]. Isso nos impede de enfrentar a verdadeira questão: como essas novas condições nos compelem a transformar e reinventar as próprias noções de liberdade, de autonomia e de responsabilidade ética?96 (ZIZEK, 2003, p. 126)

2.10 Atitude etnográfica como alternativa ao racionalismo

De certa maneira, a busca da resposta à pergunta lançada por Zizek já vem sendo

posta em prática de uma perspectiva que Paul RABINOW (1992), no célebre ensaio já

mencionado, recomendou que fosse a de uma atitude etnográfica diante das biotecnologias

e da genômica. Ao mesmo tempo mais modesta e mais ambiciosa que o racionalismo

desesperançado de Habermas, ela deveria renunciar a buscar fundamentos transcendentais

para a gênese (Bildung) das identidades morais, em favor de um inventário e da descrição

das práticas reformuladas ou induzidas pela tecnociência biológica, aquilo que Rabinow

designou como biossocialidade. Não é por acaso, assim, que vários dos autores referidos

mais atrás como atentos para as questões suscitadas pelas biotecnologias têm sua origem ou

suas simpatias teóricas no campo da antropologia; ao contrário, essa convergência denota

que, no momento mesmo em que referenciais e métodos tradicionais de fundamentação se

abalam ou dissolvem, e em que a cultura em processo de globalização experimenta o

máximo estranhamento de si mesma, nada aparece como mais útil do que uma tradição

investigativa versada no desafio de compreender outras culturas.

95 “The key point here is that there is no return to the preceding naive immediacy: once we know that our natural dispositions depend on blind genetic contingency, every stubborn sticking to these dispositions is as fake as sticking to old ‘organic’ mores in a modern universe. So, basically, what Habermas is saying is: although we now know that our dispositions depend on meaningless genetic contingency, let us pretend and act as if this is not the case, so that we can maintain our sense of dignity and autonomy. The paradox is here that autonomy can only be maintained by prohibiting access to the blind natural contingency that determines us, that is, ultimately, by limiting our autonomy and freedom of scientific intervention.” 96 “Habermas's logic is here: since the results of science pose a threat to our (predominant notion of) autonomy and freedom, one should curtail science. The price we pay for this solution is the fetishist split between science and ethics [...]. This prevents us from confronting the true question: how do these new

76

RABINOW (1992) e FRANKLIN (2000), por exemplo, preconizam reconstituir as

novas redes de circulação de termos de identidade, uma vez que o processo de

desnaturalização põe em questão laços sociais fundamentais baseados em categorias de

identidade profundamente enraizadas no biológico (FRANKLIN, 2000, p. 215), agora que

se estabeleceu um tipo de isomorfismo entre natureza e cultura, ou seja, em que as posições

tradicionais se invertem e a segunda passa a servir de modelo para a primeira (p. 195).

STRATHERN dá um passo a mais e se interroga sobre o significado cultural da resistência

ao determinismo genético e da insistência correlata na escolha, um traço

caracteristicamente ocidental e moderno que indivíduos de outras culturas considerariam

intrigante: “... na medida em que a escolha, nessa matéria, também é considerada desejável,

não é sempre que alguém pode querer suas origens predeterminadas. Ao contrário, quando

o pressuposto é em favor da variabilidade e de manter aberta uma gama de possibilidades, a

antecipação pode ser mutilante” (STRATHERN, 1992, p. 171).97 Para ZIZEK (2003), esse

apego à escolha e à autonomia é pura e simplesmente fruto do narcisismo, que prejudica a

percepção dos limites do racionalismo.

Para tentar libertar o conhecimento do solipsismo racionalista do sujeito em seu

isolamento do objeto, a investigação social – na perspectiva desse grupo informal de

autores de inspiração etnográfica – precisaria deslocar seu centro de gravidade para o

terreno das relações. Segundo VIVEIROS DE CASTRO, a antropologia contemporânea

ensina a recusar as concepções essencialistas ou teleológicas da sociedade: “À sociedade

como ordem (instintiva ou institucional) dotada de uma objetividade de coisa, preferem-se

noções como socialidade, que exprimiriam melhor o processo intersubjetivamente

constituído da vida social” (2002, p. 313).

No que respeita ao entendimento da difusão corrosiva da tecnociência biológica

pelo tecido social, essa perspectiva oferece a considerável vantagem de não estigmatizar a

prática científica enquanto tal, que afinal nunca deixou de ser uma atividade humana. É

possível e mesmo obrigatório explicitar o quanto dessa prática é mobilizada para e pela

reprodução do capital, algo que está ausente por exemplo do alarmismo ético conservador

conditions compel us to transform and reinvent the very notions of freedom, autonomy, and ethical

responsibility?” 97 “... insofar as choice in the matter is also desirable, one does not always want one’s origins predetermined. On the contrary, where the presumption is in favour of variability and keeping a range of possibilities open, anticipation could be disabling.”

77

de um Francis Fukuyama e do reducionismo neo-sociobiológico dos psicólogos

evolucionistas à Steven Pinker. Ao insistir na apreciação das relações concretas que se

estabelecem entre os homens, inclusive e sobretudo na esfera pública (como no caso da

polêmica sobre clonagem, talvez a primeira de caráter realmente global), a atitude

etnográfica preconizada por Rabinow e Latour permite apreender tanto a ressurreição do

determinismo biológico quanto a reação a ele como as duas faces de um mesmo complexo,

que equilibra precariamente naturalismo e racionalismo sobre a velha dicotomia entre

Natureza e Cultura. O primeiro não encontra respostas para o enigma da autonomia, que ou

fica soterrada sob o peso do mecanismo e da causa eficiente, ou é pranteada como vítima da

expansão irrefletida das biotecnologias; o segundo a hipostasia como um absoluto e perde

de vista as limitações do autonomismo e o caráter fantasmagórico do sujeito racional

explicitado com a contingência genética (ZIZEK, 2003); ambos são cegos para o novo, para

a capacidade preservada da pesquisa científica de ampliar o repertório das ações

(LATOUR, 1994, p. 297), de responder a um “clamor cultural” para vencer barreiras e

transpor limites históricos, entrando em ressonância com necessidades e desejos humanos

(RIBEIRO, 2003), estejam eles em contradição ou não com os movimentos do capital.

Em resumo, essa perspectiva etnográfica98 oferece a oportunidade de dissecar a

pesquisa e ao mesmo tempo vacinar-se tanto contra o anticientismo herdado da teoria

crítica quanto contra o determinismo tecnológico que enxerga a manufatura da história

transferida das mãos dos homens para as engrenagens dos sistemas tecnológicos.

2.11 Não-modernismo e modernização reflexiva

Ora, o aprofundamento e a continuação do projeto iluminista constituem também o

fundamental do programa teórico de HABERMAS (2000) e, num retorno à perspectiva

crítica revitalizada pela questão ambiental-natural, da modernização reflexiva de BECK

98 Ou multiversal, “um ponto de vista capaz de gerar e desenvolver a diferença”, como propõe VIVEIROS DE CASTRO (2002, p. 316). É o ensinamento que as ciências sociais podem e devem extrair das cosmologias ameríndias: o reconhecimento de visões de mundo diversas e mesmo incompatíveis entre si e com a ocidental, todas, como formas de conhecimento que antes de mais nada convidam a refletir sobre os próprios pressupostos e valores, e não, pejorativamente, como crenças ou ideologias que cabe aniquilar com a mão forte da Razão ou da Verdade Histórica.

78

(1997). No final das contas, em que pesem as diferenças entre o ponto de vista aqui descrito

como etnográfico sobre a marcha das biotecnologias e o da reação racionalista à mesma,

ambos parecem confluir na recusa de uma atitude inconseqüente como a que identificam no

pós-modernismo, cujo diagnóstico – correto – sobre a crise das grandes narrativas é

equivocadamente transformado num prognóstico sobre a inutilidade da ação, tendo em vista

a impossibilidade de ancorá-la em referenciais universais. Para usar uma expressão que dá

título a uma obra de BECK (1996a), todos se opõem aos pós-modernos na proposta de uma

reinvenção da política, na imaginação de subpolíticas ou biopolíticas que se contentem

com éticas provisórias (ZIZEK, 2003) e fins histórico-contingenciais – como a luta para

desvencilhar a tecnobiologia e a pesquisa científica em geral de um aprisionamento no

circuito do controle e da acumulação capitalista, cuja lógica pode e vai entrar em

dissonância com necessidades e desejos propriamente humanos.

Desse modo, as divergências entre as duas perspectivas não parecem ser assim tão

amplas, e seriam explicáveis em alguma medida por uma divergência de estilos e

vocabulário. O que BECK (1996b) enxerga como proliferação de riscos e um conflito

distributivo de males (por oposição a bens), ou seja, a multiplicação de efeitos não-

pretendidos de tecnologização do mundo e da vida, não está muito distante da proliferação

desenfreada de quase-objetos e híbridos diagnosticada por LATOUR (1994, p. 16-17). É

fato que este identifica no que chama de constituição moderna a raiz e a precondição dessa

proliferação, enquanto aquele as localiza na realização imperfeita dessa modernidade, mas

o remédio prescrito por ambos é similar – comedimento: “É nesta desaceleração, nesta

moderação, nesta regulamentação que buscamos nossa moralidade. A quarta garantia,

talvez a mais importante, é a de substituir a louca proliferação dos híbridos por uma

produção regulamentada e consensual dos mesmos”, recomenda LATOUR (1994, p. 140).

Como Beck, ele quer refundar a política, o que implica problematizar tanto a dicotomia

Natureza vs. Cultura quanto seus corolários excludentes na explicação da ação humana,

naturalização e transcendentalismo: “Metade de nossa política é feita nas ciências e nas

técnicas. A outra metade da natureza se faz nas sociedades. Se reunirmos as duas, a política

renasce.” (LATOUR, 1994, p. 142)

Uma das características fundamentais dessa nova disposição política é a crítica da

tecnociência, ou, como diz SANTOS (2003), a urgência de “politizar as novas tecnologias”.

79

É preciso examinar suas práticas com minúcia etnográfica, mesmo, tanto no interior do

campo quanto naquelas ações que extravasam para o meio social, alcançando a esfera

pública. Dada a centralidade do projeto genômico no processo de hegemonização das

biotecnologias, e diante do fato de que a prática social científica por excelência é a

publicação, os capítulos seguintes rastrearão em periódicos científicos e na literatura

associada as figuras principais em torno das quais se articula essa hegemonia, de modo a

revelar que seus pilares são as noções de determinismo, genocentrismo e informação.

80

81

CAPÍTULO 3

Ecos do determinismo no Genoma Humano

3.1 Genoma Humano, anticlímax da biotecnologia

Se a promessa de revolução econômica, médica e social da biotecnologia tivesse de

ser simbolizada por um único evento tecnocientífico, esse seria sem dúvida o

seqüenciamento (soletração) do genoma humano, ou seja, a compilação dos mais de 3

bilhões de permutações bioquímicas entre bases nitrogenadas de quatro tipos (adenina, A;

timina, T; citosina, C; e guanina, G) enfileiradas nos 23 pares de cromossomos da espécie

Homo sapiens. Na realidade, essa façanha mais tecnológica do que científica se desdobrou,

sintomaticamente, em três eventos de enorme repercussão mundial: uma cerimônia na Casa

Branca (Washington, D.C.) em 26 de junho de 2000; a publicação de edições especiais dos

periódicos científicos Nature e Science em 15 e 16 de fevereiro de 2001 contendo,

respectivamente, os artigos acadêmicos sobre as chamadas seqüências-rascunho do genoma

humano produzidas pela iniciativa pública Projeto Genoma Humano (PGH) e pela empresa

privada Celera Genomics; e 14 de abril de 2003, quando a seqüência do PGH deixou de ser

rascunho para alcançar a acuidade de 99,9% anteposta como meta e quando os chefes de

governo dos seis países envolvidos no Projeto – Estados Unidos, Reino Unido, França,

Alemanha, China e Japão – divulgaram um comunicado conjunto em que afirmavam que se

tratava de “uma plataforma fundamental para o entendimento de nós mesmos”.99

O mês desse último evento não fora escolhido por acaso. Apenas 11 dias depois do

comunicado multinacional se comemorariam os 50 anos da publicação no mesmo periódico

Nature do hoje célebre artigo100 de pouco mais de uma página que registrou a descoberta da

estrutura em dupla hélice da molécula de DNA, ácido desoxirribonucléico, pelo norte-

americano James Watson e pelo britânico Francis Crick. Os próceres do PGH

estabeleceram conscientemente um nexo genealógico com aquele que é tido como o

momento inaugural da biologia molecular, cujo ápice seria o seqüenciamento do genoma

humano. Mas a obtenção dos 99,9% de acuidade na soletração das longuíssimas cadeias de

99 Folha de S.Paulo, 15.abr.2003, p. A12. 100

WATSON, James D.; CRICK, Francis H.C. 1953. A structure for deoxyribose nucleic acid.

82

DNA contidas nos cromossomos acabaria ocasionando repercussão discreta na imprensa

mundial, e não só porque a verdadeira finalização do genoma havia sido precedida por dois

outros eventos mais midiáticos, em 2000 e 2001, mas também porque as limitações dessa

forma de pesquisa biológica por atacado já começavam a se tornar aparentes, como se verá

mais adiante.

A cerimônia de junho de 2000, por outro lado, em que pese a participação do

presidente norte-americano Bill Clinton e do primeiro-ministro britânico Tony Blair, havia

sido um tanto prematura, pois nem mesmo o qualificativo de “rascunho” era merecido pelas

seqüências genômicas do PGH e da Celera naquela altura; na realidade, celebrava-se mais a

obtenção de um acordo político precário entre os dois grupos concorrentes, PGH e Celera,

representados na ocasião por seus respectivos líderes, Francis Collins e Craig Venter. Em

jogo estavam não apenas primazia e prestígio científicos, mas direitos de acesso e talvez de

propriedade sobre o que Bill Clinton chamou hiperbolicamente de “linguagem em que Deus

criou a vida” (WATSON e BERRY, 2003, p. xiii). Em particular da parte da iniciativa

pública, havia o temor de que uma publicação precoce da seqüência pela Celera desse à

empresa privada direitos mais amplos, que tornariam inúteis os 12 anos e os mais de US$ 2

bilhões de verbas majoritariamente públicas que o PGH já havia investido na empreitada,

àquela altura.

O evento verdadeiramente científico que apresentou aos públicos acadêmico e leigo

a seqüência do genoma humano foi, assim, representado pela publicação dos trabalhos em

fevereiro de 2001 – como de resto tem sido a praxe na pesquisa em ciência natural, na qual

não basta produzir dados e interpretações, pois é do ritual de legitimação que sejam

submetidos à revisão por pares promovida por periódicos como Nature e Science. Nessas

edições especiais das duas mais lidas publicações científicas do mundo estavam os

portentosos artigos com as descrições dos principais achados e surpresas do genoma

humano, assim como dezenas de outros trabalhos e reportagens discutindo aspectos

técnicos, culturais e até políticos do genoma. Elas representam uma oportunidade única

para tirar o pulso da nascente disciplina genômica, no momento mesmo em que ela dá por

consolidada a própria hegemonia, e por essa razão ocupam o centro de gravidade deste

capítulo. Seu objetivo principal é verificar quão fortemente ainda ecoa, nos trabalhos que

Nature. v. 171, n. 4356, p. 737-738, 25.abr.1953.

83

reúne, o determinismo genético101 que ajudou o PGH a nascer e a obter dos governos e de

instituições sem fins lucrativos daqueles seis países os 3 bilhões necessários para engajar

milhares de cientistas e técnicos no maior programa de pesquisa biológica coordenada de

todos os tempos. Afinal, tratava-se de descobrir, com a soletração do genoma, “o que é ser

humano” (ROBERTS, 2001, p. 1185) e de alcançar o “Santo Graal da biologia” (JUDSON,

1996, p. 604), nas palavras de James Watson e Walter Gilbert, respectivamente, na década

de 1980, quando o PGH ainda era uma idéia em busca de patrocinadores.

Seqüenciar um genoma como o da espécie humana, que abriga em cada célula de

cada indivíduo dois conjuntos da série de mais de 3 bilhões de permutações em que se

ocultam os genes, não é uma tarefa trivial. A identificação da base nitrogenada (A, T, C ou

G) em cada uma das posições depende de inúmeras reações químicas cujos resultados

precisam ser monitorados e recenseados com alto grau de confiabilidade. Quando a idéia de

submeter o genoma humano inteiro a esse processo foi aventada pela primeira vez, por

Robert Sinsheimer (KEVLES e HOOD, 1993, p. 18; WATSON e BERRY, 2003, p. 167) e

por Renato Dulbecco (DULBECCO, 1997, p. 90; WATSON, 2000, p. 171), os meios

técnicos disponíveis permitiam identificar no máximo mil bases por dia; na época da

conclusão do seqüenciamento, o PGH já tinha capacidade instalada para processar essa

quantidade em um segundo, embora o princípio de discriminação das bases nitrogenadas

fosse o mesmo.102 Tamanha aceleração foi fruto de investimentos maciços em tecnologia,

que culminaram com o lançamento de seqüenciadores automáticos em que as bases

etiquetadas com marcadores fluorescentes (uma cor para cada um dos quatro tipos de base)

são sucessivamente identificadas por laser enquanto percorrem dezenas de tubos capilares

paralelos.

Antes de proceder ao seqüenciamento em massa do genoma, a metodologia adotada

pelo PGH previa que cada um dos cromossomos fosse mapeado por meio de técnicas mais

tradicionais de análise genética, pontilhando-os de seqüências-marcadoras facilmente

identificáveis, que serviriam posteriormente para orientar a remontagem do genoma como

101 Por ora servirá a definição de determinismo oferecida por ninguém menos que Craig Venter e colaboradores no trabalho sobre a seqüência do genoma humano: “a idéia de que todas as características da pessoa são ‘impressas’ [hard-wired] pelo genoma” (VENTER et al., 2001, p. 1348). 102 Etiquetação das bases finais de seqüências curtas, mas de extensão variável, com marcadores radiativos ou fluorescentes; e a subseqüente separação dessas cadeias de DNA etiquetado por tamanho, conforme sua velocidade de percurso num meio gelatinoso submetido a corrente elétrica.

84

um todo.103 A iniciativa pública seguia metódica e lentamente seu plano de concluir o

trabalho apenas em 2005 quando, em 1998, o pesquisador e inventor Craig Venter anunciou

que tentaria seqüenciar o genoma humano no prazo de três anos, empregando um método

que saltava a etapa do mapeamento e só havia sido testado, até então, com genomas de

microrganismos, várias ordens de grandeza menores e mais simples que os de mamíferos.

A técnica, chamada de “whole-genome shotgun”, consiste em estilhaçar todos os 23

cromossomos de uma só vez, seqüenciar os milhões e milhões de pedaços e depois

remontar por computador (in silico, como se diz) a seqüência toda, cromossomo por

cromossomo, com base unicamente no alinhamento e superposição das cadeias soletradas.

Venter obteve apoio e capital da empresa de suprimentos e equipamentos Perkin

Elmer, com quem formou a joint-venture Celera Genomics, que se lançou em 8 de

setembro de 1999 na tarefa de seqüenciamento do genoma estilhaçado, concluído em 17 de

junho de 2000, restando por fazer a parte mais difícil, que era recompor a seqüência dos

cromossomos propriamente ditos. O PGH, que havia iniciado no princípio dos anos 1990 o

seqüenciamento de pequena escala, em paralelo com o mapeamento do genoma, acelerara

os trabalhos de soletração a partir de março de 1999, seis meses antes da Celera, em

particular nos cinco centros de alta performance que ficariam conhecidos como G-5:

Whitehead Institute (Massachusetts, EUA); Sanger Centre (Reino Unido); Genome

Sequencing Center, da Universidade de Washington (Missouri, EUA); Baylor College of

Medicine (Texas, EUA); e Joint Genome Institute (Califórnia, EUA). Ambos os esforços

seriam coroados com as edições de Nature e Science que entraram para a história da ciência

como dois dos maiores esforços editoriais para sobressair precisamente aí, na história da

ciência. Tudo, nesses dois números das revistas, era grandioso, a começar pelos números,

como se pode depreender do seguinte quadro-resumo (tabela 1):

103 O processo de seqüenciamento exige que ele seja quebrado em incontáveis cadeias de algumas centenas de milhares de bases nitrogenadas, método conhecido como “shotgun”, por analogia com as espingardas cujos cartuchos espalham inúmeros fragmentos quando percutidos.

85

Nature, vol. 409, nº 6822 Science, vol. 291, nº 5507 Total de páginas 446 290 Páginas editoriais (percentual) 169 (38%) 141 (49%) Páginas de anúncios (percentual)

277 (62%) 149 (51%)

Nº artigos sobre o genoma 39 32 Nº páginas do artigo principal 61 47 Autores do artigo principal 249 284 Centros de pesquisa de origem dos autores do artigo principal

20 14

Notas de rodapé (nº páginas) do artigo principal

452 (6) 181 (4)

Países envolvidos no seqüenciamento

6 (EUA, Reino Unido, Japão, França, Alemanha, China)

4 (EUA, Austrália, Israel,

Espanha) Nº total estimado de genes no genoma

30.000-40.000 26.000-38.000

Tabela 1: Quadro comparativo das edições sobre o genoma das revistas Nature e Science em 15 e 16 de fevereiro de 2001

Muitas negociações haviam transcorrido entre junho de 2000, após a cerimônia na Casa

Branca, e fevereiro de 2001, quando os artigos entraram no prelo, para que os grupos

concorrentes chegassem a um acordo de publicação conjunta, mas elas fracassaram

sobretudo pelas diferenças de opinião quanto ao modo de acesso aos dados gerados por

ambas as iniciativas – o PGH defendendo que as seqüências fossem postas em domínio

público, em bancos de dados de acesso livre como o GenBank, até 24 horas depois de

validadas, enquanto a Celera pretendia comercializar essa informação. Na falta de

concordância, a Celera negociou com a Science um sistema de liberação dos dados – como

é de praxe em publicações científicas – por via eletrônica apenas para aqueles

pesquisadores que assumissem compromisso formal de não utilizá-los com finalidades

comerciais; todos os outros usuários teriam de pagar para ter acesso às seqüências de DNA

humano transcritas pela Celera.

Os dois periódicos de fevereiro de 2001 também apresentavam contrastes na

apresentação do tema. Apesar da coincidência dos títulos de capa, The human genome,

evidenciavam-se nessas vitrines editoriais, já, algumas diferenças sutis que seriam

amplificadas no interior dos volumes. A Nature, além de incluir três “chamadas” (duas

delas para assuntos não-relacionados como o genoma, fissão nuclear e glaciologia), tem

86

uma aparência graficamente mais moderna, recorrendo a uma tipografia sem serifas e a

letras minúsculas no título principal, enquanto a Science faz uso de maiúsculas serifadas,

um tratamento normalmente identificado como mais clássico, ou sóbrio. Há coincidência

também na alusão ao ícone maior da biologia molecular, a dupla hélice de Watson e Crick,

apenas sugerida na revista norte-americana, em meio a semitons de sépia, e escancarada

com todas as cores na sua congênere britânica.

O uso de figuras humanas também aproxima e ao mesmo tempo diferencia as duas

capas: na Nature (ver Figura 1 abaixo), são cerca de 1.200 fotografias que compõem um

mosaico no qual se destaca a dupla hélice, um efeito produzido com auxílio do programa de

computador PhotoMosaic, da Runaway Technology Inc.; na Science (ver Figura 2 abaixo),

são apenas ilustrações realistas de seis pessoas, escolhidos com a visível intenção de

representar todo o espectro da espécie e da vida humana (três homens, duas mulheres e um

bebê sem sexo definido; um negro, uma oriental, uma talvez latina e três brancos; três

jovens, um de meia-idade, um idoso). Em ambos os casos, fica evidente a identificação

entre DNA e seres humanos (dupla hélice = espécie/espécime), como se a molécula do

ácido nucléico fosse a sua definidora, a sua essência; na capa da Nature, porém, essa

diluição do humano no molecular surge mais radicalizada, visualmente, na medida em que

indivíduos ali comparecem no horizonte de desaparição característico do suporte mosaico –

se bem que as pessoas exibidas na Science tampouco apareçam como tais, como indivíduos

reais, pois se dissolvem na função generalizante de símbolo representativo. Seres humanos

não são mais do que instâncias do genoma, parecem dizer ambas as capas, de um ou de

outro modo – o que não deixa de ser uma maneira alternativa, até mesmo criativa, de

reafirmar, por sugestão, o determinismo genético.

87

Figura 1: Capa da revista Nature em 15 de fevereiro de 2001 (v. 409, n. 6822)

88

Figura 2: Capa da revista Science em 16 de fevereiro de 2001 (v. 291, n. 5507)

89

Não se deve subestimar o alcance desse tipo de articulação – gráfica, como no que se

acabou de ver, ou da linguagem, como se verá a seguir – para a formatação dos conteúdos

da pesquisa científica e sua posterior assimilação pelo púbico leigo. Publicações como a

Nature e a Science se encontram numa posição privilegiada para influenciar a forma final

que as realizações dos cientistas assumem no imaginário social: têm periodicidade semanal,

não são ultra-especializadas como maioria dos journals, os trabalhos técnicos que veiculam

são precedidos por artigos, comentários e notícias que contextualizam e discutem os dados

e interpretações dos primeiros, e desenvolveram nas duas últimas décadas um sistema de

prestação de serviços104 para jornalistas especializados em ciência que as transformou em

duas de suas fontes preferidas de informação e em mananciais de pautas para reportagem

(ambas as publicações são também importantes formadoras de opinião na comunidade

científica internacional). Não é de estranhar, assim, que as duas edições aqui analisadas

tenham abusado das hipérboles para sublinhar o caráter histórico da publicação das

seqüências-rascunho do genoma humano; era imperioso, antes de mais nada, que os

jornalistas assim a percebessem e assim a apresentassem para o grande público. Eis (tabela

2) uma relação não-exaustiva de qualificativos e figuras empregados ao longo dos mais de

70 textos das edições (nos parênteses, as páginas em que ocorrem):105

Nature, vol. 409, nº 6822 Science, vol. 291, nº 5507 Revolução (758; 816; 832) Revolução (1224; 1249) Nova era (758; 814; 816; 823; 914) Nova era (1182; 1224; 1249; 1257) Avanço no autoconhecimento humano (813; 818)

Avanço no autoconhecimento humano (1153; 1182; 1185; 1219)

Revelação (814) Tabela periódica da vida (1224) Livro da Vida (816) Livro/Biblioteca da Vida (1153; 1178; 1251) Plano-mestre (blueprint) da espécie (822) Plano-mestre (blueprint) da espécie (1181) Tesouro de dados (828; 829; 860; 879) Vôo de Gagarin (1178); pouso na Lua (1219) Admirável Mundo Novo (758) Jóia da Coroa/ápice da biologia (1182) Façanha épica (829) Momento histórico, épico (1153) Tabela 2: Hipérboles sobre o genoma nas revistas Nature e Science de 15 e 16 de fevereiro de 2001

104 Press Nature (press.nature.com) e Eurekalert/Science (www.eurekalert.org/jrnls/sci) 105 Numa resenha para a Science, Sydney BRENNER (2001, p. 1265) apresenta a sua relação de metáforas já empregadas para o genoma: Pedra de Rosetta, Livro do Homem, Código dos Códigos, Tabela periódica, plano-mestre (blueprint), livro de receitas, arquivo digital do Plioceno africano (Richard Dawkins), Graal da genética humana (Walter Gilbert), lista de peças ou componentes, cofre de códigos secretos (Kevin Davies), e linguagem em que Deus criou o homem (Bill Clinton).

90

Não foi contudo apenas pela profusão de páginas editoriais e publicitárias que a

edição da Nature se evidenciou como fruto de um investimento ainda mais profundo nas

promessas do genoma humano. Uma simples comparação dos resumos que encimam os

artigos principais (LANDER et al., 2001; VENTER et al., 2001) revela, pelo tom de

grandiosidade e elevação moral, que o PGH tinha muito mais de seu futuro em jogo – um

futuro lastreado, para o bem e para o mal, em gastos passados de mais de US$ 2 bilhões –

do que a Celera. Eis o que afirmam os 249 autores do consórcio público nas três linhas que

abrem o texto e ocupam o lugar tradicional do abstract, neste caso convertido numa espécie

de “olho” com função mais jornalística do que acadêmica:

O genoma humano contém uma arca extraordinária de informação sobre desenvolvimento, fisiologia, medicina e evolução humanos. Relatamos aqui os resultados de uma colaboração internacional para produzir e tornar livremente acessível uma seqüência-rascunho do genoma humano. Também apresentamos uma análise inicial dos dados, descrevendo algumas das iluminações que podem ser recolhidas da seqüência. (LANDER et al., 2001, p. 860)106

Compare-se esse uso de um adjetivo – “extraordinário” – tão impreciso quanto

incomum na prosa científica, o auto-elogio implícito de generosidade (“livremente

acessível”) e o escopo totalizante (“desenvolvimento, fisiologia, medicina e evolução

humanos”) com a relativa sobriedade técnica, quantitativa e informativa das 36 linhas do

resumo – este sim um acabado abstract – no artigo escrito pelos 284 autores concorrentes

da Celera e institutos associados na Science:

Uma seqüência-consenso de 2,91 bilhões de pares de bases (bp [base pairs]) da porção eucromática do genoma humano foi gerada pelo método de seqüenciamento whole-genome shotgun. A seqüência de DNA de 14,8 bilhões de bp foi gerada ao longo de 9 meses a partir de 27.271.853 leituras de alta qualidade de seqüências (cobertura de 5,11 vezes do genoma) partindo de ambas as pontas de clones plasmídios obtidos do DNA de cinco indivíduos. Duas estratégias de montagem – uma montagem de genoma completo e uma montagem regional de cromossomos – foram usadas, cada uma combinando dados de seqüências da Celera e do esforço genômico financiado publicamente. Os dados públicos foram picados em segmentos de 550 bp para criar uma cobertura de 2,9 vezes daquelas regiões do genoma

106 “The human genome holds an extraordinary trove of information about human development, physiology, medicine and evolution. Here we report the results of an international collaboration to produce and make freely available a draft sequence of the human genome. We also present an initial analysis of the data, describing some of the insights that can be gleaned from the sequence.”

91

que haviam sido seqüenciadas, sem incluir vieses inerentes ao procedimento de clonagem e montagem usado pelo grupo financiado publicamente. Isso elevou a cobertura efetiva das montagens a oito vezes, ao reduzir o número e o tamanho das lacunas na montagem final, em relação ao que seria obtido com uma cobertura de 5,11 vezes. As duas estratégias de montagem renderam resultados muito similares que concordam grandemente com dados de mapeamento independentes. As montagens cobrem efetivamente as regiões eucromáticas dos cromossomos humanos. Mais de 90% do genoma se encontra em montagens com estruturas [scaffolds] de 100.000 bp ou mais, e 25% do genoma em estruturas de 10 milhões de bp, ou maiores que isso. A análise da seqüência do genoma revelou 26.588 transcritos codificadores de proteínas, para os quais houve fortes evidências em corroboração, e um adicional de ~12.000 genes derivados computacionalmente, por meio de coincidências com o [genoma do] camundongo ou de outras fracas evidências em apoio. Embora aglomerados densos em genes sejam óbvios, quase a metade dos genes estão dispersos por seqüências de baixo [conteúdo] G+C, separadas por longos trechos de seqüências aparentemente não-codificadoras. Apenas 1,1% do genoma é compreendido por éxons, ao passo que 24% são de íntrons, com 75% do genoma composto de DNA intergênico. Duplicações de blocos segmentais, cujo tamanho pode abarcar a extensão de um cromossomo, são abundantes por todo o genoma e revelam uma história evolutiva complexa. A análise genômica comparativa indica a expansão vertebrada de genes associados com funções neuronais, com regulação de desenvolvimento específico de tecidos e com os sistemas hemostático e imune. A comparação das seqüências de DNA entre a seqüência-consenso e os dados do genoma financiado publicamente fornecem localizações de 2,1 milhões de polimorfismos de nucleotídeo único (SNPs). Um par aleatório de genomas humanos haplóides diferiu a uma razão de 1 bp por 1.250, em média, mas houve heterogeneidade marcante no nível de polimorfismos ao longo do genoma. Menos de 1% de todos os SNPs resultaram na variação de proteínas, mas a tarefa de determinar quais SNPs têm conseqüências funcionais permanece um desafio em aberto. (VENTER et al., 2001, p. 1305)107

107 “A 2.91-billion base pair (bp) consensus sequence of the euchromatic portion of the human genome was generated by the whole-genome shotgun sequencing method. The 14.8-billion bp DNA sequence was

generated over 9 months from 27,271,853 high-quality sequence reads (5.11-fold coverage of the genome) from both ends of plasmid clones made from the DNA of five individuals. Two assembly strategies--a whole-genome assembly and a regional chromosome assembly--were used, each combining sequence data from Celera and the publicly funded genome effort. The public data were shredded into 550-bp segments to create a 2.9-fold coverage of those genome regions that had been sequenced, without including biases inherent in the cloning and assembly procedure used by the publicly funded group. This brought the effective coverage in the assemblies to eightfold, reducing the number and size of gaps in the final assembly over what would be obtained with 5.11-fold coverage. The two assembly strategies yielded very similar results that largely agree with independent mapping data. The assemblies effectively cover the euchromatic regions of the human chromosomes. More than 90% of the genome is in scaffold assemblies of 100,000 bp or more, and 25% of the genome is in scaffolds of 10 million bp or larger. Analysis of the genome sequence revealed 26,588 protein-encoding transcripts for which there was strong corroborating evidence and an additional ~12,000 computationally derived genes with mouse matches or other weak supporting evidence. Although gene-dense

clusters are obvious, almost half the genes are dispersed in low G+C sequence separated by large tracts of apparently noncoding sequence. Only 1.1% of the genome is spanned by exons, whereas 24% is in introns, with 75% of the genome being intergenic DNA. Duplications of segmental blocks, ranging in size up to chromosomal lengths, are abundant throughout the genome and reveal a complex evolutionary history. Comparative genomic analysis indicates vertebrate expansions of genes associated with neuronal function, with tissue-specific developmental regulation, and with the hemostasis and immune systems. DNA sequence comparisons between the consensus sequence and publicly funded genome data provided locations of 2.1 million single-nucleotide polymorphisms (SNPs). A random pair of human haploid genomes differed at a rate of 1 bp per 1250 on average, but there was marked heterogeneity in the level of polymorphism across the

92

Há mais, porém. O texto do PGH na Nature se abre, logo após o pseudo-resumo,

com o artifício de estabelecer uma genealogia secular de nobreza, um pedigree científico

que principia com a redescoberta das leis de Mendel na virada do século XIX para o XX,

passa pela descoberta e pela caracterização dos cromossomos, pela definição da “base

molecular da hereditariedade” (a dupla hélice de Watson e Crick) e pela decifração de sua

“base informacional” (o chamado código genético), para culminar, obviamente, no próprio

PGH: “O último quarto de século tem sido marcado por um impulso incansável de decifrar

primeiramente genes e então genomas inteiros, semeando o campo da genômica”

(LANDER et al., p. 860).108 É manifesto, em expressões como “impulso incansável”, o

empenho de justificação que perpassa esse texto híbrido, misto de artigo científico, relatório

de pesquisa e petição pela continuidade do fluxo de financiamento, embora supostamente a

tarefa estivesse concluída. Essa, de resto, parece ser a ambigüidade central do texto:

apresenta-se como a expressão editorial de um clímax na pesquisa biológica, como a

culminação de em esforço épico, em tamanho e implicação, mas ao mesmo tempo precisa

reconhecer, ou explicitar, que os dados obtidos após 12 anos e mais de US$ 2 bilhões

investidos na pesquisa não têm quase utilidade ou aplicação imediata. Em 2000/2001, pelo

menos, esse não se configurava como um problema tão agudo para o grupo capitaneado

pela Celera, que investira cerca de um décimo do tempo e do dinheiro na empreitada e

acreditava, naquela altura, estar perto de obter rendimentos régios com a venda de

informações genômicas; daí, talvez, proceda a relativa sobriedade do texto de VENTER et

al., que não precisam convencer o público internacional da importância transcendente de

sua dispendiosa aventura científica.

O PGH sempre esteve às voltas com esse tipo de discurso, hiperbólico e

propagandístico, desde o princípio. Foi por exemplo perante o Congresso norte-americano

que James Watson havia qualificado o seqüenciamento do genoma como a façanha que

permitiria descobrir “o que significa ser humano”. Watson tornou-se em 1988 o primeiro

diretor do Instituto Nacional de Pesquisa do Genoma Humano (NHGRI), criado dentro dos

genome. Less than 1% of all SNPs resulted in variation in proteins, but the task of determining which SNPs have functional consequences remains an open challenge.” 108 “The last quarter of a century has been marked by a relentless drive to dechipering first genes and then entire genomes, spawning the field of genomics.”

93

Institutos Nacionais de Saúde (NIH, órgão do governo federal norte-americano que é o

maior financiador isolado de pesquisas biomédicas nos Estados Unidos) para capitanear o

seqüenciamento do genoma humano em parceria com o Departamento de Energia (DOE,

que abraçou a idéia de soletrar todo o DNA da espécie humana como parte de um mandato

que incluía a pesquisa dos efeitos da radiação nuclear na saúde humana).109 Atuando mais

como um “diretor de marketing e primeiro vendedor”110 do PGH (LINDEE, 2003, p. 434),

o co-descobridor da dupla hélice do DNA deixou o cargo em meio a um enfrentamento

com a cúpula dos NIH por causa de pedidos de patentes para 2.758 fragmentos de genes

sem função conhecida que um pesquisador então obscuro (Craig Venter) da instituição

passou a apresentar a partir de junho de 1991 (WATSON, 2003, p. 180), dos quais Watson

discordava (uma disputa que parece estar na raiz da rivalidade que, seis anos depois, levaria

Venter e a Celera a desafiarem o PGH para a corrida genômica). Foi no entanto o sucessor

de Watson no NHGRI, Francis Collins, quem centrou a retórica pró-seqüenciamento nos

projetados benefícios da empreitada para a biomedicina: “Enquanto Watson e seus

conselheiros haviam falado de criar uma ferramenta, Collins falava de salvar vidas de

crianças. ‘A razão pela qual o público paga e fica entusiasmado – bem, genes de doenças

estão no alto da lista’, explicava. Foi a época de ouro para os caçadores de genes. (...)

Perdido no oba-oba, porém, ficou o fato de que achar um gene era algo muito diferente de

ter um tratamento, muito menos uma cura” (ROBERTS, 2001, p. 1186).111

Com efeito, a identificação de genes associados com raras síndromes genéticas

(defeitos congênitos de metabolismo) havia observado uma aceleração dramática nos anos

1990, antes mesmo do término da soletração do genoma, com base no mapeamento que

estava em curso (e a expectativa é que, com a seqüência completada em 2003, esse trabalho

se acelere ainda mais, reduzindo para meses uma pesquisa que costumava consumir anos ou

décadas). O próprio Collins, então na Universidade de Michigan, participara diretamente da

localização e transcrição do gene cujo defeito pode levar à fibrose cística, uma doença em

109 O DOE financiou cerca de 11% do PGH (WATSON e BERRY, 2003, p. 168). 110 Um dos lances visionários de Watson foi antever o debate sobre as implicações da genômica para a sociedade, em particular os ecos da eugenia, o que o levou a criar um programa preventivo de incentivo a estudos sobre aspectos éticos, legais e sociais (“ethical, legal, and social issues”, ou ELSI), destinando-lhe inicialmente 3% e depois 5% dos fundos do PGH, de início US$ 6 milhões anuais (WATSON, 2000, p. 202). 111 “Whereas Watson and his advisers had spoken of creating a tool, Collins talked about saving children’s lives. ‘The reason the public pays and is excited –well, disease genes are at the top of the list,’ he explained. It

94

que um excesso de produção de muco conduz a pessoa à morte; apesar da descoberta em

1989, até hoje o conhecimento da localização do gene no genoma e de sua seqüência não

engendrou tratamento nem cura.

Tampouco nas edições “históricas” da Nature e da Science com os artigos do

genoma ocorre a divulgação de grandes avanços biomédicos, como aliás seria de esperar,

ao menos para quem acompanha o campo das biotecnologias com assiduidade. Daí resulta

que muitos dos textos nelas apresentados recorram a uma mistura de otimismo e realismo

em relação ao genoma recém-seqüenciado, um reconhecimento de que a soletração por si

só pouco ou nada acrescenta em matéria de aplicações para a saúde, e à reafirmação de que

uma avalanche de benefícios e avanços é iminente – daí as seguidas referências a uma

revolução ou nova era na medicina, que será feita de medicamentos do tipo “bala de prata”,

com precisão molecular, e seu ajuste sob medida para o perfil genético do paciente (a droga

certeira para a doença e para o paciente, do qual um dia será possível prever, com base em

seus genes, até as reações adversas ou ineficiência de resposta). É como se a genômica

permanecesse sempre como a ciência do futuro, um futuro indeterminado, que nunca chega

– não chegou em 2000, não chegou em 2001 e não chegou em 2003, vale dizer, em nenhum

dos três grandes eventos construídos como seu ápice —, mas que certamente vai chegar,

asseguram os crentes.

Há várias passagens, nas dezenas de artigos das edições de fevereiro de 2001, em

que vem à tona essa tensão entre resultados prometidos e resultados obtidos pelo

seqüenciamento do genoma. Um dos mais eloqüentes aparece quase como um desabafo

num artigo de Maynard Olson, pesquisador que na década de 1980 chegara a duvidar da

necessidade de seqüenciar o genoma humano. É sintomático que sua exasperação se dirija

simultaneamente, ainda que não de modo explícito, às duas faces complementares da

fabricação do “momento histórico”, os próceres do projeto e a imprensa: “... cada nova

rodada de entrevistas coletivas anunciando que o genoma humano foi seqüenciado solapa o

moral daqueles que precisam ir trabalhar todos os dias para de fato fazer aquilo que eles

lêem nos jornais como algo que já foi realizado” (OLSON, 2001, p. 818).112 Na segunda-

was a heyday for gene hunters. (...) Lost in the hoopla, however, was the fact that finding a gene was a far cry from having a treatment, much less a cure.” 112 “...each new round of press conferences announcing that the human genome has been sequenced saps the morale of those who must come to work each day actually to do what they read in the newspapers has already been done.”

95

feira anterior à circulação das edições da Nature e da Science, nada menos do que seis

entrevistas coletivas simultâneas haviam sido organizadas pelo mundo, uma em cada país

participante do esforço PGH, a mais importante delas de novo em Washington, com a

participação “cordial” de Collins (PGH) e Venter (Celera), prontos para disputar as

atenções da imprensa: “... no aquecimento para esses encontros, os líderes integrantes de

ambas as equipes vinham trabalhando duro na tentativa de assegurar que a história – ou

pelo menos a mídia — julgasse que eles haviam feito a contribuição mais importante”

(BUTLER, 2001, p. 747).113

Essa tensão encontrou sua salvação retórica num artigo de fé, uma fé já um tanto

esmaecida entre cientistas às voltas com realidades insuspeitadas no âmago do genoma,

mas que eles nem por isso se esforçaram por abalar no público que paga e se entusiasma: a

fé no determinismo genético.

3.2 Determinismo envergonhado e mitigado

“Não devemos recuar nessa exploração. E o fim de toda nossa exploração será

chegar ao ponto de onde partimos, e conhecer o lugar pela primeira vez.”114 A citação de

T.S. Eliot que fecha o artigo do PGH na Nature (LANDER et al., 2001, p. 914) exprime

bem, provavelmente à revelia dos autores, a curiosa circularidade implícita na empreitada

do genoma. Eles decerto tinham em vista a coloração épica do verso, para fechar com

chave de ouro as 61 páginas do texto, mas ao mesmo tempo indicaram com ela que nada de

imprevisto havia ocorrido: soletrado o genoma da espécie, tinham em mãos – por definição

— o texto do que significa ser humano. A frase final de Eliot (“e conhecer o lugar pela

primeira vez”) sugere, porém, que a jornada transforma tanto o viajante quanto seu destino,

e é mesmo isso que parece ter acontecido com os seqüenciadores do genoma: ao

alcançarem seu objetivo, já não podiam mais sustentar com a mesma desenvoltura a

113 “... in the run-up to these meetings, leading members of both teams had been working hard in an attempt to ensure that history –or at least the media— would judge them to have made the more important contribution.” 114 “We shall not cease from exploration. And the end of all our exploring will be to arrive where we started, and know the place for the first time.”

96

doutrina da centralidade dos genes que havia servido tão bem como motivação e

racionalidade do programa bilionário para recenseá-los.

Processos paralelos de crítica às simplificações do determinismo genético (tudo que

ocorre num organismo é comandado pelos genes) e de detalhamento da complexidade

inerente ao genoma, ao longo dos 12 anos do PGH, já não permitiam, no seu clímax

editorial e midiático, usar a mesma linguagem e as mesmas metáforas, pelo menos não sem

alguma dose de pudor, qualificativos, atenuações. O resultado é que as duas edições

(Nature e Science) oferecem um espécie de pot-pourri com todos os matizes de

determinismo, do mais empedernido genocentrismo a críticas pesadas da genomania _ por

vezes no interior de um mesmo texto. É como se os geneticistas escrevessem ao mesmo

tempo para dois públicos, um leigo e um especializado; ou, então, trata-se de um efeito de

transição entre maneiras de encarar o objeto genoma que os faz oscilar entre uma retórica

determinista e descrições menos deterministas, em vários graus. Embora um James Watson

se permita reeditar num volume lançado em 2000 ensaios da década de 90 em que

equaciona a natureza humana com os genes da espécie (WATSON, 2000, p. 172), numa

publicação científica isso já se tornara quase impossível, sem adicionar algumas ressalvas,

como a tão generalizada quanto protocolar referência ao papel complementar do ambiente

(ou nurture).

Embora ressurja aqui e ali, muitas vezes em minúsculas, a metáfora quase religiosa

do Livro da Vida já se tornara problemática demais, assim como o hábito de se referir a

genes como causas de doenças e características. O editorial que abre a Nature, por

exemplo, opta por refugiar-se na noção menos comprometedora de influência, ao mesmo

tempo em que recorre a intensificadores para sublinhar seu caráter abrangente e definidor

tanto da história do indivíduo quando da história da espécie:

A seqüência do genoma humano contém o código genético que reside no núcleo de cada célula dos 10 trilhões de células em cada ser humano. Ele influencia profundamente nossos corpos, nosso comportamento e nossas mentes, vai ajudar no estudo das influências não-genéticas sobre o desenvolvimento humano; vai desencadear novas iluminações sobre nossas origens e nossa história como espécie; e aponta novos caminhos para combater doenças.115 (NATURE, 2001, p. 745; ênfases minhas)

115 “The human genome sequence contains the genetic code that sits at the core of every one of the ten trillion cells in each human being. It profoundly influences our bodies, our behaviour and our minds; it will help the

97

Essa formulação cuidadosa contrasta em alguma medida com outra de sabor mais

determinista, oferecida por três editores da revista britânica no texto introdutório da longa

seção sobre o genoma, ainda que igualmente mitigada pela referência implícita a outros

fatores, como o ambiente: “Seres humanos são muito mais do que simplesmente o produto

de um genoma, mas em um certo sentido nós somos, tanto coletiva quanto individualmente,

definidos no quadro do genoma” (DENNIS et al., 2001, p. 745; ênfases minhas).116

Para além desses textos de responsabilidade da equipe de edição da Nature, dos

quais sempre se poderia dizer que mistura conceitos sem critério porque isso é da praxe do

jornalismo, o próprio artigo científico central da equipe do PGH não escapa dessa mesma

oscilação. Após enumerar exaustivamente os muitos elementos genômicos117 que não se

encaixam na visão simplista gene � proteína � característica – sobretudo o chamado

processamento alternativo, segundo o qual os mesmos “genes” podem resultar em proteínas

diversas, e os vários indícios de um sistema regulador da expressão (ativação) dos genes tão

intricado quanto malcompreendido –, LANDER et al. (2001, p. 892) recaem na tentação da

hipérbole determinista ao qualificar a tarefa de compilação da “lista completa dos genes

humanos e das proteínas por eles codificadas” como a produção “da ‘tabela periódica’ da

pesquisa biomédica”. Ainda que um degrau abaixo do Livro da Vida, e apesar das

minúsculas e das aspas, não fica tão longe assim da metáfora preferida dos geneticistas

quando falam para o público, pois a tabela periódica representa, para a química, uma

espécie de quadro sinóptico da matéria, em que cada componente fundamental – os

elementos — encontra uma posição definida e matematicamente descrita numa totalidade

de ordem transparente. Alguns degraus mais abaixo se encontra outra metáfora escritural, a

do “caderno de notas de laboratório da evolução” (LANDER et al., 2001, p. 914), que

emergiria da comparação dos genomas de diversas espécies; embora bem menos imponente

que uma Bíblia, o caderno ainda assim é uma metáfora menos inocente do que aparenta em

sua pseudomodéstia, pois implica tomar a própria natureza como circunscrita aos limites

study of non-genetic influences on human development; it will unlock new insights into our origins and history as a species; and it points to new ways of combating disease.” 116 “Humans are much more than simply the product of a genome, but in a sense we are, both collectively and individually, defined within the genome.” 117 As complexidades recentemente descobertas no genoma serão consideradas com mais detalhe no próximo capítulo.

98

antropomorfizados de um processo de invenção (o que implica intencionalidade) e de

experimentação (o que implica controle) centrado nos genes (o que implica determinismo).

Formulações ainda mais atenuadas podem ser encontradas nos artigos de

comentário e contextualização encomendados pela Nature. O Nobel David Baltimore, por

exemplo, que havia sido nos anos 1980 um dos críticos da idéia de seqüenciar por completo

o genoma humano, afirma que “as seqüências-rascunho do genoma humano (...) fornecem

um esboço da informação necessária para criar um ser humano” (BALTIMORE, 2001, p.

814; ênfases minhas),118 uma escolha cuidadosa de palavras, pois ao menos deixa implícito

que o autor não as considera necessariamente suficientes para a criação de um exemplar da

espécie, como reza a doutrina genocêntrica da “ação gênica”. Esse modo de pensar que

marcaria a genética e a biologia molecular havia sido forjado ainda antes da descoberta da

estrutura do DNA em dupla hélice (no ano de 1953) e até mesmo antes da comprovação de

que era o DNA, e não uma ou mais proteínas, a substância portadora da hereditariedade

genética (1944); sua matriz se encontra num célebre e influente livro escrito não por um

biólogo, mas por um físico, e logo um prócer da mecânica quântica, ninguém menos que

Erwin Schrödinger, autor de What is Life?, no qual lança a noção de que o “sólido

aperiódico” capaz de conter de maneira cifrada as informações hereditárias teria de reunir

numa mesma entidade duas funções que, na metáfora, necessariamente vêm separadas: os

planos do arquiteto e a mão-de-obra do construtor (SCHRÖDINGER, 1997, pp. 41-42).

Chega a ser surpreendente que, seis décadas depois, uma analogia tão problemática

ainda esteja em circulação, mas é o que se observa na mescla de variados graus de

determinismo genético que as edições de fevereiro de 2001 apresentam. Não só a imagem

do plano-mestre (blueprint) se repete à exaustão como ainda chega a ser empregada quase

no mesmo sentido de Schrödinger, num box jornalístico da Science: “O genoma humano se

passa por plano-mestre para construir um organismo, mas cabe aos biólogos do

desenvolvimento decifrar como tal ‘plano-mestre’ dirige a construção” (VOGEL, 2001, p.

1181; ênfase minha).119

118 “The draft sequences of the human genome (...) provide an outline of the information needed to create a human being.” 119 “The human genome is touted as the master plan for building an organism. But it is up to developmental biologists to decipher how that ‘master plan’ directs construction.”

99

Muitos pesquisadores que escrevem nos dois periódicos preferiram no entanto

resguardar-se numa formulação mais cuidadosa, ainda que reminiscente da metáfora

arquitetônica, recorrendo à imagem do suporte ou arcabouço – scaffold, em inglês. Ela

ocorre, por exemplo, na seguinte descrição do processo de expressão gênica:120 “...

transcrição, pré-processamento de RNA e formação de terminações 3’ (...) envolvem o

reconhecimento de um ácido nucléico (DNA ou RNA) que serve como suporte para o

complexo multiproteína no qual a reação relevante (transcrição, processamento ou

formação de terminação 3’) acontece” (TUPLER et al., 2001, p. 832).121 Em sentido já mais

figurado, a metáfora reaparece, na edição da Science, num artigo de Svante Pääbo em que a

alternância entre hipérboles e prudência é particularmente digna de nota. Após comparar a

soletração com o pouso do homem na Lua e com a explosão da primeira bomba atômica,

pois, como nesses eventos marcantes, ela obrigaria o homem a refletir sobre si mesmo, ele

afirma que “a seqüência do genoma humano nos dá uma visão do arcabouço genético

interno em torno do qual cada vida humana é moldada” (PÄÄBO, 2001, p. 1219).122

Estamos muito distantes do plano-arquiteto-construtor de Schrödinger, não resta

dúvida, mas nem por isso de posse de uma analogia pouco problemática. Afinal, trata-se de

um arcabouço de tipo muito especial, dado a apresentar – na visão de Pääbo — articulações

tão nevrálgicas que podem ser consideradas essenciais; se, por um lado, a imagem acentua

o aspecto passivo e meramente mediador do DNA nas vias metabólicas da célula, em

consonância com o argumento antideterminista, por outro ela veicula implicitamente a

noção de que certas peças desse andaime são imprescindíveis para que o prédio final ganhe

uma cumeeira e permaneça de pé. Pääbo é colaborador do grupo de Anthony Monaco que

publicaria na concorrente Nature123 a descoberta do gene FOXP2, que chegou a ser

celebrado como o “gene da linguagem”, mas que na realidade é só uma seqüência de DNA

comprovadamente envolvida, em seres humanos, num aspecto de desenvolvimento

120 Transcrição de um trecho de DNA, no interior do núcleo celular, em uma molécula mensageira de RNA com seqüência correspondente, por sua vez traduzida, já fora do núcleo, na seqüência de aminoácidos que comporá a proteína. 121 “... transcription, pre-mRNA splicing and 3’ end formation. All three involve the recognition of a nucleic acid (DNA or RNA) that serves as a scaffold for a multiprotein complex in which the relevant reaction (transcription, splicing or 3’ end formation) occurs”. 122 “... and now the human genome sequence gives us a view of the internal genetic scaffold around which every human life is molded”. 123 V. 413, pp. 519 – 523, 04.out.2001; doi:10.1038/35097076.

100

embrionário que parece ser crucialmente necessário para a capacidade de articular palavras

(o que obviamente não significa que seja suficiente para desenvolvê-la); meses depois, a

comparação com o DNA de chimpanzés revelaria que a versão símia do gene tinha

seqüência diversa, o que reforçou a idéia de que se trata de um peculiaridade humana. É

esse o tipo de gene – exclusivo da espécie humana e associado com uma sua característica

de importância antropológica, como a linguagem — que Pääbo parece ter em mente

quando, ao utilizar a imagem menos determinista de arcabouço, acaba por sobredeterminá-

la com a noção, ela sim bem determinista, de que umas poucas permutações moleculares

estejam na origem da própria condição humana, com a emergência da fala.

Outra analogia inaugurada por Schrödinger é a da linguagem cifrada, cuja fonte está

sem dúvida na importância que a criptografia adquiriu durante a Segunda Guerra Mundial.

Nas décadas seguintes ela seria acrescida de novas camadas semânticas com o surgimento

dos primeiros computadores programáveis, quando o “código genético” passa a ser

subentendido como código de computador, programa, software, e aquilo que o DNA

encerra, como informação.124 Seu emprego se generalizou durante a década de 1960,

quando os mais destacados biólogos moleculares se dedicaram à tarefa de “decifrar” o

“código genético”, ou seja, descobrir os mecanismos pelos quais seqüências determinadas

de bases nitrogenadas no DNA especificam seqüências determinadas de aminoácidos para a

síntese de uma proteína particular – o que conduziu à descoberta de que isso ocorre por

meio de “sílabas” de três bases conseqüentemente batizadas como códons.

A partir de então, e até hoje, sempre que um biólogo molecular fala em código

genético ou trecho codificante na seqüência de DNA (éxon), é a imagem de um programa

de computador que ele tem em vista – e é dessa maneira que devem ser entendidas as

dezenas de menções que aparecem em ambas as edições de fevereiro de 2001 dos

periódicos científicos com a apresentação do genoma humano, tanto mais porque hoje a

análise computadorizada das seqüências se tornou uma ferramenta imprescindível da

genômica. Também elas, no entanto, aparecem ali com alguns grãos de sal, pois é longa a

tradição de crítica a essa noção, iniciada, entre outros, por LEWONTIN, ROSE e KAMIN

(1985). Além de muitos registros dando conta de que o tal código ou programa é muito

mais complexo do que o esquema instrução/execução faz supor – pela presença no genoma

101

de uma série de elementos e forças que escapam inteiramente a essa conceituação,125 como

as formas “parasíticas” de DNA conhecidas como transposons e retrotransposons —, em

pelo menos um caso a metáfora chega muito perto de ser abandonada, ou pelo menos posta

de pernas para o ar. É o que faz POLLARD (2001, p. 842), que associa a figura do

suporte/arcabouço para descrever o genoma não com o software, mas sim com o substrato

físico dos computadores: “A seqüência-rascunho do genoma humano é um passo

importante para catalogar o hardware molecular que dá suporte ao processo da vida”

(ênfases minhas).126

3.3 Cientistas culpam a imprensa

Em certos pontos do panorama oferecido pelas duas revistas sobre o genoma

humano, alguns pesquisadores conseguem lançar alguma luz sobre esse contínuo de visões

mais, ou menos, deterministas sobre o papel do genes. É o que se pode observar, por

exemplo, no artigo de PELTONEN e McKUSICK (2001), em que, apesar de reeditarem a

hipérbole de igualar o genoma com uma Tabela Periódica da Vida (p. 1224), os autores

tentam sistematizar essa coabitação de noções e estilos explicativos na forma de uma série

de “mudanças de paradigmas” que estariam ocorrendo na biologia molecular, compilando o

seguinte quadro de deslizamentos conceituais e prioridades de pesquisa (p. 1226; ênfases

minhas):

Genômica estrutural � Genômica funcional Genômica � Proteômica Descoberta de genes baseada em mapas � Descoberta baseada em seqüências Disfunções monogênicas � Disfunções multifatoriais Diagnósticos por DNA específico � Monitoramento de suscetibilidade Análise de um gene � Análise de múltiplos genes Ação gênica � Regulação gênica

124 Uma investigação minuciosa da história da construção de tal metáfora se encontra em KAY (2000). A discussão mais detida das implicações dessa noção será apresentada nos capítulos 4 e 5. 125 Sobre o potencial perturbador da metáfora do programa nesses elementos parasíticos do genoma, eis o que afirma numa reportagem da Science Phil Green, da Universidade de Washington: “Parece até que não estamos no controle de nosso próprio genoma” [It almost looks like we are not in control of our own genome.]. (PENNISI, 2001, p. 1179; grifo meu) 126 “The draft human genome sequence is an important step in cataloguing the molecular hardware that supports the process of life”.

102

Etiologia (mutação específica) � Patogênese (mecanismo)

Uma espécie � Várias espécies

Os dois itens assinalados em negrito indicam bem como parece ser importante e

profunda a transição em curso, ainda que poucos cientistas se dêem conta dela e, menos

ainda, tirem as conseqüências cabíveis ao menos naquela parte de seu discurso que se dirige

ao público e não aos próprios pares: regulação é em princípio algo a que os genes estão

submetidos, não algo que os genes fazem, comandam, determinam etc.; também parece

ocorrer um deslizamento da ênfase na noção informacional de mutação (como um tipo de

comutador liga/desliga, diferença que faz a diferença) pela de mecanismo, um composto de

elementos articulados em que a função se distribui por todos eles, que podem também se

rearranjar, modular, adaptar etc. “Nenhum gene opera num vácuo; ao contrário, cada gene

interage ativamente, seja diretamente, seja por meio de seu produto de proteína, com muitos

outros genes e produtos de genes. Isso resulta em variações marcantes nos sintomas de

pacientes com a mesma doença”, escrevem PELTONEN e McKUSICK (2001, p. 1226).127

Para além das referências protocolares ao papel do ambiente, que aparecem por toda a parte

entre os artigos do genoma, alguns autores avançam até o ponto de denunciar a falácia do

genocentrismo, da doutrina da ação gênica e do determinismo nela implícito: “Para alguns,

há um perigo de genomania, com todas as diferenças (ou similaridades, além do mais)

sendo depositadas no altar da genética. Mas eu espero que isso não aconteça. Genes e

genomas não agem num vácuo, e o ambiente é igualmente importante na biologia humana”,

escreve CHAKRAVARTI (2001, p. 823).128

Talvez a mais direta e surpreendente denúncia do determinismo genético, entre os

artigos de cientistas na Nature e na Science, tenha sido a que partiu do próprio Craig

Venter. Mais surpreendente, ainda, que ela conste do último parágrafo do texto (em franco

contraste com o fecho poético-laudatório da citação de T.S. Eliot do artigo do PGH na

Nature), e mesmo que contrabandeando mais uma metáfora arquitetônica à Schrödinger:

127 “No gene operates in a vacuum; rather, each gene busily interacts either directly or through its protein product with many other genes and gene products. This results in marked variations in the symptoms of patients with the same disease.” 128 “To some, there is a danger of genomania, with all differences (or similarities, for that matter) being laid at the altar of genetics. But I hope this does not happen. Genes and genomes do not act in a vacuum, and the environment is equally important in human biology.”

103

Há duas falácias a evitar: determinismo, a idéia de que todas as características da pessoa são “impressas” pelo genoma; e reducionismo, a visão de que, com o conhecimento completo da seqüência do genoma humano, seja apenas uma questão de tempo para que nossa compreensão das funções e interações dos genes venham a oferecer uma descrição causal completa da variabilidade humana. O verdadeiro desafio da biologia humana, para além da tarefa de descobrir como os genes orquestram a construção e a manutenção do miraculoso mecanismo de nossos corpos, estará à frente, na medida em que buscarmos explicar como nossas mentes puderam organizar pensamentos bem o bastante para investigar nossa própria existência.129 (VENTER et al., 2001, p. 1348; ênfases minhas)

Como explicar, então, a persistência das noções deterministas acerca do papel

primordial dos genes, dentro e fora da literatura científica? Vários autores representados

nas edições em pauta da Nature e da Science têm uma resposta pronta: é a imprensa leiga

que mantém viva a chama do genocentrismo. Assim se pronuncia, por exemplo, o artigo de

McGUFFIN, RILEY e PLOMIN (2001, p. 1232) acerca da genética comportamental, que

os autores apontam como um dos campos preferidos do tratamento sensacionalista (o que é

manifestamente verdadeiro): “Isso se deve provavelmente ao fato de que a maioria dos

jornalistas – em comum com a maioria das pessoas leigas cultas (e alguns biólogos) —

tendem a ter uma visão da genética simplificada, de gene único”.130 Essa é também a

opinião de PÄÄBO (2001, p. 1220):

... talvez o maior perigo que eu vejo se origine da enorme ênfase que a mídia pôs sobre o genoma humano. Os sucessos da genética médica e da genômica durante a última década resultaram numa forte guinada em direção a uma visão quase completamente genética de nós mesmos. Considero surpreendente que, dez anos atrás, uma geneticista tinha de defender a idéia de que não só o ambiente, mas também os genes, moldavam o desenvolvimento humano. Hoje, sentimo-nos compelidos a acentuar que há um grande componente ambiental para as doenças comuns, o comportamento e os traços de personalidade! Há uma tendência insidiosa a olhar para os nossos genes em busca da maioria dos aspectos de nossa ‘humanidade’ e a esquecer que o genoma não é senão um arcabouço interno para nossa existência.131

129 “There are two fallacies to be avoided: determinism, the idea that all characteristics of the person are ‘hard-wired’ by the genome; and reductionism, the view that with complete knowledge of the human genome sequence, it is only a matter of time before our understanding of gene functions and interactions will provide a complete causal description of human variability. The real challenge of human biology, beyond the task of finding out how genes orchestrate the construction and maintenance of the miraculous mechanism of our bodies, will lie ahead as we seek to explain how our minds have come to organize thoughts sufficiently well to investigate our own existence.” 130 “The genetics of behavior offers more opportunity for media sensationalism than any other brand of current science. (...) This is probably because most journalists –in common with most educated lay people (and some biologists)— tend to have a straightforward, single-gene view of genetics.” 131 “... perhaps the greatest danger I see stems from the enormous emphasis placed on the human genome by the media. The successes of medical genetics and genomics during the last decade have resulted in a sharp shift toward an almost completely genetic view of ourselves. I find it striking that 10 years ago, a geneticist

104

Não se trata, é claro, de minimizar o papel e a responsabilidade de jornalistas na

disseminação das formas deterministas de entender o genoma, mas a circulação desses

conceitos pelos vários segmentos da opinião pública – em particular o trânsito entre as

subesferas tecnocientífica (pesquisadores especializados), semileiga (pesquisadores de

outras áreas e jornalistas ou divulgadores de ciência) e leiga (leitores em geral) — não

parece encaixar-se muito facilmente na figura da distorção de cunho sensacionalista. Em

primeiro lugar, porque as metáforas que veiculam tais conteúdos não foram cunhadas pela

imprensa, mas assimiladas por ela; depois, porque os cientistas, ainda que se afastem da

literalidade dessas analogias em suas categorias operacionais de uso no contexto

experimental, prosseguem na sua utilização, em maior ou menor grau, nos textos que

destinam para formar a opinião de seus próprios pares e dos jornalistas especializados,

leitores de publicações como Nature e Science, intermediários na transmissão e na

interpretação desses feitos da tecnociência genômica para o público leigo. Podem-se cogitar

muitas razões para que o façam, mas certamente uma delas – possivelmente uma das

centrais — é que tais metáforas permanecem como sítios articuladores de sentido em seu

próprio pensamento, vale dizer, da interpretação cultural que organizam para seu próprio

consumo, e da sociedade, acerca de sua atividade e das realidades “naturais” que

investigam. Paga-se um preço, além de colher dividendos, por cunhar e pôr em circulação

metáforas como a do Livro da Vida ou do programa de computador no DNA, como ensina

na própria Science um crítico precoce do genoma, LEWONTIN (2001b, p. 1263):

Parece impossível fazer ciência sem metáforas. Desde o século XVII a biologia vem sendo uma elaboração da metáfora original de Descartes para o organismo como uma máquina. Mas o uso de metáforas carrega consigo a conseqüência de que construímos nossa visão do mundo e formulamos nossos métodos para sua análise como se a metáfora fosse a própria coisa. Há muito que o organismo deixou de ser visto como uma máquina e passou a ser enunciado como sendo uma máquina.132

had to defend the idea that not only the environment but also genes shape human development. Today, one feels compelled to stress that there is a large environmental component to common diseases, behavior, and personality traits! There is an insidious tendency to look to our genes for most aspects of our ‘humanness,’ and to forget that the genome is but an internal scaffold for our existence.” 132 “It seems impossible to do science without metaphors. Biology since the 17th century has been a working out of Descartes' original metaphor of the organism as machine. But the use of metaphor carries with it the

105

Dito de outra maneira: os geneticistas e biólogos moleculares de fato pensam no

organismo ou na célula como uma espécie de computador que tem no genoma seu software,

o qual contém não só programas aplicativos como também os próprios dados a serem

computados – como fica evidente nos vários exemplos oferecidos acima. Ocorre que as

realidades medidas e descritas pela contínua pesquisa genômica são mais e mais

incompatíveis com esse vocabulário, sem que no entanto ele seja abandonado por essa

razão. O resultado dessa promiscuidade conceitual e figurativa é a abertura de uma margem

larga de maleabilidade retórica para o discurso de cientistas, que podem modulá-lo

intuitivamente de acordo com a ocasião e o público, aumentando ou diminuindo a

literalidade das metáforas de fundo determinista que sempre estiveram na raiz das razões da

genômica. Nem todos se mostram satisfeitos com as ambigüidades dessa miscelânea,

porém, e já se batem por alguma forma de depuração da linguagem de consumo público

sobre a genômica – seja por demanda de rigor intelectual, seja pela antevisão que as

metáforas exageradas poderão ser cobradas ao pé-da-letra, mais à frente.

Uma das vozes que se levantam com autoridade nessa direção, e na própria Nature,

é a de Horace Freeland Judson, do Centro para História da Ciência Recente da George

Washington University; jornalista por formação profissional, Judson angariou prestígio

acadêmico com uma das duas principais obras historiográficas sobre as primeiras décadas

da biologia molecular.133 Assim como Lewontin, ele se inclina para a recusa da idéia de que

o determinismo genético e o linguajar metafórico a ele associado sejam obra apenas da

imprensa:

A linguagem que usamos sobre a genética e o projeto genoma por vezes limita e distorce nossa própria compreensão e a do público. (...) Essa linguagem descuidada não é mero jargão, cientistas falando entre si. Cientistas falam para os meios de comunicação, e os meios de comunicação falam para o público – e aí os cientistas reclamam que os meios de comunicação entenderam tudo errado e que os políticos e o público estão desinformados. O que os meios de comunicação fazem é mediar. A desinformação pública é em grande medida e na origem culpa dos próprios cientistas.134 (JUDSON, 2001, p. 769)

consequence that we construct our view of the world, and formulate our methods for its analysis, as if the metaphor were the thing itself.” 133 The eighth day of creation (JUDSON, 1996); a outra, The path to the double helix, é de autoria de Robert OLBY (1994). 134 “The language we use about genetics and the genome project at times limits and distorts our own understanding. (...) This sloppy language is not merely shorthand, scientists talking among themselves. Scientists talk to the media, then the media talks to the public –and then scientists complain that the media get

106

Judson denuncia em seu artigo como problema central o uso da expressão gene de,

ou gene para (gene for, em inglês), como na locução “gene da linguagem”, e defende a

ressurreição do termo alelo: em lugar da construção paradoxalmente finalista “gene do

câncer de mama”, o correto seria falar do alelo (gene com defeito ou modificação) que

aumenta a chance de desenvolver um tumor mamário. Afinal, na maioria das vezes, o que

os geneticistas obtêm não vem a ser mais do que uma correlação estatística entre a presença

de um determinado marcador em certa região cromossômica e a probabilidade de

desenvolver dada moléstia. Para ele, o que está sendo perdido com a generalização desse

vocabulário é a capacidade de falar com propriedade da complexidade inerente ao tema:

Pliotropia. Poligenia. Talvez esses termos não se tornem facilmente de emprego geral, mas o ponto crítico que nunca deve ser omitido é que os genes agem em concerto uns com os outros – coletivamente, com o ambiente. De novo, tudo isso já foi compreendido há tempos por biólogos, quando se desvencilham de palavras habitualmente descuidadas. Não abandonaremos o programa mendeliano reducionista por um holismo oportunista: não podemos abandonar o termo gene e seus aliados. Ao contrário, por nós mesmos e pelo público em geral, o que necessitamos é nos lançar mais inteira e precisamente na linguagem apropriada da genética.135 (JUDSON, 2001, p. 769)

Um bom começo, quem sabe, tendo em vista a impossibilidade de engatar marcha à

ré na hoje popularíssima noção de gene, seria aderir à definição mais operacional – e menos

comprometida semanticamente — oferecida por VENTER: “Um gene é um locus de éxons

cotranscritos” (2001, p. 1317). Simples, na aplicação, mas sem as dobras nas quais possam

refugiar-se as implicações de fundo determinista – como na formulação tradicional que

define o gene de modo finalista e pré-formacionista pelo produto eventual de sua

transcrição, a proteína de cujo “código” ele é o suposto portador e arauto. Contra esse

alargamento do horizonte genômico, no entanto, trabalha um dos mais proeminentes

biólogos moleculares, ninguém menos do que um co-descobridor da estrutura do DNA.

it wrong and that politicians and the public are misinformed. What the media do is mediate. Public misinformation is largely and in origin the fault of scientists themselves.” 135 “Pleiotropy. Poligeny. Perhaps these terms will not easily become common parlance; but the critical point never to omit is that genes act in concert with one another –collectively with the environment. Again, all this has long been understood by biologists, when they break free of habitual careless words. We will not abandon the reductionist mendelian programme for a handwringing holism: we cannot abandon the term gene and its allies. On the contrary, for ourselves, for the general public, what we require is to get more fully and precisely into to the proper language of genetics.”

107

3.4 O maniqueísmo de consumo de James Watson

Os anos de 2000 a 2003 não foram tomados somente por entrevistas coletivas,

edições especiais de periódicos científicos e reportagens em profusão sobre o genoma e

suas maravilhas. O mercado editorial de livros também viu proliferarem obras de

divulgação sobre o genoma, entre elas duas de autoria de James Watson: A passion for

DNA – Genes, genomes, and society saiu em 2000, ano em que a quase completa

seqüência-rascunho motivou a cerimônia na Casa Branca; e DNA – The Secret of Life, de

2003, ano em que se comemoraram os 50 anos de seu artigo da dupla hélice, em parceria

com Francis Crick, e a finalização da seqüência do genoma humano, que deixou assim de

ser um rascunho. São livros destinados ao grande público, sobretudo o segundo, e têm o

propósito claro de fixar o DNA e o genoma como os esteios da biologia moderna. Observa-

se neles, assim como nas edições da Nature e da Science de fevereiro de 2001, uma mescla

paradoxal de hipérboles promocionais e de resultados parcos de aplicações, as quais

contrastam com muitas indicações sobre a complexidade genômica, que por sua vez

caminha na contramão da idéia de que da soletração do DNA da espécie humana

resultariam rapidamente ganhos para a saúde humana. A diferença mais notável é que

Watson, escrevendo fora do contexto da literatura científica, parece mais à vontade para

pintar a biologia molecular em tons ainda mais róseos do que os resultados mensuráveis da

pesquisa nesse campo permitiriam esperar.

O otimismo tecnocientífico desbragado é a marca de ambos os volumes, mas o de

2000 faz com que ele transpareça melhor; sendo uma coletânea de ensaios publicados

anteriormente ao longo de três décadas, revela como durante esse tempo todo Watson

esteve obcecado com a idéia de melhoramento humano por meio da biologia molecular,

coisa que aliás ele explicita logo nas primeiras páginas do prefácio do livro: “O modo pelo

qual tomei decisões no início da vida influenciaram fortemente o modo como tentei mover

o futuro da biologia em direção ao melhoramento humano” (WATSON, 2000, p. ix).136 O

tom é esse do começo ao fim, o de uma celebridade autoconsciente da biologia que não

108

hesita em pôr a própria notoriedade e uma lendária agressividade verbal a serviço da

promoção do que percebe como a causa maior, fazer a biologia molecular avançar. Co-

organizador do livro, Walter Gratzer contribui para a hagiologia watsoniana chamando-o de

“estadista” logo nas primeiras páginas de sua introdução (GRATZER, 2000, p. xviii), o

homem que declarou a Guerra ao Câncer, iniciador de uma revolução intelectual que já

teria dado respostas que vinham sendo buscadas “desde o alvorecer da razão” (p. xvii), e

segue nesse diapasão. O próprio Watson investia nessa automitologia já em 1973,

declarando-se parte “da mais alta forma de realização humana” (WATSON, 2000, p. 92),

hábito que mantinha em 1997 (e depois), quando dava curso ao juízo de Max Delbrück

segundo o qual ele, Watson, seria o Einstein da biologia (p. 215).

Essas seriam apenas informações anedóticas, não fosse o fato de que contribuem

para compor um contexto geral de exageração em que mensagem e arauto reforçam

mutuamente a própria grandeza – e a mensagem, como não poderia deixar de ser, é a do

determinismo genético, a melhor ferramenta de promoção do PGH. Nessa empreitada, cabe

até mesmo ressuscitar a metáfora – velha de séculos — do homúnculo no espermatozóide

e/ou no óvulo, que GRATZER (2000, p. xiv), insatisfeito com a imagem do plano-mestre

(blueprint), convoca para descrever o DNA. O próprio Watson qualifica os genes como

essência da vida, tanto da espécie quanto do indivíduo: “Uma vez que nossos genes são tão

cruciais para nosso potencial para uma vida plena, a capacidade de examinar suas formas

precisas, individuais, fornecerá ferramentas cada vez mais importantes para predizer o

curso futuro de dadas vidas humanas” (WATSON, 2000, p. 169)137 – e isso em 1994,

quando a crítica ao determinismo genético já corria há pelo menos uma década. Para o

Einstein da biologia, no entanto, tais objeções são pouco mais do que manifestações de

fraqueza diante da perspectiva de poder imensurável aberta pela biologia molecular e pelo

PGH:

... o genoma humano é o nosso plano-mestre por excelência, que fornece as instruções para o desenvolvimento normal e o funcionamento do corpo humano. Que sejamos seres humanos e não chimpanzés não se deve, em sentido algum, à nossa educação [nurturing],

136 “How I made decisions early in my life strongly influenced how I have tried to move the future of biology toward human betterment.” 137 “Because our genes are so crucial to our potential for meaningful lives, the ability to look at their precise, individual forms will provide ever more important tools for predicting the future course of given human lives.”

109

mas sim à nossa natureza, isto é, nossos genes. (...) À medida que o Projeto Genoma Humano prossegue para sua conclusão, ganharemos o poder de compreender as características genéticas essenciais que nos tornam humanos.138 (WATSON, 2000, p. 172)

O que esperar, de resto, de alguém que se orgulha de ter feito campanha contra a

pesquisa em embriologia, nos seus sete anos na Universidade Harvard (1959-1966), diante

da impossibilidade de uma ainda maldesenvolvida biologia molecular reduzi-la aos genes?

(WATSON, 2000, p. 52) Apenas que encare com certo desprezo aqueles que não

concordam com tamanha latitude para a influência das seqüências de DNA e que

supostamente não têm a coragem de encarar a “verdadeira” condição do homem: “O

conceito de determinismo genético é inerentemente perturbador para a psique humana, que

gosta de acreditar que tem algum controle sobre seu destino” (WATSON, 2000, p. 196-

197).139 Sua explicação para o antideterminismo de Lewontin, seu colega de Harvard, é a

de uma motivação ideológica (como se a sua própria fosse isenta disso), “nurturista” e

politicamente correta, forjada na aversão ao movimento eugênico nos Estados Unidos e na

Alemanha nazista que há muito seriam já páginas viradas da genética, argumenta

(WATSON, 2000, p. 205).

A esses argumentos de fundo ético-político ele opõe outro, que se poderia qualificar

como libertário-utilitarista: existem genes bons e existem genes ruins (WATSON, 2000, p.

223), e imoral é nada fazer para impedir que futuros seres humanos recebam um quinhão

injusto de genes menos que perfeitos (WATSON, 2000, p. 197), um raciocínio que também

já foi usado por DULBECCO (1997, p. 210). Apesar de ter sido o responsável pela

destinação de 3% das verbas do PGH para questões éticas, WATSON (2000, p. 201)

defende que o horror e o sofrimento presentes das doenças devem prevalecer sobre

preocupações vagas e prematuras acerca de dilemas éticos. O pressuposto disso, porém, é

que a genômica engendraria necessária e rapidamente, em menos de uma década,

benefícios revolucionários para a saúde – algo que o “diretor de marketing” do PGH conta

na mesma página ter atestado diante o interlocutor que realmente importava: “... o

Congresso, sendo informado de que grandes avanços médicos fluiriam de modo

138 “... the human genome is our ultimate blueprint providing the instructions for the normal development and functioning of the human body. That we are human beings and not chimpanzees is not due in any sense to our nurturing but to our natures, that is, our genes. (...) As the Human Genome Project moves to completion, we will have the power to understand the essential genetic features that make us human.”

110

virtualmente automático do conhecimento do genoma, não viu razão alguma para não

prosseguir em velocidade” (WATSON, 2000, p. 201).140 As primeiras verbas começaram a

sair em 1987.

Ainda que reeditados em 2000, esses eram textos de intervenção das décadas de

1980 e 1990, com clara intenção de angariar apoio para o PGH. Em 2003, quando saiu

DNA – The secret of life, escrito em parceria com o jornalista Andrew Berry, o genoma já

se encontra pronto e acabado. Mais de uma década se dissipara, desde os primórdios do

projeto, e, mesmo diante da inegável aceleração na descoberta de genes associados com

doenças (na maioria, síndromes genéticas raras), contavam-se nos dedos de uma só mão os

reais avanços em matéria terapêutica derivados de pesquisa genômica. Isso empresta a esse

segundo volume de Watson – em conjunto com um DVD de mesmo título e pretensões

didáticas, o que evidencia o propósito de atingir público amplo e professores de biologia

em particular, e o sítio na internet DNA Interactive141— uma mescla ainda mais

desconcertante de resultados sóbrios, quando não desapontadores, com uma profissão de fé

renovada no potencial inesgotável da genômica.

O tom do texto é desabridamente determinista, na caracterização que oferece do

DNA e do genoma humano pela pena leve do jornalista, como se pode depreender da

seleção abaixo (WATSON e BERRY, 2003; ênfases minhas):

• DNA (...) guarda a verdadeira chave para a natureza das coisas vivas. Ele armazena a informação hereditária que é passada adiante de uma geração à próxima e orquestra o mundo incrivelmente complexo da célula.142 (p. xi)

• A vida é simplesmente uma questão de química.143 (p. xiii) • É o nosso DNA que nos distingue de outras espécies e que nos faz as criaturas criativas,

conscientes, dominantes e destrutivas que somos. E aqui estava, em sua inteireza, aquele conjunto de DNA – o manual de instruções da espécie humana.144 (p. xiii-xiv)

139 “The concept of genetic determinism is inherently unsettling to the human psyche, which likes to believe that it has some control over its fate.” 140 “... Congress, being told that big medical advances would virtually automatically flow out of genome knowledge, saw no reason not to move fast.” 141 www.dnai.org, no qual se pode ler: “Escrito no DNA humano está um registro da individualidade de cada pessoa, a história partilhada da evolução da espécie e o código que pode fornecer uma perspectiva sobre a saúde futura da pessoa.” [Written in human DNA is a record of each person's individuality, a shared history of the evolution of our species, and the code that can provide insight into a person's future health.] 142 “DNA (...) holds the very key to the nature of living things. It stores the hereditary information that is passed on from one generation to the next, and it orchestrates the incredibly complex world of the cell.” 143 “Life is simply a matter of chemistry.”

111

• ... a noção de que a vida pudesse ser perpetuada por meio de um livro de instruções inscrito num código secreto me atraía.145 (p. 36)

• A descoberta da dupla hélice fez soar o dobre da morte para o vitalismo. (...) A vida era só uma questão de física e química, ainda que física e química exoticamente organizadas.146 (p. 61)

• ... o modo pelo qual o DNA exerce sua mágica controladora sobre células, sobre o desenvolvimento, sobre a vida como um todo, é por meio de proteínas.147 (p. 67)

• Acima de tudo, o genoma humano contém a chave para a nossa humanidade. O genoma humano é o grande conjunto de instruções de montagem que governa o desenvolvimento de cada um de nós. A própria natureza humana está inscrita nesse livro.148 (p. 166)

• Projeto Genoma Humano (...) é um corpo de conhecimento tão precioso quanto a humanidade jamais adquirirá, com potencial para tocar em nossas questões filosóficas mais básicas sobre natureza humana, tanto para propósitos do bem quanto do mal.149 (p. 172)

• ... uma maravilhosa nova arma em nossa luta contra a doença e, mais ainda, toda uma nova era em nossa compreensão de como os organismos são montados e como operam, e do que é que nos afasta biologicamente das outras espécies – do que, em outras palavras, nos torna humanos.150 (p. 193)

• ... permanece o fato de que a maior parte do que será cada organismo individual está programado inelutavelmente em cada uma de suas células, no genoma.151 (p. 202)

• ... à medida que aprendemos mais sobre a base genética de moléstias adultas relativamente comuns, do diabetes à doença cardíaca, a bola de cristal biológica se tornará ainda mais poderosa, adivinhando os destinos genéticos relevantes para todos nós.152 (p. 345)

O extenso da compilação se justifica para que se forme uma idéia mais concreta do

teor da noção de gene e de genoma que se repete ad nauseam para o público amplo – não

por meio de periódicos especializados, que nem o leigo nem o professor lêem, nem

tampouco, no caso, por jornais e revistas de interesse geral, cujo linguajar e apresentação

144 “It is our DNA that distinguishes us from all other species, and that makes us the creative, conscious, dominant, destructive creatures that we are. And here, in its entirety, was that set of DNA –the human instruction book.” 145 “... the notion that life might be perpetuated by means of an instruction book inscribed in a secret code appealed to me”. 146 “The discovery of the double helix sounded the death knell for vitalism. (...) Life was just a matter of physics and chemistry, albeit exquisitely organized physics and chemistry.” 147 “... the way DNA exerts its controlling magic over cells, over development, over life as a whole, is through proteins.” 148 “Above all, the human genome contains the key to our humanity. (...) The human genome is the great set of assembly instructions that governs the development of every one of us. Human nature itself is inscribed in that book.” 149 “The Human Genome Project is much more than a vast roll call of As, Ts, Gs, and Cs: it is as precious a body of knowledge as humankind will ever acquire, with a potential to speak to our most basic philosophical questions about human nature, for purposes of good and mischief alike.” 150 “... a marvelous new weapon in our fight against disease and, even more, a whole new era in our understanding of how organisms are put together and how they operate, and of what it is that sets us apart biologically of other species –what, in other words, makes us human.” 151 “... the fact remains that the greatest part of what each individual organism will be is programmed ineluctably into its every cell, in the genome.”

112

poderiam estar sendo distorcidos por imperativos estranhos à ciência, como na tradicional

acusação de sensacionalismo. Não, trata-se de uma obra de divulgação científica dirigida

pelo “Einstein da biologia” ao grande público, diretamente (ainda que coadjuvado por um

jornalista). Ele faz uma série de concessões à complexidade do genoma e à importância da

interação dos genes com o ambiente, é verdade, mas é preciso procurar muito para

encontrar, nas mais de 400 páginas do livro, passagens como esta: “Nós não somos meras

marionetes em cujos fios apenas nossos genes dão puxões” (WATSON e BERRY, 2003,

p.381).153

Isso evidentemente não isenta o jornalismo científico de responsabilidade na

propagação da visão determinista do gene, mas cumpre a função de mostrar que o circuito

de construção de imagens sociais da pesquisa tecnocientífica abrange inúmeros canais e que

pelo menos de alguns deles os cientistas participam diretamente, sem intermediários, e que

modulam sua retórica de acordo com as finalidades que pretendem alcançar com cada

público particular. Escrevendo um artigo técnico num periódico científico, não se podem

permitir certas figuras de linguagem; num comentário ou revisão para uma publicação de

espectro ligeiramente mais amplo, como Nature ou Science, a latitude de vocabulário e

imaginário é um pouco maior; mais, ainda, em livros, artigos ou entrevistas que caibam na

rubrica de divulgação científica. Em todos os casos, porém, estão sempre sujeitos ao

escrutínio da crítica, parta ela de seus próprios pares ou de leigos informados, e necessitam

portanto preservar um mínimo de acuidade científica sob a retórica de intervenção – razão

mais do que suficiente para que o jornalismo científico incorpore entre seus padrões e

procedimentos uma disposição que se aproxime da crítica, tal como é exercida em relação

aos produtos culturais e às campanhas eleitorais.

Em DNA – The secret of life, por exemplo, Watson faz alguns ajustes na descrição

das maravilhas do DNA. Já não subscreve integralmente o modelo inspirado nas síndromes

genéticas raras – em que uma simples mutação acarreta a doença — como matriz para

conceber e explicar todas as moléstias. No caso do câncer, já não fala tanto de genes (antes

haviam sido vírus) causadores de tumores, mas de intervir em seus produtos

152 “... as we learn more about the genetic basis of relatively common adult afflictions, from diabetes to heart disease, the biological crystal ball will become ever more powerful, telling the genetic fortunes relevant to us all.” 153 “We are not mere puppets upon whose strings our genes alone tug.”

113

intermediários: “Com as metodologias de DNA em desenvolvimento, os pesquisadores

estão finalmente fechando o cerco em medicamentos que possam ter em mira apenas

aquelas proteínas-chave (...) que promovem crescimento e divisão de células cancerosas”

(WATSON e BERRY, 2003, p. 128).154 Como bom “estadista”, ele declara sua fé na futura

proliferação de histórias de sucesso, ainda que o presente nada tenha de brilhante (p. 128) e

que o preço disso seja firmar uma espécie de armistício na Guerra Contra o Câncer, ou pelo

menos aceitar a perspectiva de um conflito prolongado, sem vitória à vista:

Ao longo da próxima década, uma armada virtual de pequenas moléculas e inibidores de proteínas estará provavelmente pronta para singrar os sistemas dos pacientes de câncer, sufocando a formação de vasos sangüíneos antes que os tumores tenham uma chance de se tornarem letais. E, se o crescimento de tumores puder de fato ser interrompido dessa maneira, poderemos vir a enxergar o câncer como fazemos com o diabetes, uma doença que pode ser controlada, mais do que completamente curada de uma vez por todas.155 (WATSON e BERRY, 2003, p. 130)

O mesmo tipo de oscilação entre resultados parcos da genômica no presente e uma

fé desproporcional em suas realizações futuras caracteriza a descrição para outro campo da

saúde muito caro a Watson, a doença mental (WATSON e BERRY, 2003, p. 390), assim

como no caso das raízes genéticas da homossexualidade (p. 391). Em certo sentido, o livro

todo é uma sucessão de relatos razoavelmente factuais e honestos de como é modesto o

retrospecto da genômica em matéria de tecnologias de promoção da saúde,

contrabalançados pela convicção do co-descobridor da dupla hélice de que os melhores

frutos ainda virão. Em nenhum momento ele entretém a menor suspeita de que talvez o

problema não esteja na limitação do esforço de pesquisa, como parece acreditar, mas na

própria estratégia de pesquisa, ou pelo menos na expectativa desmesurada que ele

contribuiu para criar e disseminar. Na realidade, é de uma espécie de fé no controle de

moléculas que se trata, aqui, como fica evidente na importância desmesurada que Watson

atribui à invenção das técnicas de manipulação genética (DNA recombinante), em 1973,

por Stanley Cohen e Herbert Boyer:

154 “With developing DNA methodologies researchers are finally closing in on drugs that can target only those key proteins –many of them growth factors and then receptors on the cell surface— that promote cancer cell growth and division.” 155 “Over the next decade, a virtual armada of small-molecule and protein inhibitors will probably be ready to sail through the systems of cancer sufferers, thwarting blood vessel formation before tumors have a chance to

114

Novos e extraordinários panoramas se abriram: nós finalmente conseguiríamos entender as doenças genéticas, da fibrose cística ao câncer; revolucionaríamos a justiça criminal com os métodos de identificação genética; revisaríamos profundamente as idéias sobre as origens do homem – sobre quem somos e de onde viemos — pelo uso de abordagens baseadas em DNA; e aperfeiçoaríamos espécies agronomicamente importantes com uma eficácia com que antes só poderíamos ter sonhado.156 (WATSON e BERRY, 2003, p. xiii)

Apesar de todas as perorações sobre o papel crucial do ambiente, apesar de todas as

referências à complexidade do genoma e à necessidade de muitos anos ou décadas de

pesquisa, apesar do distanciamento da genética realmente existente em relação ao

paradigma das síndromes monogênicas, a mensagem que interessa deixar para o leigo é

essa: o câncer é uma doença genética, como a fibrose cística, e o mundo precisa financiar a

pesquisa genômica para que um dia possa dar cabo delas (pouco importando, para efeitos

retóricos, que o câncer não possa ser comparado com a fibrose cística, uma condição

monogênica e por isso mesmo determinística, e que 15 anos após a identificação do gene

correspondente ainda não haja uma cura para ela).

3.5 Sintomas de crise na genômica

À primeira vista, a seqüência do genoma não é mais do que uma fileira – que parece

interminável, para a escala humana — de letras químicas (bases nitrogenadas) abreviadas

como As, Ts, Gs e Cs, como um livro numa língua estrangeira que não se compreende, na

imagem de Fred Sanger (PENNISI, 2001, p. 1180), inventor do principal método de

seqüenciamento de DNA. Com base no conhecimento acumulado sobre certas

peculiaridades das seqüências que contêm genes, no entanto, a bioinformática tem

instrumentos para identificar muitos candidatos a genes e, até, arriscar alguns palpites sobre

a função provável de parte deles (a partir da comparação com características de outros

become lethal. And if tumor growth can indeed be curtailed in this way, we may come to regard cancer as we do diabetes, as a disease that can be controlled rather than completely cured outright.” 156 “Extraordinary new scientific vistas opened up: we would at last come to grips with genetic diseases from cystic fibrosis to cancer; we would revolutionize criminal justice through genetic fingerprinting methods; we would profoundly revise ideas about human origins –about who we are and where we came from– by using DNA-based approaches to prehistory; and we would improve agriculturally important species with an effectiveness we had previously only dreamed of.”

115

genes – e das proteínas que especificam — quando notoriamente envolvidos num

determinado grupo de funções). Esse trabalho de análise computadorizada, ou in silico (por

oposição tanto a in vivo quanto a in vitro) do genoma em busca de genes de interesse é

muitas vezes referida como garimpo (mining). Uma das principais esperanças dos

bioinformatas e biólogos moleculares sempre foi, tendo a seqüência completa do DNA da

espécie, tornarem-se capazes de fazer grandes descobertas dessa maneira, rodando

programas de computador especializados em garimpar genes, sem precisar gastar meses ou

anos em laboriosos experimentos bioquímicos.

Vários artigos publicados nas edições da segunda semana de fevereiro de 2001 dos

periódicos Nature e Science se dedicavam a apresentar resultados preliminares dessa

garimpagem com as seqüências-rascunho recém-obtidas, e eles foram em certa medida

decepcionantes. No caso da Nature, os nove artigos com esse propósito são sumarizados

num décimo (BIRNEY et al., 2001), que os qualifica como frustrantes e compensadores, ao

mesmo tempo: o grupo que se dedicou a garimpar genes associados com moléculas

envolvidas no trânsito de substâncias pelas membranas celulares encontrou alguns; já o que

procurou uma classe importante de sinais celulares, as quinases dependentes de ciclinas,

saiu de mãos abanando, sem encontrar nem um gene sequer que especificasse uma quinase

que já não fosse descrita na literatura; por fim, e mais importante, não foram tampouco

encontrados genes novos relacionados com cânceres. Apesar disso, ao final do artigo

reafirmam seu otimismo: “... há muitos tesouros não descobertos no presente conjunto de

dados, esperando para serem encontrados por intuição, trabalho duro e verificação

experimental. Boa sorte, e feliz caçada!” (BIRNEY et al., 2001, p. 828)157

Uma das razões para essa frustração está sem dúvida no equacionamento

historicamente feito por geneticistas entre função biológica e especificação de proteína(s),

raiz da própria noção de código genético. Até hoje é comum encontrar definições

abreviadas de gene como um trecho de DNA que codifica uma proteína, o que há muito já

deixou de fazer sentido pleno, pois há décadas se sabe que o DNA genômico pode também

especificar, por exemplo, seqüências de RNA que nunca serão transportadas até ribossomos

e traduzidas na língua das proteínas. Ora, uma das coisas que o seqüenciamento do genoma

evidencia é que muito da complexidade dos vertebrados parece decorrer mais da

116

sofisticação de um aparelho de regulação do genoma;158 a mera comparação das

seqüências-rascunho com as de outras espécies revela por exemplo que eles se diferenciam

de genomas mais “primitivos”, por exemplo, pela presença de íntrons159 muito mais longos,

o que faz supor que eles tenham alguma função, sim, só que ainda não compreendida,

possivelmente relacionada com a regulação da expressão gênica. Mesmo assim, os

geneticistas permanecem fixados na definição histórica, gene = função = proteína, a ponto

de reciclar a metáfora infeliz do DNA-lixo (junk DNA) com a superimposição de outra

metáfora, só um pouco menos depreciativa, oriunda da cibernética:

Quase todo o crescimento no tamanho dos genes em seres humanos, comparados com a mosca [drosófila] ou com o verme [C. elegans, um nematódeo], se deve ao fato de íntrons se tornarem muito mais longos (cerca de 50 kb [mil bases] contra 5 kb). Os éxons codificadores de proteínas, por outro lado, são aproximadamente do mesmo tamanho. Esse decréscimo na razão entre sinal (éxon) e ruído (íntron) no genoma humano conduz a falhas na previsão por estratégias computacionais de busca de genes.160 (BIRNEY et al., 2001, p. 827; grifos meus)

Esse processo de localização, delimitação e associação funcional de genes é

conhecimento como anotação do genoma. O que fica evidente da publicação das

seqüências rascunho em 2001, e mesmo da seqüência final em 2003, é que ainda não

chegou a era da biologia teórica, virtual, em que a pesquisa das variações funcionais – na

saúde e na doença — se daria unicamente in silico. A anotação continua a depender do

trabalho de laboratório para a validação de genes, que pode ter sido abreviada, mas nem por

isso se tornou obsoleta; por outro lado, agora são dezenas de milhares de genes aguardando

esse escrutínio. Computadores ainda não são capazes de separar confiavelmente ganga e

pirita de ouro verdadeiro. De volta à bancada, portanto:

157 “... there are many undiscovered treasures in the current data set waiting to be found by intuition, hard work and experimental verification. Good luck, and happy hunting!” 158 Para simplificar, a contextualização que define quando e como quais genes serão transcritos e traduzidos, e como serão processados de maneiras alternativas. 159 Seqüências de DNA que não especificam aminoácidos para compor proteínas e que se intrometem entre os trechos especificadores, ditos éxons. 160 “Nearly all of the increase in gene size in human compared with fly or worm is due to the introns becoming much longer (about 50 kb versus 5 kb). The protein-encoding exons, on the other hand, are roughly the same size. This decrease in signal (exon) to noise (intron) ration in the human genome leads to a misprediction by computational gene-finding strategies.”

117

Embora essas buscas ressaltem o poder da nova informação genética, elas também revelam limitações importantes. Em particular, que a existência de uma seqüência gênica relacionada não significa que haja uma proteína correspondente: a seqüência pode ser um pseudogene não expressado. (...) Estudos de expressão [gênica] serão necessários para complementar a informação genômica. Um alerta final é que muitos dos fatores são componentes de complexos com múltiplas subunidades. Às vezes o mesmo fator está presente em complexos múltiplos, cujas atividades diferem substancialmente. Portanto, o valor total da informação genômica só poderá ser realizado quando for acoplado com os estudos bioquímicos apropriados.161 (TUPLER, PERINI e GREEN, 2001, p. 833)

Tais limitações são reconhecidas, de passagem, no próprio artigo do PGH na Nature

(LANDER et al., 2001, p. 907 e p. 913). Outros autores também se sentem compelidos a

ressaltar a impossibilidade de analisar o genoma unicamente com meios computacionais

(BORK e COPLEY, 2001, p. 819; GALAS, 2001, p. 1257 e p. 1259). Alguns chegam

mesmo a esboçar alguma exasperação com o predomínio da díade seqüenciamento e

bioinformática, como Tom Pollard, em citação numa das reportagens da Nature, temendo

que esse predomínio possa procrastinar o necessário trabalho “úmido” (de laboratório) sem

o qual a biologia será incapaz de completar sua compreensão da fisiologia (BUTLER,

2001, p. 760), raciocínio que Pollard repete em seu próprio artigo na mesma Nature

(POLLARD, 2001, p. 843), no qual busca ir além da versão Big Science da biologia: “[A

anotação] é um caso em que a ciência miúda renderá um produto melhor do que a

abordagem industrial requerida para seqüenciamento”.162

Não é possível para esses pesquisadores, que têm suas carreiras inteiramente

amarradas à genômica, ir muito além da constatação das limitações e de tentar compensá-

las com profissões de fé no potencial ainda por explorar. Essa atitude ambígua se manifesta

de modo agudo com a constrangedora baixa quantidade de genes163 encontrada no genoma

(o qual, como já diz o nome, enseja uma empreitada para recensear... genes). Todos

parecem surpresos com o fato de que as diferenças entre espécies não podem ser atribuídas

somente aos genes, motivo e objetivo do PGH, assim como a doença e a variação

161 “Although these searches highlight the power of the new genomic information, they also reveal important limitations. In particular, the existence of a related gene sequence does not mean that there is a corresponding protein: the sequence could be a non-expressed pseudogene. (...) Expression studies will be required to complement genomic information. A final caveat is that many of the factors are components of multi-subunit complexes. Sometimes the same factor is present in multiple complexes whose activities differ substantially. Thus, the full value of the genomic information can be realized only when it is coupled with appropriate biochemical studies.” 162 “This is one case where small science will yield a better product than the industrial approach required for sequencing.”

118

individual tampouco podem ser sempre correlacionadas com mutações em regiões

“codificantes” (RUBIN, 2001, P. 820; PELTONEN e McKUSICK, 2001, p. 1225). A

própria identificação e mapeamento de SNPs (polimorfismos de nucleotídeo único), grande

esperança de aceleração na descoberta de variações de genes associadas com moléstias,

representa na realidade uma sofisticação nas técnicas tradicionais de mapeamento e

clonagem de genes, pouco acrescentando em matéria de explicação – são mais marcadores

precisos do que sítios de identidade em sentido estrito, pois menos de 1% dos encontrados

impacta a função de proteínas (VENTER et al., 2001, p. 1330). A única reação vigorosa ao

aspecto “provocativo” do baixo número de genes, que chama de “aparente paradoxo do

valor N”, é CLAVERIE (2001), para quem o problema está não em N (número de genes),

mas em k (a complexidade biológica da espécie humana, a seu ver superestimada). Ele nega

que apenas uma abordagem sistêmica seja capaz de revelar os segredos do genoma e renova

uma profissão de fé nas graças do reducionismo, argumentando que o DNA da espécie não

é mais complexo do que um jato moderno, com suas 200.000 peças em interação (cujo

comportamento nem por isso é descrito como não-determinístico): “Dessa maneira, eu

acredito que o uso de simples modelos regulatórios hierárquicos (...) será mais uma vez

suficiente para gerar rapidamente a maioria dos resultados significativos em genômica

funcional” (CLAVERIE, 2001, p. 1256; ênfase minha).164

Jean-Michel Claverie é uma voz isolada, porém. A maioria dos que escrevem nas

duas edições “históricas” da Nature e da Science pressentem que há problemas à frente para

essa estratégia de pesquisa, ainda que fiquem muito longe de desqualificá-la. BALTIMORE

(2001, p. 815), com a autoridade de quem foi um crítico precoce do PGH e na sua

finalização se apresenta como um adepto sóbrio, resume bem essa duplicidade afirmando

que a análise pós-seqüenciamento permite responder muitas questões globais, mas que os

detalhes – enfim, o que importa, em qualquer pesquisa e sobretudo no PGH — continuam

em aberto:

163 Que será discutida em maior detalhe no próximo capítulo. 164 “Accordingly, I believe that the use of simple hierarchical regulatory models in conjunction with the spectacular development of high-throughput analyses (microarray, two-hybrid system, proteomics, chemical screening, etc.) will again be sufficient to rather quickly generate most of the significant results in functional genomics.”

119

... fica claro que não obtivemos nossa indubitável complexidade sobre vermes e plantas pelo uso de muito mais genes. Compreender o que de fato nos dá nossa complexidade – nosso enorme repertório comportamental, nossa capacidade de produzir ação consciente, nossa notável coordenação física (partilhada com outros vertebrados), nossas modificações finamente sintonizadas em resposta a variações externas do ambiente, nosso aprendizado, memória... preciso continuar? — permanece como um desafio para o futuro.165 (BALTIMORE, 2001, p. 816)

Ocorre que a genômica não representa somente uma estratégia de pesquisa

biológica, mas também um sistema técnico em formação, que começa a enfrentar

dificuldades e resistências para além das instituições de pesquisa que lançaram suas

sementes. Apesar de todo o entusiasmo dos investidores de risco com o binômio

biotecnologia/bioinformática no auge da bolha da alta tecnologia, simultâneo à divulgação

das duas seqüências-rascunho do genoma humano, pelo menos dois artigos nas edições

consideradas lançam alertas sobre dois pontos nevrálgicos: o problema da performance das

startups de genômica (abordado na norte-americana Science) e o das patentes (na britânica

Nature).

O alerta sobre o desempenho econômico parte de MALAKOFF e SERVICE (2001)

na seção noticiosa da Science. Eles abrem sua reportagem citando o anúncio das empresas

Millennium e Bayer, em janeiro de 2001, com muita fanfarra, de um novo antitumoral que

iniciaria testes clínicos de fase I (para verificar a segurança de um medicamento em poucas

dezenas de voluntários, antes de estudos de eficácia e dosagem) apenas oito meses após a

descoberta de um gene-alvo, uma economia de cerca de dois anos no processo habitual. As

companhias apresentaram a nova droga como um “marco” da indústria. Eles ressalvam que

o anúncio da Millennium e da Bayer poderia mesmo ser um sinal de que a genômica

começava enfim a cumprir suas promessas, mas recomendam cautela: “Essas alegações

expansivas não são incomuns na indústria da biotecnologia, que por mais de uma década

tem exagerado o potencial gerador de lucros do seqüenciamento do genoma humano,

apenas para ver muitas dessas alegações naufragarem num mar de tinta vermelha”

165 “...it is clear that we do not gain our undoubted complexity over worms and plants by using many more genes. Understanding what does give us our complexity — our enormous behavioural repertoire, ability to produce conscious action, remarkable physical coordination (shared with other vertebrates), precisely tuned alterations in response to external variations of the environment, learning, memory. . . need I go on? — remains a challenge for the future.”

120

(MALAKOFF e SERVICE, 2001, p. 1193).166 Os autores discriminam três ramos

principais de atividade: empresas produtoras de ferramentas (chips de DNA,

seqüenciadores); descobridoras de genes (genômica) e distribuidoras de informação; e

desenvolvedoras de medicamentos. Na sua avaliação, as oportunidades de negócios, nessa

fase de implantação do setor, se concentram no primeiro tipo de empresa, como fica

evidente pelo desempenho da Applied Biosystems na tabela abaixo, a única a apresentar

lucro entre 16 selecionadas:

DESEMPENHO DE ALGUMAS EMPRESAS DE GENÔMICA

Preço das ações* US$

(Máximo/mínimo no ano)

Faturamento em 2000 US$ milhões

(% de variação)

Lucro/ prejuízo

US$ milhões Tipo de empresa

Applied Biosystems 73 (43-160) 1,388 (14%) 186,3 Ferramenta Affymetrix 68 1/16 (42 5/16-163 1/2) 201 (84%) -13,1 Ferramenta

Incyte Genomics 22 13/16 (19-144 1/2) 194 (24%) -47 a -57 Informação/ ferramenta

Millennium Pharmaceuticals

43 9/16 (42 3/8-44 9/64) 213 (16%) -75 Ferramenta/ medicamento

Informax 11 1/2 (6 5/8-31 3/4) 17,1 (71%) -21 Ferramenta

Myriad Genetics 71 1/2 (19-138) 34 (34%) 8,7 Proteômica/ medicamento

Lexicon Genetics 13 (8-49 1/2) 11,5 (342%) -18,5 Informação/ ferramenta

Human Genome Sciences

54 9/16 (25-116 3/8) 21,4 (-9%) -225 Informação/ medicamento

Curagen 37 1/8 (18 3/8-128 ¼) 20,8 (38%) -27 Medicamento

Gene Logic 21 13/16 (13 15/16-152 1/2) 16,8 (25%) -18 Informação/ ferramenta

Celera Genomics 46.2 (27.8-276) 42,7 (247%) -92,7 Informação

Hyseq 15 (9 5/8-139 ½) 15,6 (143%) -22,3 Ferramenta/ medicamento

Biacore 42 (12 3/4-46 ¼) 28 (38%) 3,4 Proteômica Large Scale Biology 9,1 (5.5-33.5) 23,3 (45%) -8,2 Proteômica Oxford Glycosciences 19,25 (17.25-23.1) 6,5 (2%) -10,3 Proteômica Ciphergen Biosystems 8,4 (6.75-39.4) 6 (96%) 3,4 Proteômica Tabela 3: Quadro comparativo de 16 empresas de genômica (*) em 06.fev.2001 Fonte: MALAKOFF e SERVICE, 2001, p. 1201

Quanto aos outros dois tipos de empresa, muitas delas formadas por pesquisadores

no calor do entusiasmo pioneiro, o texto lança mão de uma apreciação cautelosa que se

revelaria profética:

166 “Such expansive claims are not unusual in the biotechnology industry, which for more than a decade has hyped the profitmaking potential of sequencing human genes, only to see many of those claims founder in a sea of red ink.”

121

... as companhias ainda precisam mostrar que podem seguir adiante assim tão rapidamente, de maneira rotineira e sustentada. Mesmo assim, alguns observadores estão céticos quanto a agilidade precoce traduzir-se em ciclos substancialmente mais curtos de desenvolvimento de medicamentos, pois grandes atrasos com freqüência ocorrem durante testes clínicos e no processo regulatório.167 (MALAKOFF e SERVICE, 2001, p. 1203)

No início de 2002, Craig Venter deixou a presidência da Celera Genomics, que

buscava reorientar-se para a área de desenvolvimento de medicamentos, diante da baixa

rentabilidade do modelo informacional. No ano seguinte seria a vez de outro pesquisador-

empresário, William Haseltine, da Human Genome Sciences, perder seu posto de direção.

De acordo com NIGHTINGALE e MARTIN (2004), a propalada revolução biotecnológica

anunciada pela genômica não passa de um mito, pois os dados sobre inovações

efetivamente obtidas por ela sugere muito mais que esteja seguindo o conhecido ritmo

incremental de substituição de tecnologias, que em geral nada tem de revolucionário:

O impacto limitado de biofármacos no sistema de saúde foi recentemente assinalado por Arundel e Mintzes, usando dados do sistema Prescrire, o qual (diferentemente dos dados da FDA) avalia o desempenho de novos medicamentos em relação a terapias preexistentes. Tais dados sugerem que, apesar dos gigantescos investimentos, apenas 16 biofármacos avaliados entre janeiro de 1986 e abril de 2004 foram considerados melhores do que ‘aperfeiçoamentos mínimos’ diante de terapias preexistentes. Tomadas em seu conjunto, essas evidências empíricas não oferecem apoio algum para a noção de que tenha ocorrido uma revolução biotecnológica. (2004, p. 566)168

A questão das patentes, por sua vez, é tocada de passagem num box de reportagem

na Science, em que se chama a atenção para o fato de que uma das conseqüências do baixo

número de genes “codificantes” no genoma humano será um acirramento das expectativas

patentárias, pois a mesma legião de pesquisadores candidatos a capitalistas estará

competindo pelos direitos de propriedade intelectual sobre um número menor de “bens”

genômicos potencialmente correlacionáveis com funções biológicas – um pouco como os

167 “...the companies still have to show that they can move that speedily on a routine, sustained basis. Even then, some observers are skeptical that early agility will translate into substantially shorter drug development cycles, as major delays often occur during clinical trials and in the regulatory process.” 168 “The limited impact of bio-pharmaceuticals on healthcare has recently been highlighted by Arundel and Mintzes using data from Prescrire, which (unlike FDA data) evaluates the performance of new drugs relative to pre-existing treatments. This data suggests that despite huge investments only 16 biopharmaceuticals evaluated between January 1986 and April 2004 were better than ‘minimal improvements’ over pre-existing

122

títulos de direitos de mineração se empilham sobre as mesmas áreas na Amazônia

brasileira, analogia tanto mais justificada por estarem todos esses cientistas metidos, como

garimpeiros de genes, numa verdadeira corrida pelo ouro genômico. Essa, aliás, é a

primeira constatação do artigo de BOBROW e THOMAS (2001, p. 763) na Nature: a

percepção pública de que a proteção patentária sobre seqüências de DNA está cada vez

mais remunerando a pura sorte – ou a velocidade169 — e não tanto a inventividade. Eles

também apontam a problemática da superposição de direitos sobre um mesmo trecho de

DNA, que só é boa para a proliferação de processos e de escritórios de advocacia

especializados, não para remunerar e assim incentivar o dispendioso desenvolvimento

eficaz de medicamentos, argumento-padrão em favor da patentabilidade dos genes. Eles

alertam para a possibilidade de que o conflito latente entre o interesse geral da sociedade e

o de pesquisadores-empresários acabe por macular a reputação do campo de pesquisa como

um todo, o que tem potencial para ameaçar o apoio político e financeiro de que a genômica

necessita para seguir adiante:

Na ausência de ação legislativa séria, as políticas têm evoluído em certa medida por meio de um diálogo no seio de um círculo limitado de participantes. Interesses comerciais, que são bem representados nos escritórios de patentes, não têm sido contrabalançados por aqueles que representam os interesses mais amplos do público. O resultado tem sido uma tendência inata do sistema patentário para “deslizar” na direção de estender a patentabilidade a invenções biotecnológicas para as quais os limiares de novidade, inventividade e utilidade foram rebaixados.170 (BOBROW e THOMAS, 2001, p. 763)

Tal ameaça aos interesses continuístas do sistema tecnogenômico não entraram

somente no radar de profissionais do questionamento como Sandy Thomas, diretora do

Nuffield Council on Bioethics, do Reino Unido. Na Science, o tema é abordado, entre

outros, por dois senadores norte-americanos, um republicano e outro democrata – como

para demonstrar que o genoma humano (ou melhor, a genômica) está acima de

preocupações terrenas, como a política partidária: “... o público precisa entender as novas

treatments. Taken together this empirical evidence provides no support for the notion that there has been a biotechnology revolution.” 169 “Speed matters” (velocidade é importante) era a divisa da empresa Celera. 170 “In the absence of serious legislative action, policy has more or less evolved through dialogue within a limited circle of participants. Commercial interests, which are well represented to the patent offices, have not been counter-balanced by those who represent the broader public interest. The result has been an innate tendency for the patent system to 'creep' in the direction of extending patentability to biotechnology inventions for which the thresholds for novelty, inventiveness and utility have been lowered.”

123

tecnologias, de modo a que temores infundados não se desenvolvam e retardem o

progresso” (JEFFORDS e DASCHLE, 2001, p. 1251; ênfases minhas).171 As centenas de

autores do artigo do PGH na Nature também sentiram a necessidade de incluir nele um

reconhecimento de que se faz necessária uma readequação do seu campo de pesquisa no

imaginário social: “Precisamos estimular expectativas realistas de que os benefícios mais

importantes não serão colhidos da noite para o dia” (LANDER et al., 2001, p. 914).172

Essa mesma preocupação reapareceria três anos depois na edição comemorativa dos

50 anos da dupla hélice do periódico Nature, em longo artigo sobre o futuro da genômica.

A percepção de que a distância entre promessas e realizações pode se virar contra a boa

imagem da genômica aparece de forma oblíqua sob a rubrica da educação do público:

Adentramos uma singular ‘era educável’ em relação à genômica; profissionais de saúde e o público estão crescentemente interessados em aprender sobre genômica, mas a sua aplicação generalizada à saúde ainda está vários anos à frente. Para que o cuidado à saúde baseado em genômica tenha o máximo de eficácia, quando for amplamente factível, e para que os membros da sociedade tomem as melhores decisões sobre os usos da genômica, precisamos tirar proveito agora dessa oportunidade única de aumentar o entendimento.173 (COLLINS et al., 2003a, p. 841)

3.6 Reposicionamento estratégico: genomas para tudo

O texto de COLLINS et al. (2003a) publicado na época (abril de 2003) da

verdadeira finalização do genoma, quando este deixa de ser um mero rascunho, é uma peça

muito clara em seu objetivo de intervenção na esfera pública tecnocientífica com o

propósito de justificar a biologia como Big Science e de manter e ampliar a hegemonia

genômica em pesquisa biológica (aí incluídos derivados como proteômica, transcriptômica,

regulômica, metabolômica e outros termos que possam surgir nessa algo cômica

proliferação de neologismos). Propósitos similares inspiram texto correlato publicado na

171 “... the public must understand the new technologies so that unfounded fears will not develop and slow progress.” 172 “We must set realistic expectations that the most important benefits will not be reaped overnight.” 173 “We have entered a unique ‘educable era’ regarding genomics; health professionals and the public are increasingly interested in learning about genomics, but its widespread application to health is still several years away. For genomic-based health care to be maximally effective once it is widely feasible, and for members of society to make the best decisions about the uses of genomics, we must take advantage now of this unique opportunity to increase understanding.”

124

mesma época na concorrente Science, de autoria dos líderes das três principais entidades

promotoras do PGH (Institutos Nacionais de Saúde e Departamento de Energia, nos

Estados Unidos, e o Wellcome Trust, no Reino Unido), respectivamente Francis Collins,

Aristides Patrinos e Michael Morgan. Apesar do determinismo genético um tanto mitigado

– fala-se somente em seqüências genômicas que “guiam” e “influenciam” desenvolvimento

e função biológicos (COLLINS et al. 2003a, p. 835 e p. 844), não em causas de doenças

genéticas –, o vocabulário de ambos os textos permanece hiperbólico como nos idos de

2001: revolução, nova era, aventura, visionários, escala monumental, benefícios eternos,

desafio científico entusiasmante etc. Com todas as referências de praxe ao papel da

interação com o ambiente e à complexidade inerente ao genoma, o que interessa é assegurar

o fluxo de verbas, para que a promessa possa ser cumprida:

Os milhões de pessoas em todo o mundo que apoiaram nossa aventura para seqüenciar o genoma humano o fizeram na expectativa de que ele beneficiaria a humanidade. Agora, na alvorada da era genômica, torna-se crítico carrear a mesma intensidade para a derivação de benefícios do genoma que tem caracterizado o esforço histórico para obter a seqüência. Se o apoio à pesquisa prosseguir em níveis vigorosos, nós imaginamos que a ciência genômica logo começará a revelar os mistérios dos fatores hereditários da doença cardíaca, do câncer, do diabetes, da esquizofrenia e de uma série de outras condições.174 (COLLINS et al., 2003b, p. 290; ênfases minhas)

Em 2003, no entanto, a conjuntura mundial é inteiramente outra, após a eleição de

George W. Bush, o 11 de Setembro, a Guerra do Afeganistão e o início da Guerra do

Iraque. Desaparecem, por exemplo, as muitas referências ao PGH como esforço

internacional. O Reino Unido, de sua parte, busca capitalizar ao máximo, nas

comemorações oficiais do cinqüentenário da dupla hélice, o fato de a descoberta ter

acontecido no laboratório Cavendish da Universidade de Cambridge. O único resquício

daquele internacionalismo anti-Celera é o artigo conjunto dos próceres do PGH na Science,

mas uma leitura mais atenta indica que os textos mais relevantes para o futuro da genômica,

nas duas edições de abril de 2003, são o de COLLINS e seus colegas do Instituto Nacional

174 “The millions of people around the world who supported our quest to sequence the human genome did so with the expectation that it would benefit humankind. Now, at the dawning of the genome era, it is critical that we encourage the same intensity toward deriving medical benefits from the genome that has characterized the historic effort to obtain the sequence. If research support continues at vigorous levels, we imagine that genome science will soon begin revealing the mysteries of hereditary factors in heart disease, cancer, diabetes, schizophrenia, and a host of other conditions.”

125

de Pesquisa do Genoma Humano (NHGRI) dos Estados Unidos, na Nature, e o de cinco

autores do Departamento de Energia (DOE) na Science (FRAZIER et al., 2003). O

panorama que sobressai é o de uma espécie de tratado de Tordesilhas genômico, uma

redivisão dos territórios de pesquisa e seqüenciamento entre NHGRI (grosso modo, saúde

humana e genômica comparada de espécies animais) e DOE (genômica voltada para

ambiente e energia, com microrganismos e plantas).

Com uma capacidade instalada de seqüenciamento para empreender solitariamente a

soletração de 15 a 20 genomas do porte do humano em cinco anos (COLLINS et al., 2003a,

p. 844), o NHGRI adquiriu momento tecnológico suficiente para passar a concorrer com

seus antigos parceiros estrangeiros, em particular com os britânicos (Sanger

Centre/Wellcome Trust). Seus luminares traçam um plano continuísta para o futuro em que

a metáfora do Livro da Vida é substituída, implicitamente, pela de um Edifício da Vida, em

que o PGH é rebaixado à condição de mero alicerce para erguer três andares sucessivos:

Genômica para a Biologia, Genômica para a Saúde e Genômica para a Sociedade

(COLLINS et al., 2003a, p. 836). Primeiro piso: o objetivo é entender a arquitetura do

próprio genoma, compilando um catálogo de todos os seus elementos funcionais (e não

somente genes no sentido “codificante”). Segundo piso: aplicar as informações estruturais

do genoma na caracterização de doenças, de modo a criar uma nova taxonomia, molecular,

das mesmas, assim como desenvolver novas abordagens terapêuticas. Terceiro piso:

projetar conhecimentos genômicos para além do contexto clínico, extraindo conclusões nos

campos racial, étnico e comportamental e debatendo as conseqüências e limites éticos

desses usos.

Neste último andar (Genômica para a Sociedade) ouvem-se até mesmo ecos do

controverso programa sociobiológico de Edward O. Wilson, em meados dos anos 1970, de

fundamentar as ciências humanas na biologia e nos invariantes do comportamento humano

fixados pela evolução, retomado triunfalmente, décadas depois, no não menos polêmico

livro Consiliência (WILSON, 1999). Afirmam COLLINS et al. (2003a, p. 843) que a nova

disciplina tem potencial para fazer a ciência social avançar:

... a genômica pode também contribuir para outros aspectos da sociedade. Assim como o PGH e desenvolvimentos relacionados semearam novas áreas de pesquisa em biologia básica e saúde, também criaram oportunidades para pesquisa sobre questões sociais, mesmo

126

no que abarca a compreensão mais completa de como definimos a nós mesmos e aos outros.175

Não por acaso, o programa apresentado pelos autores do DOE na Science vem

batizado como Genomas Para a Vida (FRAZIER et al., 2003, p.290), como se fosse um

quarto andar no edifício do NHGRI, ou quem sabe um prédio vizinho. O projeto aqui é

estender as malhas da genômica a dois campos cruciais para a sustentabilidade da economia

em sua relação com a natureza, energia de fontes limpas e saneamento ambiental, com o

seqüenciamento de plantas e até de comunidades inteiras de microrganismos, na esperança

de aprender com eles soluções bioquímicas ancestrais para o enfrentamento de condições

ambientais extremas: “Um objetivo central deste programa é entender tão bem micróbios e

comunidades de micróbios, assim como suas máquinas moleculares e controles no plano

molecular, que possamos usá-los para satisfazer necessidades nacionais e do DOE”

(FRAZIER et al., 2003, p.291; ênfase minha).176 Em lugar de um patrimônio comum da

humanidade (a informação contida no genoma humano) e um imperativo moral (seqüenciar

o genoma para curar doenças e reparar a injustiça genética de que falam Watson e

Dulbecco), a biologia modelo Big Science começa a transferir-se para o domínio da

justificação com base num conjunto de valores mais em voga – a segurança nacional dos

Estados Unidos: “Conhecimento é poder, e nós precisamos desenvolver uma compreensão

ampla dos sistemas biológicos, se pretendermos usar suas capacidades eficazmente para

enfrentar desafios sociais tremendos” (FRAZIER et al., 2003, p.293).177

O novo aliado dos homens do DOE são os antigos “inimigos”, Craig Venter e seus

colaboradores da Celera, abrigados agora no Instituto para Alternativas Biológicas de

Energia178 fundado pelo egresso da presidência da empresa Celera com finalidades não por

coincidência muito próximas do programa Genomas Para a Vida, como se pode ler em seu

sítio de internet:

175 “... genomics can also contribute to other aspects of society. Just as the HGP and related developments have spawned new areas of research in basic biology and in health, they have also created opportunities for research on social issues, even to the extent of understanding more fully how we define ourselves and each other.” 176 “A central goal of this program is to understand the microbes and communities of microbes, and their molecular machines and controls at the molecular level so well that we can use them to address DOE and national needs.” 177 “Knowledge is power, and we must develop a comprehensive understanding of biological systems if we are to use their abilities effectively to meet daunting societal challenges.” 178 http://www.bioenergyalts.org/

127

O Instituto para Alternativas Biológicas de Energia (IBEA) é uma instituição baseada em pesquisa dedicada a explorar soluções para o seqüestro de carbono usando micróbios, vias metabólicas de micróbios e plantas. Por exemplo, a genômica pode ser aplicada para aperfeiçoar a capacidade de comunidades microbianas terrestres e oceânicas de remover carbono da atmosfera. O IBEA vai desenvolver e usar vias e metabolismo microbianos para produzir combustíveis com conteúdo energético aumentado de uma maneira ambientalmente saudável. O IBEA vai empreender engenharia genômica para entender melhor a evolução da vida celular e como esses componentes da célula funcionam conjuntamente num sistema vivo.179

Um dos primeiros resultados dessa parceria IBEA/DOE foi anunciado em abril de

2004: o seqüenciamento simultâneo dos genomas de todos os microrganismos encontrados

numa amostra de água do mar dos Sargaços, número estimado de pelo menos 1.800

espécies (mínimo de 148 desconhecidas), genomas entre os quais a equipe liderada pelo

IBEA garimpou mais de 1,2 milhão de genes inéditos para a biologia molecular,

identificados com base unicamente em análise por métodos computacionais (VENTER et

al., 2004, p. 66), dos quais nada menos que 782 estão provavelmente envolvidos na

especificação de proteínas fotorreceptoras e, portanto, no aproveitamento da luz solar.

Tanto para a saúde humana quanto para a do ambiente planetário, teve início, sim,

uma nova era –a da genômica por atacado. Resta saber se, a exemplo das dificuldades do

PGH, ela vai entregar tudo o que promete, ou se as novas expectativas criadas não

equivalem a uma fuga para a frente, uma amplificação da retórica maximalista que sempre

serviu, e bem, à marcha da biologia molecular em busca de hegemonia.

3.7 A salvação pelo controle

A biologia molecular e a genômica, em particular, representam o ápice da extensão

ao domínio da biologia da estratégia materialista e da valorização moderna do controle de

179 “Institute for Biological Energy Alternatives (IBEA) is a research-based institution dedicated to exploring solutions for carbon sequestration using microbes, microbial pathways, and plants. For example, genomics could be applied to enhance the ability of terrestrial and oceanic microbial communities to remove carbon from the atmosphere. IBEA will develop and use microbial pathways and microbial metabolism to produce fuels with higher energy content in an environmentally sound fashion. IBEA will undertake genome engineering to better understand the evolution of cellular life and how these cell components function together in a living system.” http://www.bioenergyalts.org/about.html

128

que fala Hugh LACEY (1998; 1999) e que antes fora tão bem-sucedida nos campos da

física e da química, por exemplo. Diferentemente destas, porém, não se pode dizer que a

estratégia materialista em genômica tenha engendrado propriamente teorias e leis cuja

aceitação e legitimação pudessem alimentar pretensões de universalidade, pois essa é mais

a expectativa dos biólogos moleculares em relação a essa nova disciplina de investigação:

que o acúmulo de informações genômicas de várias espécies e o aperfeiçoamento dos

métodos matemático-computacionais de análise acabem por conduzir à formalização de leis

biológicas propriamente ditas e com base nelas à capacidade de predição com precisão – e

portanto de controle sobre sistemas naturais vivos. O determinismo genético que inspira

aberta ou implicitamente muitos de seus esforços, por exemplo, não chega a erigir-se em

teoria; quando muito, pode ser encarado como um hábito ou esquema de pensamento que

pode ter sido heurístico, em outros tempos, mas que tem uma longa e controversa história –

basta dizer que um de seus arrimos, a noção de fluxo unidirecional de informação no

sentido DNA � RNA � proteína, recebeu de seu próprio criador, Francis Crick, o apelido

de Dogma Central da biologia molecular (como que para marcar a distância enorme em que

se encontrava de uma verdadeira lei natural).

O que vem exposto nos itens anteriores deste capítulo deve bastar para deixar

evidente o quanto a genômica se encontra distante de tornar-se uma teoria e quanto o corpo

de seus escritos explicativos extrapola a prosa científica estrita para enveredar num discurso

de tipo misto, que cumpre a dupla função de apresentar resultados parciais de esforços de

pesquisa bilionários e de justificar sua existência com base em benefícios futuros. Como

não pode – ainda, dirão seus defensores — apoiar-se firmemente em resultados de sua

aplicação, pois eles são muito incipientes (ao menos na comparação com as promessas

hiperbólicas), o discurso sobre/a favor da genômica tende a recorrer à construção de uma

espécie de mitologia molecular em que a própria genealogia do campo é reconstruída como

uma história de proporções épicas, ao longo do percurso Mendel � Watson e Crick �

Cohen e Boyer � PGH e Celera. Como não podem falar a partir da superioridade conferida

pela universalidade das leis e corroborada pelo binômio aplicabilidade/controle, seus

pesquisadores se encastelam numa espécie de elevação moral e ética, a partir da qual

lançam razzias punitivas contra aqueles – biólogos ou não — que apontam problemas na

estratégia materialista e/ou na valorização do controle, quando aplicadas a sistemas vivos,

129

uma classe de objetos que parece particularmente resistente a essa abordagem (o que não

quer dizer que sejam por princípio refratários a ela).

Os textos de pesquisadores próximos do PGH, por exemplo, manifestam o propósito

claro de monopolizar esse bastião de superioridade ética e dele expulsar aqueles que na sua

ótica aparecem como aventureiros argentários, da estirpe de Craig Venter, retratando-se a si

mesmos como cavaleiros do Graal da biologia em defesa de sua preservação para o bem da

humanidade, ou seja, a publicação imediata das seqüências de DNA obtidas para que

possam ser utilizadas por pesquisadores de qualquer parte do mundo (e inimigos portanto

da noção proprietária de conhecimento que inspirou a formação da empresa Celera). Essa é

evidentemente uma visão simplista dos interesses envolvidos, pois a teia de relações que

entrelaça pesquisa financiada com recursos públicos, patentes e empresas privadas tem

vários pontos de contato com centros e pesquisadores do PGH, como lembra Eliot

MARSHALL (2001, p. 1191) num texto noticioso da Science: cientistas do Instituto

Whitehead, um dos cinco maiores centros de seqüenciamento do PGH, participam, por

exemplo, de um consórcio com as empresas Affymetrix, Bristol-Myers Squibb e

Millennium para empacotar informação genômica em chips de DNA. A parceria pós-PGH

firmada pelo Departamento de Energia com o IBEA de Craig Venter, e ainda por cima para

garimpar genes de imediato interesse industrial, demonstra que não são nada claras as

linhas divisórias entre forças “do bem” e “do mal”, nesse campo.

Um dos mais destacados militantes da propaganda genômica é sem dúvida James

Watson, e deveria ser motivo de preocupação para os biólogos moleculares que ele seja sua

figura mais reconhecida e ouvida – não só por sua personalidade excêntrica e

congenitamente midiática, mas também porque, como autor, ele busca empregar todos os

canais disponíveis para propagar a mensagem pró-genômica e, no seu caso, também pró-

determinista. Se é verdade que as edições da Nature e da Science examinadas acima não

contêm nem um texto sequer de sua lavra, também é fato que há escritos seus para todos os

gostos e propósitos: livro-texto (Molecular biology of the gene), autobiografias (The double

helix e Genes, girls, and Gamow), coletâneas de ensaios (A Passion for DNA), livros de

divulgação científica (DNA – The secret of life), sítios na internet (www.dnai.org) e DVD

para uso no ensino secundário (DNA – The secret of life). Em seus escritos, que por sua

natureza e público dispensam muitas amarras do discurso científico nas revistas

130

especializadas, Watson pode permitir-se uma latitude de retórica inadmissível na prosa

técnica. Em sua expansividade, e apesar de deplorar a mistura de ideologia com ciência

(WATSON e BERRY, 2003, p. 372), o “estadista” da biologia molecular eleva a mescla de

valores cognitivos com valores sociais a um patamar inédito, no qual o genoma se torna

artigo de fé, o Livro da Vida que substituiria, com vantagem, a Bíblia e a Torá:

Aqueles de nós que não sentem necessidade de um código moral anotado nalgum tomo antigo podem lançar mão, na minha opinião, de uma intuição moral inata, há muito moldada pela seleção natural, que promoveu a coesão social em grupos de nossos antepassados. (...) Poderia acontecer de, à medida que o conhecimento genético crescer nos séculos vindouros, com mais e mais indivíduos alcançando o entendimento de si mesmos como produtos de lances aleatórios de dados (...), vir a ser santificada uma nova gnose, muito mais antiga, na realidade, do que as religiões de hoje. Nosso DNA, o livro de instruções da criação humana, pode bem vir a rivalizar com escrituras religiosas como o guardião da verdade.180 (WATSON e BERRY, 2003, p. 404)

O corolário de ser esse livro sagrado mero fruto do acaso é que tal religião se

revelaria também uma religião pragmático-libertária, que teve seu primeiro advento na

descoberta da dupla hélice (1953, com Watson e Crick) e o segundo na invenção dos meios

para decifrá-la e modificá-la (1973, com Cohen e Boyer), quando os homens de ciência

passam a comungar na graça do controle: “Chegara o tempo de tornar-se pró-ativo. Bastava

de observações: nós estávamos sendo chamados pela perspectiva da intervenção, da

manipulação de coisas vivas. O advento das tecnologias de DNA recombinante, e com elas

da capacidade de talhar moléculas de DNA, tornaria tudo isso possível” (WATSON e

BERRY, 2003, p. 85).181

180 “Those of us who feel no need for a moral code written down in an ancient tome have, in my opinion, resource to an innate moral intuition long ago shaped by natural selection promoting social cohesion in groups of our ancestors. (...) It could be that as genetic knowledge grows in centuries to come, with ever more individuals coming to understand themselves as products of random throws of the genetic dice (...) a new gnosis in fact much more ancient than today’s religions will come to be sanctified. Our DNA, the instruction book of human creation, may well come to rival religious scripture as the keeper of the truth.” 181 “The time had come to become proactive. Enough observation: we were beckoned by the prospect of intervention, of manipulating living things. The advent of recombinant DNA technologies, and with them the ability to tailor DNA molecules, would make all this possible.”

131

CAPÍTULO 4

Outras biologias: sistemas de desenvolvimento

4.1 A complexidade redescoberta do genoma

A culminação do determinismo genético representada pelo anúncio em fevereiro de

2001 dos dois trabalhos científicos com as seqüências-rascunho do genoma humano nos

periódicos Nature e Science, tal como descrita no capítulo anterior, comportou também um

aspecto anticlimático. Na imprensa especializada como na leiga, o tom de surpresa

decepcionada gravitou em torno do reduzido número total de genes (unidades

transcricionais) identificados e estimados na análise das duas seqüências do genoma

humano, respectivamente 30.000-40.000 unidades transcricionais, no caso do Consórcio

Internacional de Seqüenciamento do Genoma Humano (LANDER et al., 2001, p. 900), e

26.000-38.000, no caso da iniciativa liderada pela empresa Celera Genomics; o número

anteriormente aceito era da ordem de 100.000, com estimativas variando de 50.000 a mais

de 140.000 (VENTER et al., 2001, p. 1305 e 1346).182 Por essa visão anterior, haveria um

gene para cada proteína que se acredita existir no repertório molecular da espécie humana.

Com seu patrimônio genético reduzido a modestos um terço ou um quarto da variedade

antes projetada, os seres humanos viram encurtar-se drasticamente a distância

informacional que deveria separá-los de espécies muito menos complexas, como a mosca

Drosophila melanogaster, com seus prováveis 13.000 genes, e o verme Caenorhabditis

elegans, com 19.000.183

A data desse rebaixamento genético do Homo sapiens sapiens foi comemorada por

críticos precoces do Projeto Genoma, como Stephen Jay Gould, como “um grande dia na

história da ciência e do entendimento humano em geral”. Num artigo para a página de

Opinião do jornal The New York Times, o paleontólogo, ensaísta e teórico da evolução de

182 A disparidade de cerca de 25% entre as cifras estimadas para o total de “genes” humanos, nos dois trabalhos experimentalmente mais próximos do que se supõe seja a realidade física do genoma, já permite vislumbrar o grau de incerteza envolvido nessas análises. Mesmo essa margem de 30.000-38.000 “genes” permanece objeto de polêmica, com pelo menos uma revisão publicada elevando o total para a faixa de 65.000-75.000 genes (WRIGHT et al., 2001), com base na constatação de que apenas 1 de cada 5 “genes” encontrados ou previstos aparece em ambos os trabalhos e na premissa de que ferramentas computacionais são insuficientes para identificar todas as unidades transcricionais. 183 Anônimo. Science, no. 5507, vol. 291, p. 1178 (tabela “Sequenced organisms”).

132

Harvard qualificou a descoberta como uma oportunidade para a sociedade libertar-se do

determinismo genético:

A complexidade humana não pode ser gerada por 30.000 genes sob a antiga visão da vida corporificada no que geneticistas literalmente chamaram (aparentemente com algum senso de excentricidade) de seu “dogma central”: o DNA fabrica RNA, que fabrica proteína –em outras palavras, uma direção [única] de fluxo causal do código para a mensagem e para a montagem da substância, com um item de código (um gene) fabricando no final um item de substância (uma proteína), e carradas de proteínas fabricando um corpo. Essas 142.000 mensagens [proteínas] existem sem dúvida, como é necessário para que construam a complexidade de nossos corpos, o que termina expondo como nosso erro anterior a suposição de que cada mensagem vinha de um gene distinto.184 (GOULD, 2001)

Mais surpreendente, porém, foi ver uma interpretação semelhante ser lançada na

arena pública pela maior celebridade científica das fileiras genômico-reducionistas, J. Craig

Venter, o então presidente da Celera Genomics. Por ocasião da publicação do artigo com a

seqüência-rascunho obtida sob sua liderança, a revista Science distribuiu a jornalistas

especializados um press-release com observações do pesquisador-empresário sobre o

“marco da ciência” erigido por ele e 283 co-autores:

O pequeno número de genes – 30.000 em vez de 140.000 – apóia a noção de que nós não somos circuitos pré-impressos [hard wired]. Agora sabemos que é falsa a noção de que um gene leva a uma proteína e talvez a uma moléstia. Um gene leva a muitos produtos diferentes e esses produtos – proteínas – podem mudar dramaticamente depois de serem produzidos. Sabemos que regiões do genoma que não constituem genes podem ser a chave para a complexidade que enxergamos em seres humanos. Agora sabemos que o ambiente, ao agir sobre esses passos biológicos, pode ser a chave para nos fazer o que somos.185 (THE SEQUENCE, 2001)

184 “Human complexity cannot be generated by 30,000 genes under the old view of life embodied in what geneticists literally called (admittedly with a sense of whimsy) their ‘central dogma’: DNA makes RNA makes protein –in other words, one direction of causal flow from code to message to assembly of substance, with one item of code (a gene) ultimately making one item of substance (a protein), and the congeries of proteins making a body. Those 142,000 messages no doubt exist, as they must to build our bodies’ complexity, with our previous error now exposed as the assumption that each message came from a distinct gene.” 185 “The small number of genes –30,000 instead of 140,000– supports the notion that we are not hard wired. We now know that the notion that one gene leads to one protein and perhaps to one disease is false. One gene leads to many different products and these products –proteins– can change dramatically after they are produced. We know that regions of the genome that are not genes may be the key to the complexity we see in humans. We now know that the environment acting on these biological steps may be key in making us what we are.”

133

Com efeito, como disse Venter no mesmo comunicado, a compreensão do genoma

vinha mudando muito nos pouco mais de seis meses transcorridos desde que ele e Francis

Collins haviam anunciado a conclusão da montagem da seqüência-rascunho na companhia

de Bill Clinton e Tony Blair, em junho de 2000. Na realidade, essa transformação

conceitual já vinha ocorrendo no cotidiano dos laboratórios de genômica, tal como pode ser

inferido da publicação de um artigo na mesma revista Science, mais de dois anos antes, em

que um biólogo molecular já registrava publicamente – ao menos para seus pares – que “as

realidades da organização do genoma são muito mais complexas do que é possível

acomodar no conceito clássico de gene” (GELBART, 1998, p. 660).186 Dois anos depois,

mas ainda antes da célebre cerimônia com Clinton e Blair, Gelbart assinaria, com 54 de

seus pares, outro artigo na Science em que se retirava o seguinte ensinamento da

comparação dos genomas então concluídos de eucariotos:187 “A lição é que a complexidade

aparente nos metazoários [no caso a mosca D. melanogaster e o verme C. elegans] não é

engendrada pelo simples número de genes” (RUBIN et al., 2000, p. 2214).188

Desde então, a pedra angular do determinismo genético – a saber, a correspondência

um gene/uma proteína/uma característica fenotípica (como determinada doença) – só fez

esfarelar-se. O fator mais corrosivo do conceito tradicional de gene reside sem dúvida na

recém-descoberta amplitude do fenômeno biomolecular conhecido como “processamento

alternativo” (alternative splicing).189 Um exemplo célebre do potencial de variação

oferecido por esse mecanismo de regulação celular – incorporado já até mesmo nos livros-

texto para estudantes de biologia molecular e celular – é o do transcrito slo, que especifica

ligeiras mudanças na estrutura de canais de íons em neurônios ciliados do ouvido interno de

vertebrados e, com isso, torna essas células seletivamente sensíveis a freqüências

determinadas de som na faixa de 50 Hz a 5.000 Hz: com base em oito posições no RNA

186 “(...) the realities of genome organization are much more complex than can be accommodated in the classical gene concept”. 187 Aqueles organismos cujas células têm núcleos definidos. 188 “The lesson is that the complexity apparent in the metazoans is not achieved by sheer number of genes.” 189 Depois de formado a partir de uma seqüência de DNA no núcleo, o transcrito primário de RNA é submetido já no citoplasma à excisão de trechos (correspondentes ao que se chama de “íntrons”) que não especificam a seqüência de aminoácidos da proteína em produção e à reunião contígua de trechos especificadores, correspondentes aos “éxons”. A exclusão de íntrons e a junção de éxons constitui o fenômeno de emenda (splicing), que no entanto não resulta sempre no mesmo produto: dependendo de condições observadas no estado da célula, ou mesmo do tipo de célula em que ocorre a síntese da proteína em questão, a emenda pode omitir e rearranjar trechos especificadores (éxons), resultando em proteínas diversificadas (ditas “isoformas”).

134

mensageiro (mRNA) em que éxons alternativos podem ser usados, o processamento

permite até 576 variantes (isoformas) da proteína que compõe o canal de íons, muito

embora não haja comprovação experimental de que todas as isoformas são efetivamente

expressadas (LODISH et al., 1999, p. 426). O próprio artigo do Consórcio Internacional na

Nature anunciando a seqüência-rascunho do genoma alertava para a possibilidade de que

nada menos que a metade dos genes humanos seja afetada pela emenda alternativa

(LANDER et al., 2001, p. 914).

Após a publicação das seqüências-rascunho do genoma humano, a tentativa de

compreender esses mecanismos não-lineares de produção de variação molecular

desencadeou uma atividade frenética de pesquisa. Participam da análise e interpretação das

seqüências de DNA grupos de pesquisa do mundo todo, inclusive do Brasil – no caso, a

rede de cientistas reunidos no Genoma do Câncer, projeto financiado pela Fapesp

(Fundação de Amparo à Pesquisa do Estado de São Paulo) e pelo Ludwig Institute for

Cancer Research. Essa rede participa do esforço de inventariar os genes contidos no

genoma humano com uma metodologia original, o processo ORESTES,190 que até outubro

de 2001 havia depositado 700.000 seqüências de transcritos (genes e pedaços de genes, ou

candidatos a tanto) em bancos de dados internacionais, como o GenBank (CAMARGO et

al., 2001, p. 12103). Nesse mesmo artigo destacado na capa da revista Proceedings of the

National Academy of Sciences dos Estados Unidos, os cem autores do grupo brasileiro

afirmam: “Depois da geração da seqüência-rascunho do genoma humano, a prioridade

agora é definir todos os genes humanos e seus transcritos correspondentes. Está claro agora

que só a seqüência do genoma não é suficiente para permitir isso” (CAMARGO et al.,

2001, p. 12107).191 No comentário que acompanha o artigo brasileiro, dois cientistas do

National Cancer Institute dos Estados Unidos concedem que “o número de genes é apenas

um mecanismo para criar a diversidade genética requerida para codificar o conjunto

190 Acrônimo formado a partir do nome em inglês da técnica, “open reading frame expressed sequences tags”, que difere do método tradicional para localizar genes numa seqüência de DNA, ESTs (“expressed sequences tags”), “por fornecer dados de seqüências da porção central codificadora de proteínas dos transcritos” (CAMARGO et al., 2001) 191 “After the generation of the human genome draft sequence, the priority is now to define all human genes and their corresponding transcripts. It is now clear that the genome sequence alone is not sufficient to allow this.”

135

completo de proteínas humanas” (STRAUSBERG e RIGGINS, 2001, p. 11837).192 E dão

mais um exemplo eloqüente da ação da emenda alternativa, que é capaz de produzir nada

menos do que 14 versões do gene BRCA1, um dos mais estudados entre os que podem

tornar-se ativos no fenótipo do câncer de mama (STRAUSBERG e RIGGINS, 2001, p.

11838).

É fácil de entender, com base nessas constatações da não-linearidade da relação

gene/proteína/traço fenotípico, o júbilo manifestado por outros adversários precoces do

Projeto Genoma Humano (PGH), como Barry Commoner, diretor do Projeto Genética

Crítica no Queens College da City University of New York. Num artigo polêmico para a

revista não-especializada Harper’s Magazine, o cientista denuncia os “fundamentos

espúrios da engenharia genética” e o colapso das teorias por trás do PGH “sob o peso dos

fatos”, vale dizer, diante da descoberta de que o número reduzido de genes humanos seria

incapaz de dar conta da complexidade manifestada na espécie. Commoner retoma a

formulação do Dogma Central proposta por Francis Crick num trabalho clássico193 de 1958

(citado por COMMONER, 2002, p. 41) – “uma vez que a informação [seqüencial] tenha

passado para a proteína, não pode retornar” – e toma ao pé da letra o zelo e as entonações

escriturais do co-descobridor da estrutura do DNA: “Para enfatizar a importância desse tabu

genético, Crick apostou nele o futuro de todo o empreendimento, asseverando que ‘a

descoberta de apenas um tipo de célula nos dias de hoje’ no qual informação genética tenha

passado da proteína para o ácido nucléico ou de proteína para proteína ‘abalaria toda a base

intelectual da biologia molecular’ ” (COMMONER, 2002, p. 47).194

Pode-se, é evidente, discutir indefinidamente se a emenda alternativa implica

reversão do fluxo unidirecional de informação, DNA � RNA � proteína;195 em sentido

literal, parece manifesto que isso não ocorre, ao menos não neste caso (a seqüência de DNA

permanece inalterada; o que varia é seu produto, ou seja, a seqüência de aminoácidos na

proteína sintetizada a partir do trecho de DNA em questão); esse é o argumento de

192 “(...) it is now clear that gene number is only one mechanism for creating the genetic diversity required to encode the full complement of human proteins.” 193 CRICK, Francis H.C. On Protein Synthesis. Symposium of the society for experimental biology XII, p. 153. Nova York: Academic Press, 1958. 194 “To stress the importance of this genetic taboo, Crick bet the future of the entire enterprise on it, asserting that ‘the discovery of just one type of present-day cell’ in which genetic information passed from protein to nucleic acid or from protein to protein ‘would shake the whole intellectual basis of molecular biology’.”

136

MORANGE (2001, p. 167). Também se pode ponderar – como fez MAYNARD SMITH

(2000, p. 43) – que não há proteínas ou RNAs, na espécie humana ou em qualquer outra,

que não tenham sido em algum momento especificados por uma seqüência de ácido

nucléico. De todo modo, o fato é que, se se admite que a definição de gene é de cunho

funcional (ou seja, dependente daquilo que seu conteúdo informacional especifica), como

parece ser a intenção implícita no Dogma Central, o DNA perde o monopólio da

informação necessária para o funcionamento da célula, uma vez que o resultado – a

composição, a forma e portanto a função das proteínas que o põem em marcha – também é

co-influenciado por sinais citoplasmáticos, extranucleares, independentes do DNA

cromossômico (representados por outras proteínas e vários tipos de RNA que interagem

furiosamente no citoplasma e no núcleo, e cuja teia de inter-relações caracteriza o estado da

célula como um todo). O esquema informação codificada � tradução � mensagem já não

dá conta da complexidade da síntese de proteínas, que de resto nem é iniciada pelo DNA,

mas por cascatas de sinais provenientes do citoplasma e, em última análise, desencadeadas

pelo ambiente da própria célula, seja ele representado por outras células com as quais

mantém contato, por hormônios produzidos em outros tecidos e infiltrados naquele ao qual

pertence, ou mesmo pelo meio externo em que vive o organismo.

Outra voz que se levantou para reivindicar vitória intelectual e teórica foi a de Mae-

Wan Ho, ela também crítica militante do determinismo genético que sempre esteve na raiz

do PGH. Num press-release distribuído por seu Institute of Science in Society (I-SIS) dois

dias depois da divulgação das seqüências-rascunho, Ho elogiou J. Craig Venter como o

único a ter tirado as conclusões corretas daqueles achados genômicos: “O número de genes

é muito menor do que o necessário para apoiar as afirmações extravagantes feitas ao longo

da década passada, de que genes individuais não apenas determinam como nossos corpos

são construídos, de que moléstias sofremos, mas também nossos padrões de

comportamento, nossa capacidade intelectual, preferência sexual e criminalidade” (HO,

2001, p. 1).196 Mais adiante:

195 Unidirecionalidade que já havia sido posta em causa pela descoberta da enzima transcriptase reversa, em 1970, por David Baltimore e, independentemente, Howard Temin. 196 “The number of genes is far less than needed to support the extravagant claims throughout the past decade that individual genes not only determine how our bodies are constructed, what diseases we suffer from, but also our patterns of behaviour, our intellectual ability, sexual preference and criminality.”

137

Muito antes de nos dizerem que não há genes suficientes para sustentar a visão do determinismo genético, vários cientistas já haviam concluído que não há explicações simplistas para doenças em termos de genes individuais, porque a ação de cada gene é modificada e afetada por muitos outros genes. A conexão entre genes e doença torna-se ainda mais tênue quando se trata de condições como câncer, doença cardíaca, diabete, esquizofrenia, inteligência, alcoolismo e comportamento criminoso, nas quais fatores ambientais e sociais predominam em escala crescente.197 (HO, 2001, p. 3)

Essa é talvez a conclusão mais importante a ser extraída da literatura científica

publicada em periódicos como Nature, Science ou Proceedings of the National Academy of

Sciences (PNAS): a insatisfação com a estreiteza unidimensional da noção de gene não

surge apenas entre críticos contumazes do determinismo, mas também entre os próprios

pesquisadores engajados no programa experimental genômico, diante da crescente

complexidade do genoma observada na prática dos laboratórios, ou deduzida por meio de

análises in silico (nas imensas bases de dados que reúnem informação genômica), uma

forma de pesquisa por simulação que cresce em popularidade entre biólogos. Além do

processamento alternativo do RNA, avoluma-se a lista dos fenômenos celulares que tornam

cada vez menos plausível a causalidade genética simples, unidirecional, do tipo um

gene/um traço fenotípico. Eis uma relação preliminar198 de atividades e interações no

interior da célula que extravasam o esquema tradicional do determinismo:

• Edição de transcritos – Após o processamento alternativo de éxons, ou seja, da

montagem da seqüência de bases (“letras”) especificadora da ordem dos aminoácidos

na proteína, o RNA transcrito pode ainda sofrer pequenas modificações por moléculas

presentes no citoplasma da célula, por exemplo a troca de uma de suas bases antes da

síntese protéica – processo descoberto em meados dos anos 80 e batizado como

“edição” (editing) que afeta a seqüência da proteína, fazendo com que divirja do

“código” contido no DNA (LODISH et al., 1999, p. 437);

197 “Long before we were told there aren’t enough genes to support the genetic determinist view, many scientists have concluded that there are no simplistic explanations for diseases in terms of single genes, because the action of each gene is modified and affected by many other genes. The connection between genes and disease becomes all the more tenuous when it comes to conditions such as cancer, heart disease, diabetes, schizophrenia, intelligence, alcohol abuse and criminal behaviour, where environmental and social factors increasingly predominate.” 198 Com a enorme produção de pesquisas nessa área da biologia, as referências indicadas abaixo correm o risco de desatualizar-se, mas o mesmo não deve ocorrer com os 11 itens relacionados a seguir, pois tudo indica que constituem tendências sustentáveis na pesquisa em biologia molecular.

138

• Proteínas poligênicas – De certa maneira, o oposto do processamento alternativo (um

gene traduzido em diversas variantes da proteína). Neste caso, descobriu-se que tipos

variantes da mesma proteína (isoformas) podem originar-se de pontos separados do

genoma, até mesmo de cromossomos diferentes. Foi o que encontraram por exemplo

pesquisadores alemães ao comparar proteínas produzidas nos cérebros de duas espécies

de camundongos (Mus musculus e Mus spretus): “Nossos achados mostram (...) que

diferentes tipos da mesma proteína podem ser mapeados em diferentes loci do genoma.

Conseqüentemente, mesmo uma única proteína pode ser considerada como um traço

poligênico” (KLOSE et al., 2002, p. 2); 199

• Moldura móvel (frameshifting) – A maquinaria celular que faz a síntese da proteína,

ou seja, que traduz as “palavras” de três “letras” do RNA (ou códons, cada um

composto por três bases), pode ler a “mensagem” de mais de uma maneira, começando

ou terminando em pontos diversos da seqüência, ou “lendo” quatro bases como se

fossem três – mudando assim o conteúdo de todos os códons abaixo daquele ponto e

também a seqüência de aminoácidos na proteína sintetizada (LODISH et al., 1999, p.

118);

• Silenciamento de genes – Mecanismo de reconhecimento de seqüências homólogas,

aparentemente útil para proteger o genoma de formas parasíticas de ácidos nucléicos

(indutoras de sua própria duplicação, como no caso de organismos patógenos

invasores), que no entanto podem acarretar modificações estruturais do cromossomo

capazes de silenciar um gene (impedir sua expressão, ou seja, a síntese da proteína que

tal seqüência especifica). O fenômeno foi descoberto quando, na tentativa de introduzir

seqüências de DNA estranhas para produzir fungos, plantas e animais transgênicos,

engenheiros genéticos verificaram que as múltiplas cópias assimiladas do gene de

interesse como que se cancelavam umas às outras (WOLFFE e MATZKE, 1999, p.

481). Pode envolver tanto DNA quanto RNA e ocorrer antes ou depois da transcrição

do DNA em RNA. Aparentemente, fitas duplas de RNA são muito eficazes para

reprimir a expressão de seqüências correspondentes de DNA no cromossomo – uma

indicação, segundo disse à revista Science Craig Mello, do University of Massachusetts

199 “Our findings [therefore] show that different types of the same protein may map to different loci on the genome. Consequently, even a single protein can be considered as a polygenic trait.”

139

Cancer Center, de que o RNA está falando de volta ao DNA, um desafio claro ao

Dogma Central de Crick; “tal fluxo retrógrado de informação seria realmente notável”

(MARX, 2000, p. 1372);

• Pseudogenes e similares – O genoma humano está coalhado de seqüências que

testemunham um processo dinâmico de evolução, como as duplicações promovidas –

entre outras maneiras – por RNAs transcritos (retrotransposições), que podem gerar

tanto seqüências de DNA ativas e funcionais no genoma (novos genes, chamados de

intronless paralogs, ou parálogos sem íntrons) quanto trechos inativos (pseudogenes).

No seqüenciamento do genoma capitaneado pela empresa Celera, foram catalogados

nada menos do que 1.077 blocos duplicados de DNA, com seqüências de cerca de 3.522

genes, cada bloco contendo de 3 a pelo menos 5 dessas seqüências funcionais

(VENTER et al., 2001, p. 1323 e 1329). Na escala de tempo da evolução, essas

movimentações drásticas da paisagem genômica permitiriam a emergência de novos

genes e de novas “famílias de genes” (HUTTER et al., 2000), matéria-prima para a

seleção natural produzida por um processo muito mais complexo de rearranjo que a

representação tradicional da mutação pontual (alteração aleatória de uma única base na

seqüência de DNA);

• “Exaptação” genômica – Não só o genoma como sistema deixa de ser visto como um

gerador de mutações aleatórias para posterior seleção natural como começa a

transformar-se numa totalidade em fluxo, em que módulos inteiros de que se compõem

proteínas ou vias metabólicas podem ressurgir do ostracismo genômico (em geral na

forma de heterocromatina200). Assim é que uma proteína originalmente envolvida na

digestão de animais ruminantes, por sua capacidade de degradar RNA das bactérias em

seu trato digestivo, aparece também com estrutura semelhante e função diversa, como

atividade de defesa anti-retroviral (retrovírus usam RNA para infectar células), em

primatas (ZHANG e ROSENBERG, 2002; BENNER, 2002). Em lugar de uma

adaptação de tipo darwinista clássico, tem-se uma forma de aproveitamento de vestígios

200 Parte da cromatina (arranjo de proteínas em que se enrola e compacta o DNA dos cromossomos) que permanece condensada e inativa quando a célula não está se dividindo e era considerada pobre em seqüências especificadoras de proteínas (diferentemente da eucromatina). Mas “genes” recentemente duplicados e “pseudogenes” têm sido encontrados na heterocromatina, e se acredita que essa parte dos cromossomos possa estar diretamente envolvida em processos como o silenciamento de “genes”.

140

do passado que já foi batizada por Stephen Jay Gould e Elizabeth Vrba,201 em outro

contexto, como exaptação, um dos fenômenos fundamentais da evolução (BROSIUS e

GOULD, 1992);

• Evolução acelerada por módulos – De maneira similar, sistemas de desenvolvimento

que demandam alta variabilidade parecem observar fases intensas de permutação de

módulos e motivos de transcrição, por aumento da complexidade dos mecanismos de

regulação e não do acréscimo do número de genes ao genoma. Esta seria a origem,

segundo análise comparativa de proteínas expressadas em leucócitos, fígado e cérebros

de seres humanos, chimpanzés, orangotangos e macacos resos, da discrepante

complexidade do cérebro humano, cujas proteínas ativas são as únicas a divergir

marcadamente em número desses outros primatas (à diferença do número de genes202 e

de proteínas dos outros tecidos analisados). “A aceleração aparente da linhagem

humana é maior no cérebro (3,8 vezes) do que no fígado (1,7 vez), levantando a

possibilidade de que padrões de expressão gênica possam ter mudado mais no cérebro

do que no fígado durante a evolução humana recente”,203 escreveram os autores do

estudo (ENARD et al., 2002, p. 340). Esse resultado essencialmente experimental

encontra eco numa concepção teórica da complexidade em que a quantidade de genes (e

portanto sua concepção clássica com seqüências identificáveis de DNA que especificam

os aminoácidos e a estrutura de uma proteína) já não tem lugar: “Com um número

limitado de genes, vertebrados conseguem codificar dois subsistemas altamente

complexos, que são especializados na acumulação, armazenamento e recuperação de

informação, a saber, o sistema imune e o sistema nervoso” (SZATHMÁRY, JORDÁN

e PÁL, 2001);204

• Acoplamento (coupling) de máquinas de expressão – Estudos vêm revelando que os

vários componentes da maquinaria celular envolvida na leitura do DNA e no

processamento do RNA em vários passos, até que esteja maduro para sua tradução

201 Paleobiology, vol. 8, p. 4-15 (1982). 202 Homens e chimpanzés têm 98,7% de identidade nas suas seqüências genômicas de DNA (ENARD et al., 2002, p. 340). 203 “[However], the apparent acceleration on the human lineage is larger in the brain (3.8-fold) than in the liver (1.7-fold), raising the possibility that gene expression patterns may have changed more in the brain than in the liver during recent human evolution.”

141

numa proteína, atuam de forma coordenada e fisicamente conectada (tethering),

formando uma rede molecular em que os sinais circulam de forma não-linear, com base

em vários circuitos de realimentação, e não como se fosse uma simples linha de

montagem. A eficácia do processamento do pré-mRNA, por exemplo, em que a excisão

de íntrons de até meio milhão de nucleotídeos pode consumir várias horas de

processamento bioquímico, é garantida pela conexão entre as moléculas que efetuam a

transcrição de DNA em RNA e as que fazem a emenda do RNA, permitindo que todas

as moléculas envolvidas interajam diretamente, por contato, e não por simples difusão

no meio celular – o que diminuiria dramaticamente a probabilidade das interações. Há

pelo menos duas dezenas dessas interações acopladas entre as várias moléculas

envolvidas na transcrição de genes (MANIATIS e REED, 2002);

• Enovelamento (folding) de proteínas – O conceito informacional, pré-formacionista e

determinista de gene reza que este definiria cabalmente a seqüência de aminoácidos da

proteína que especifica e, com ela, sua estrutura tridimensional – sua função, portanto

(pois a estrutura define com quais outras proteínas e compostos será capaz de reagir,

ligar-se etc.). Ocorre que, apesar de o chamado “estado nativo” de uma proteína (sua

forma final, após o enovelamento) ter claramente relação com a seqüência de

aminoácidos que a compõem, os cientistas que se dedicam às especialidades emergentes

da genômica estrutural e da proteômica ainda estão longe de conseguir desvendar,

modelar ou formular matematicamente as regras que presidem a conformação de uma

na outra, uma vez que sua meta é ser capaz de predizer a função de uma proteína com

base unicamente na seqüência de DNA do gene correspondente. No meio celular, esse

enovelamento nada tem de automático, sendo dependente de condições químicas e da

atuação de um complexo de moléculas “acompanhantes” (chaperoninas) ainda mal

compreendido. Além disso, a função final da proteína sintetizada depende ainda de

modificações químicas e processamento estrutural, como o corte de blocos inteiros de

aminoácidos (LODISH et al., 1999, p. 64); em outras palavras, aqui também a relação

linear de causação entre gene e proteína não se sustenta;

204 “With a limited number of genes, vertebrates manage to code for two highly complex subsystems that are specialized for information accumulation, storage, and retrieval: namely, the immune system and the nervous system.”

142

• Estampagem (imprinting) – Cada um dos cromossomos que compõe um genoma é

dotado de um sistema de marcas químicas (como a adição local de um grupo metila, ou

metilação) que indica quais genes estão ativos em cada célula deste ou daquele tecido

(pois, embora todas contenham o mesmo genoma, produzem apenas algumas proteínas

especificadas naquele enorme repertório). Nos mamíferos, parte dessas marcas constitui

um enigmático sistema chamado de “estampagem” (imprinting), que é totalmente

apagado e reconstituído durante a formação de gametas, de modo que o zigoto formado

da união do óvulo e do espermatozóide recebe um padrão específico de marcas

maternas e paternas sem o qual é incapaz de desenvolver-se num embrião viável; cerca

de 50 genes estampados já foram identificados em mamíferos (SURANI, 2002, p. 492),

pois são essas marcas que indicam se a cópia materna ou paterna do gene em questão é

que deve ser usada em determinado passo do desenvolvimento (o DNA paterno parece

ser fundamental para a constituição normal da placenta, por exemplo). O que equivale a

dizer que somente a informação genética (aquela contida na seqüência de DNA) não é

suficiente para o desenvolvimento de um organismo, cuja “receita” está portanto ao

menos parcialmente contida também em informação herdada “epigeneticamente”;205

• Hipótese do código de histonas – Mesmo no organismo adulto, as marcas superpostas

ao genoma por mecanismos como a metilação se revelam cada vez mais fundamentais

para a expressão dos genes e para seu silenciamento. O foco de atenção da pesquisa

recai sobre as histonas, espécie de carretel molecular em torno do qual se enrola a fita

dupla do DNA para formar a ultracompactada cromatina nos cromossomos dos

organismos eucariotos, que podem ser modificadas por vários tipos de marcas de

sinalização além da metilação (acetilação, fosforilação, ubiquitinação). Aparentemente,

a ativação e o silenciamento de genes requer múltiplas modificações das histonas, as

quais criariam superfícies para ligação preferencial de proteínas específicas envolvidas

na regulação do genoma (BERGER, 2001, p. 65). Esses padrões de modificação de

205 Segundo LEDERBERG (2001), o termo “epigenética” foi cunhado em 1942 por Conrad H. Waddington para designar o estudo dos processos pelos quais o genótipo dá origem ao fenótipo, em oposição a “genética” e ainda sem a conotação bioquímica que viria a adquirir nos anos 1990 (algo como “mecanismos de herança que não estão baseados em diferenças na seqüência de DNA”). Bem mais antigo é o termo “epigênese”, empregado por Harvey em 1651 para designar o processo de formação de novo no embrião, que não teria portanto todas as suas partes pré-formadas (PINTO-CORREIA, 1999, p. 27). Neste capítulo, emprega-se o termo no sentido que parece ser consensual, hoje: origem de regularidades no processo de desenvolvimento,

143

histonas que começam a ser identificados já conduziram à hipótese de que constituam

na realidade um código paralelo (STRAHL e ALLIS, 2000), em que a combinação

desses processos químicos dotaria a cromatina de marcas especificadoras das condições

em que aquele trecho de DNA poderia ser lido e expressado na síntese da proteína

correspondente.

Recapitulando:206 o genoma que emerge dos laboratórios de seqüenciamento de

DNA e das bases de dados em que avança a modalidade de investigação in silico é uma

entidade complexa, sujeita a uma miríade de relações, influências e interações com sinais

vindos do citoplasma e, em última instância, do ambiente da célula, entre as quais se

incluem indicações hereditárias não-transmitidas por ácidos nucléicos acerca de padrões

conservados de expressão gênica. Como dizia LEWONTIN (2000a, p. 152) já no início da

década de 1990,207 “uma razão profunda para a dificuldade de delinear informação causal

de mensagens de DNA é que as mesmas ‘palavras’ têm diferentes sentidos em diferentes

contextos, e múltiplas funções num contexto dado, como em qualquer linguagem

complexa”. KELLER (2002), por outro lado, defende que a tendência é de dissociação

entre os aspectos funcional e hereditário da noção de gene: “[O gene funcional] não pode

mais ser tomado como idêntico à unidade de transmissão, isto é, à unidade responsável pela

(...) memória intergeracional” (KELLER, 2002, p. 83), isto porque somente uma seqüência

de bases nitrogenadas é herdada por intermédio do DNA, matéria-prima crucial e

indispensável, mas insuficiente para especificar inteiramente a função: “A função do gene

estrutural depende não somente da sua seqüência, mas também de seu contexto genético, da

estrutura do cromossoma no qual ele está inserido (e que é ela própria sujeita à regulação

desenvolvimental), e de seu contexto citoplasmático e nuclear” (KELLER, 2002, p. 84).

ou mesmo de características fenotípicas, que não podem ser atribuídas diretamente à informação contida na seqüência de DNA e pressupõem a intervenção de fatores complementares. 206 Outros autores que trataram do estatuto ambíguo da noção de “gene” apresentaram relações mais curtas de incompatibilidades: SARKAR (1999, p. 157-158) contempla o chamado junk-DNA, molduras móveis, edição de transcritos, repetições de seqüências codificadoras ou regulatórias e códons não-universais; NEUMANN-HELD (2001, p. 69) destaca estampagem, moldura móvel, emenda alternativa e edição de transcritos; MORANGE (2001, p. 25-28) lista genes reguladores, íntrons e éxons, emenda alternativa, moldura móvel, rearranjo genômico em células do sistema imune e edição de transcritos; KELLER (2001, p. 299) relaciona mecanismos de reparo e edição de DNA, interações epigenéticas regulando a transcrição e emenda/edição de transcritos. 207 O ensaio em questão, The dream of the human genome, foi originalmente publicado no jornal The New York Review of Books, em 28.mai.1992.

144

4.2 Desenvolvimento e epigenética vs. determinismo

Não são porém apenas os críticos habituais do determinismo genético que lhe

apontam as limitações, mas os próprios titulares e/ou herdeiros desse programa

experimental, que visualizam seu futuro como uma espécie de superação, mais até do que

sua mera extensão como genômica estrutural ou proteômica, e essa superação parece

gravitar em torno de dois conceitos: desenvolvimento, ou seja, o processo complexo pelo

qual um organismo multicelular alcança tamanho e forma final, e epigenética, isto é, o

conjunto de interações entre genes e outros fatores que influenciam a conformação do

fenótipo e que não podem ser diretamente atribuídos a seqüências genéticas particulares.

“A epigenética representa uma nova fronteira na pesquisa genética. Com o término dos

projetos de seqüenciamento do genoma, será um grande desafio entender a função e a

regulação gênicas. Alcançar essa meta vai requerer determinar como controles epigenéticos

são impostos aos genes”, escrevem WOLFFE e MATZKE (1999, p. 485). Ainda mais

enfáticas foram declarações dadas no congresso de 2002 da American Association for

Cancer Research por Rudolf Jaenisch, do Whitehead Institute/MIT, criador do primeiro

camundongo transgênico:

A última década foi a década da genômica (...), mas eu prediria que a próxima década será a década da epigenética. (...) O campo está realmente explodindo. Quando se pensa nas implicações médicas da genômica, podem-se fazer varreduras do genoma inteiro. Está virando rotina, agora. Não se pode fazer isso com a epigenética. Não se pode medir a modificação do DNA por metilação; é muito diferente, e penso que é um aspecto muito crucial da medicina e da doença. (...) Considero que o meio pelo qual o ambiente interage com o genoma é via modificação epigenética do genoma. [Para a] metilação, temos evidência concreta de que isso ocorre [em resposta a fatores ambientais]. O ponto que estou tentando defender é que, se queremos entender a causa real da doença, e só olhamos para os genes ou para as mutações de genes, penso que só estamos considerando metade da história. Podemos fazer isso muito eficientemente –mas temos de considerar a outra metade.208 (TUMA, 2002)

208 “The last decade was the decade of genomics (...), but I would predict that the next decade will be the decade of epigenetics. (...) The field is really exploding. When you think about the medical implications of genomics, you can do genome scans of the whole genome. It is becoming routine now. You cannot do this for epigenetics. You cannot measure modification of the DNA by methylation; it is very different, and I think it is a very crucial aspect of medicine and disease. (...) I think the way the environment interacts with the genome is via epigenetic modification of the genome. [For] methylation, we have concrete evidence that this occurs [in response to environmental factors]. The point I am trying to make is that if we want to understand the real

145

E pensar que o campo em expansão da epigenética até bem pouco tempo era

considerado “ciência não muito séria” e tinha “um certo cheiro de coisa esquisita”, como

disse à Science Wolf Reik, do Babraham Institute, no Reino Unido (PENNISI, 2001b, p.

1064). Por formação profissional, contudo, os cientistas estão obrigados a se render aos

fatos, e neste caso os fatos incluem o papel preponderante de fenômenos epigenéticos no

fracasso (presente) e no sucesso (potencial) de alguns dos investimentos mais promissores

da tecnobiologia. Por exemplo, a reprogramação imperfeita da estampagem (imprinting)

parece estar na raiz da alta ineficiência da produção de clones animais por transferência

nuclear (JAENISCH e WILMUT, 2001; RIDEOUT III et al., 2001; FAIRBURN et al.,

2002),209 tecnologia tida como fundamental para produzir rebanhos uniformes de animais

transgênicos eficientes para secretar proteínas de interesse terapêutico (biorreatores). A

possibilidade de manipular (apagar ou reformular) as marcas epigenéticas também é crucial

para usufruir da pluripotência de células-tronco (SURANI, 2001), ou seja, da sua

capacidade de se transformarem em vários outros tipos de células do corpo, uma

propriedade cobiçada porque pode um dia auxiliar no desenvolvimento de terapias celulares

para doenças degenerativas, como o mal de Parkinson. Por fim, mecanismos epigenéticos

são decisivos para a engenharia genética em geral, pois a simples introdução de seqüências

de DNA no genoma de um organismo pode se revelar inoperante se interações DNA-DNA

e RNA-RNA conduzirem ao silenciamento dos genes enxertados (WOLFFE e MATZKE,

1999), como já se assinalou acima.

Em poucas palavras, a epigenética se impôs a partir das próprias bancadas e dos

próprios computadores dos laboratórios, e não da cabeça de críticos externos ao campo

genômico — o que só faz aumentar a pertinência das críticas precoces, que agora se

revelam também premonitórias. Pode-se tentar compatibilizar a epigenética redescoberta

cause of disease, and we just look at the genes or mutations of genes, I think we are only looking at half the story. We can do this very efficiently –but we have to look at the other half.” 209 Houve discussão quanto aos problemas de desenvolvimento em clones serem de fato provocados pela própria transferência nuclear. INOUE et al. (2002), por exemplo, relataram em artigo subseqüente ter obtido a expressão fiel de genes estampados em clones de camundongos e sugeriram que os defeitos epigenéticos se acumulem na manipulação das células-tronco embrionárias doadoras de núcleos para transferência, nos experimentos de Jaenisch.

146

com a noção tradicionalmente determinista de gene,210 mas o esforço decerto redundará em

formulações francamente contraditórias, como a oferecida por Emma Whitelaw, da

University of Sydney, à revista Science: “A unidade de hereditariedade, isto é, um gene,

[agora] se estende para além da seqüência [de DNA], até as modificações epigenéticas dessa

seqüência” (PENNISI, 2001b, p. 1064).211 Tantas já eram as dificuldades e aporias

suscitadas pela manutenção dessa nomenclatura do gene que BROSIUS e GOULD (1992)

chegaram a propor todo um novo vocabulário para substituí-lo, com a finalidade de nomear

mais precisamente cada estrutura identificável de ácido nucléico, DNA ou RNA; o nome

geral proposto para essa estruturas foi “núon” e se aplicaria a gene, região intergênica,

éxon, íntron, promotor, terminador, pseudogene, transposon, retrotransposon, telômero etc.,

sendo que um promotor seria rebatizado como “promonúon”, e assim por diante (a

proposta, como já previam os autores, foi sumariamente ignorada).

Tomada pela confusão terminológica e pela crescente complexidade de interações

bioquímicas que deveriam reduzir-se a elegantes formulações matemáticas, mas se revelam

refratárias a isso, a biologia molecular pós-genômica se parece mais com o disco de

Phaestos (um conjunto de sinais ainda indecifrado da ilha de Creta) do que com a pedra de

Rosetta (GELBART, 1998, p. 659). E, se fosse para insistir na metáfora do genoma como

um manual de instruções para construir um ser humano, pode-se dizer que permanecia

válida na publicação das seqüências-rascunho em 2001 a descrição feita pelo autor mais de

dois anos antes:

... uma avaliação atual razoável é que temos um conhecimento parcial, mas ainda bem incompleto, sobre como identificar e ler certos substantivos (as estruturas dos polipeptídeos nascentes e éxons codificadores de proteínas nos mRNAs). Nossa capacidade de identificar os verbos e adjetivos e outros componentes das sentenças genômicas (por exemplo, os elementos reguladores que impulsionam padrões de expressão ou elementos estruturais no interior de cromossomos) é quase imperceptível, de tão baixa. Além disso, não entendemos nada da gramática –como ler uma sentença, como alinhavar as sentenças num todo que forme parágrafos sensatos descrevendo como construir proteínas multicomponentes e outros

210 Que não chega a compor uma teoria em sentido pleno, sendo mais um esquema de pensamento prático-operacional mobilizado na prática cotidiana dos biólogos moleculares entre si e no discurso que dirigem à esfera pública, e que vem sendo paulatinamente acumulado com camadas subseqüentes de significados, à medida que a pesquisa biológica experimental vai descobrindo novas camadas de complexidade. 211 “The unit of inheritance, i.e., a gene, [now] extends beyond the sequence to epigenetic modifications of that sequence.”

147

complexos, como elaborar vias fisiológicas e desenvolvimentais, e assim por diante.212 (GELBART, 1998, p. 659)

Bem mais severo é o recente julgamento emitido por Richard STROHMAN (2002,

p. 703), que enxerga uma crise em gestação na biotecnologia médica, justamente pela

insistência “num paradigma científico que omite em grande medida o componente de

sistemas dinâmicos”:

A biologia celular e molecular, em conjunção com novos desenvolvimentos teóricos, levou-nos na última década de uma visão sumariamente ingênua de determinismo genético (segundo o qual características complexas são causadas por um único gene) para a rude realidade de que quase todas as moléstias humanas são entidades complexas dependentes de contextos, para as quais nossos genes fazem uma contribuição necessária, mas apenas parcial. Biólogos moleculares redescobriram a profunda complexidade da relação genótipo-fenótipo, mas são incapazes de explicá-la: algo está faltando.213 (STROHMAN, 2002, p. 701)

Logo adiante, o pesquisador da University of California/Berkeley indica que a saída

está na chamada “biologia de sistemas”:

A biologia molecular, ao identificar níveis de controle, concentrou-se sobre os “lances” dos genes e das proteínas, mas ignorou amplamente a estratégia empregada pelas redes dinâmicas de proteínas que geram o fenótipo do genótipo. É disso que se trata na biologia de sistemas, de encontrar a estratégia empregada por células e nos níveis superiores de organização (tecido, órgão, o organismo todo) para produzir comportamento adaptativo ordenado em face de condições genéticas e ambientais em ampla variação. No centro desse esforço está a necessidade de compreender a relação formal entre genes e proteínas como agentes e a dinâmica dos sistemas complexos dos quais são compostos. Muito esforço tem sido despendido em tentativas de predizer o fenótipo, primeiramente de bases de dados genômicos e, depois, de proteômicos. Mas essas bases de dados não contêm informação

212 “(...) a reasonable current assessment is that we have a partial but still quite incomplete knowledge of how to identify and read certain nouns (the structures of the nascent polypeptides and protein-coding exons of mRNAs). Our ability to identify the verbs and adjectives and other components of these genomic sentences (for example, the regulatory elements that drive expression patterns or structural elements within chromosomes) is vanishingly low. Further, we do not understand the grammar at all--how to read a sentence, how to weave the different sentences together to form sensible paragraphs describing how to build multicomponent proteins and other complexes, how to elaborate physiological or developmental pathways, and so on.” 213 “Cell and molecular biology, in conjunction with new theoretical developments, have, in the past decade, taken us from a grossly naïve view of genetic determinism (that complex traits are caused by a single gene) to the stark reality that almost all human diseases are complex context-dependent entities to which our genes make a necessary, but only partial, contribution. Molecular biologists have rediscovered the profound complexity of the genotype-phenotype relationship, but are unable to explain it: Something is missing.”

148

suficiente para especificar o comportamento de um sistema complexo.214 (STROHMAN, 2002, p. 701)

4.3 Da crítica da sociobiologia ao Projeto Genoma Humano

O círculo, aparentemente, começa a se fechar, porque esse tipo de interpretação

intramuros da genômica realmente existente se aproxima muito da visão advogada – desde

um ponto de vista mais teórico, ainda que motivado por valores divergentes sobre a vida e a

biologia – pelos críticos externos mais tradicionais do determinismo genético, antes vozes

um tanto isoladas no panorama acadêmico dominado pela fortuna da tecnobiologia, que ora

tentam reverter a razão que o tempo lhes trouxe em ímpeto para compor enfim um campo

alternativo que obtenha reconhecimento como tal, provisoriamente designado como “teoria

de sistemas desenvolvimentais” (developmental systems theory, ou DST). É chegado o

momento de refazer um pouco da história recente dessa perspectiva teórica, que teve

origem nos embates sobre a sociobiologia.

O cerne da sociobiologia é a suposição de que os comportamentos humanos têm

explicação biológica e, portanto, fundamento genético. Embora o termo em si tenha surgido

somente em 1975, com a publicação de um livro controverso de Edward O. Wilson,

Sociobiology: The new synthesis,215 como programa intelectual sua história se confunde

com a da eugenia e dos estudos sobre a hereditariedade da inteligência. Nas duas ou três

primeiras décadas após a Segunda Guerra Mundial, ainda sob o impacto das atrocidades

nazistas e em meio a um clima de reconstrução, essa perspectiva permaneceu eclipsada e

prevaleceu o otimismo ambiental, “nurturista”, segundo o qual tudo poderia ser inventado

no domínio da cultura, nurture tinha precedência óbvia sobre nature e se inaugurava uma

“era da psicologia” (KELLER, 1993, p. 285), mas sementes poderosas haviam sido

214 “Molecular biology, in identifying control levels, has focused on the "moves" of genes and proteins but has largely ignored the strategy used by dynamic protein networks that generate phenotype from genotype. Systems biology is all about finding the strategy used by cells and at higher levels of organization (tissue, organ, and whole organism) to produce orderly adaptive behavior in the face of widely varying genetic and environmental conditions. At the center of this effort is a need to understand the formal relationship between genes and proteins as agents, and the dynamics of the complex systems of which they are composed. Much effort has been spent in attempts to predict phenotype, first from genomic, and then from proteomic, databases. But these databases do not contain sufficient information to specify the behavior of a complex

system.” 215 Cambridge, MA: Harvard University Press.

149

lançadas e permaneciam dormentes no solo. Desde a década de 30, por exemplo, a

Rockefeller Foundation patrocinava uma linha de pesquisa no que viria a se chamar de

biologia molecular sob a rubrica “Ciência do Homem”, voltada para o estudo do

comportamento e para seu controle (KAY, 2000, p. 45).

No campo teórico, a chamada Síntese Moderna da doutrina da evolução, que

compatibilizara a partir dos anos 1930 as perspectivas de Darwin, da sistemática e da

nascente genética, viveu no pós-guerra o processo que GOULD (2002, p. 70) qualificou

como “endurecimento”, em que um pluralismo inicial de mecanismos de mudança foi

substituído pela exclusividade da seleção natural e pela crescente importância dos cenários

“adaptacionistas”: características herdadas – aí incluídos os comportamentos – são

transmitidas entre gerações porque foram selecionadas e, portanto, possuem valor

adaptativo. Como a transmissão se faz por meio de genes, a conclusão era que não poderia

haver genes neutros, sem função ou valor adaptativo, e que é exclusivamente sobre eles que

age a seleção natural (MOORE, 2002, p. 184).

A sociobiologia de Wilson compõe um tipo peculiar de determinismo biológico,

pois não chega a ser experimental e nem mesmo genético (SARKAR, 1999, p. 191n);

pressupõe que tanto os universais do comportamento (“natureza humana”) quanto suas

variações e desvios individuais tenham substrato em genes, mas não se propõe a identificar

as correspondentes seqüências de DNA ou trechos de cromossomos equivalentes,

contentando-se com combinar observações selecionadas de etologia e antropologia com

engenhosas hipóteses sobre o conteúdo adaptativo de tipos comportamentais no passado

remoto da espécie, do altruísmo à divisão sexual do trabalho. Do outro lado do Atlântico, a

obra inaugural da sociobiologia foi The selfish gene, de Richard Dawkins,216 que, mesmo

sem deixar o campo especulativo característico da doutrina sociobiológica, chega mais

perto do determinismo genético propriamente dito. Afinal, poucas obras foram tão enfáticas

ao conferir um papel de primazia para o DNA nos labores da evolução, alçando os genes à

condição de protagonistas (na condição de replicators) e rebaixando organismos à de meros

veículos (interactors) para a multiplicação daqueles.

Contra essa voga de naturalização do comportamento insurgiram-se no mundo

acadêmico anglo-saxão os integrantes do “movimento da ciência radical”, como Richard C.

216 Oxford: Oxford University Press, 1976.

150

Lewontin, Hilary Rose, Steven Rose e Leo Kamin. Segundo ROSE (1998, p. viii), a

sociobiologia de Wilson e o ultradarwinismo de Dawkins representavam uma reação

conservadora aos movimentos e conquistas sociais dos anos 1960, e o combate movido

contra ela em escritos dos anos 1980 foi sobretudo de cunho político. Num dos primeiros

textos de uma série que prosseguiria ainda por duas décadas, LEWONTIN (2000a, p. 4) já

denunciava em 1981 o determinismo biológico como ideologia, segundo a qual “as

diferenças patentes entre indivíduos, sexos, grupos étnicos e raças no tocante a status,

riqueza e poder são baseadas em diferenças biológicas inatas em temperamento e

capacidade, que são passadas de pais para filhos na concepção”.217 O esforço de denúncia

ganharia notoriedade com um volume coletivo de 1984, Not in our genes: Biology,

ideology, and human nature (LEWONTIN, ROSE e KAMIN, 1985). Num registro entre a

sociologia e a filosofia política da ciência, os autores vão buscar as raízes do que chamam

indistintamente de reducionismo e de determinismo no individualismo burguês, mais

precisamente na concepção hobbesiana de luta de todos contra todos. Em outro texto, de

1994, LEWONTIN (2000a, p. 190-191) diz que o Iluminismo é a matriz da idéia de que as

propriedades do indivíduo humano, e só elas, determinam as relações sociais, noção que

segundo ele estaria na base de toda a teoria social moderna, até Weber e Durkheim. A

operação básica denunciada corresponderia à camuflagem tipicamente ideológica de causas

sociais sob a roupagem de causas naturais: “Para entender a origem e a manutenção das

estruturas sociais, precisamos, por essa visão, entender a ontogenia de indivíduos. Assim, a

economia política se torna biologia aplicada” (LEWONTIN, 2000a, p. 192).218

Mais do que um simples uso ideológico da biologia pela teoria social, LEWONTIN,

ROSE e KAMIN (1985, p. 5-6) enxergam uma identidade epistemológica mais profunda

entre elas (embora pareça mais apropriado qualificá-la como uma analogia, pois não

apresentam vínculo mais orgânico do que a mera utilidade ideológica), fundada sobre a

noção de reducionismo: “... a suposição de que as unidades composicionais de um todo são

ontologicamente anteriores ao todo que as unidades compreendem. Ou seja, as unidades e

suas propriedades existem antes do todo, e há uma cadeia de causação que vai das unidades

217 “(...) the patent differences between individuals, sexes, ethnic groups, and races in status, wealth, and power are based on innate biological differences in temperament and ability which are passed from parent to offspring at conception”. 218 “To understand the origin and maintenance of social structures, we must, in this view, understand the ontogeny of individuals. Thus political economy becomes applied biology.”

151

para o todo”.219 O determinismo biológico, por sua vez, seria um caso especial de

reducionismo: “... as vidas e ações humanas são conseqüências inevitáveis das propriedades

bioquímicas das células que compõem o indivíduo; e essas características, por seu turno,

são determinadas de modo único pelos constituintes dos genes presentes em cada indivíduo.

Os deterministas sustentam, portanto, que a natureza humana está fixada pelos nossos

genes” (LEWONTIN, ROSE e KAMIN, 1985, p. 6).220

Não é somente por seu emprego político-ideológico que o determinismo deve ser

combatido, defendem os três autores, mas também porque é biologicamente errado. E o

equívoco do determinismo, do ponto de vista científico, decorre de ser ele pouco...

dialético:

É característico do reducionismo que ele atribua pesos relativos a causas parciais diferentes e tente avaliar a importância de cada causa mantendo todas as outras constantes enquanto varia um fator único. Explicações dialéticas, ao contrário, não abstraem propriedades de partes em isolamento dos todos, mas vêem as propriedades de partes emergirem de suas associações. Isto é, de acordo com a visão dialética, as propriedades de partes e todos codeterminam umas às outras.221 (LEWONTIN, ROSE e KAMIN, 1985, p. 11)

O vocabulário é obviamente reminiscente da controversa dialética da natureza de

Friedrich Engels, mas o importante a ressaltar é que os três combativos autores, mesmo

insistindo no esquematismo ao acusar o reducionismo sociobiológico de desprezo pela

historicidade e pelo interacionismo característico dos seres vivos, terminam por destacar a

categoria propriamente biológica que permanece realmente à margem das explicações ao

estilo de Wilson e Dawkins: o desenvolvimento, ou seja, o fato de seres de uma mesma

espécie multicelular mudarem ao longo da vida segundo padrões confiavelmente repetidos.

Como disse LEWONTIN (2001a, p. 61) num texto clássico de 1983, “genes, organismos e

219 “... the claim that the compositional units of a whole are ontologically prior to the whole that the units comprise. That is, the units and their properties exist before the whole, and there is a chain of causation that runs from the units to the whole.” 220 “... human lives and actions are inevitable consequences of the biochemical properties of the cells that make up the individual; and these characteristics are in turn uniquely determined by the constituents of the genes possessed by each individual. The determinists would have it, then, that human nature is fixed by our genes.” 221 “It is characteristic of reductionism that it assigns relative weights to different partial causes and attempts to assess the importance of each cause by holding all others constant while varying a single factor. Dialectical explanations, on the contrary, do not abstract properties of parts in isolation from their associations in wholes but see the properties of parts arising out of their associations. That is, according to the dialectical view, the properties of parts and wholes codetermine each other.”

152

ambientes estão em interação recíproca uns com os outros, de tal modo que cada um é tanto

causa quanto efeito, de um modo bem complexo, embora perfeitamente analisável”. E

prossegue: “Os fatos conhecidos do desenvolvimento e da história natural tornam

patentemente claro que genes não determinam indivíduos, e que tampouco ambientes

determinam espécies”.222 Existe um elemento de ordem temporal no processo de

desenvolvimento que não pode ser captado no esquema simplificado de causação implícito

na relação entre genótipo e ambiente para produzir o fenótipo, pois o fenótipo do instante

anterior também participa da produção do seu sucessor. Além disso, argumenta

LEWONTIN (2001a, p. 64-65), organismos não só participam da construção de si mesmos

como também constituem o próprio ambiente, que deixa portanto de ser entendido pela

biologia de inspiração “dialética” como as condições físicas meramente dadas, para se

restringir àquelas eleitas e modificadas pelo organismo em questão. Essa noção,

evidentemente inspirada na noção marxista segundo a qual os homens constroem a própria

história, ficaria depois conhecida como niche-picking (escolha de nicho) e daria origem a

uma fértil linha de estudos.

A ciência radical não se limitava a combater a sociobiologia, contudo. Outro campo

de investigação biológica – este sim dotado de um programa experimental com tendências

“imperialistas” – a fazer pouco caso de suas perorações interacionistas era a genética

propriamente dita, que ganhara impulso extraordinário após as descobertas da estrutura do

DNA (1953) e da tecnologia do DNA recombinante (1973) e culminara na proposta de

seqüenciar (identificar e ordenar) todas as bases nitrogenadas do genoma humano, aventada

pela primeira vez em meados dos anos 80. Neste caso, a ciência radical de Lewontin,

Kamin e Rose denuncia a razão de ser do PGH como uma espécie de contaminação da

teoria biológica pelas limitações inerentes à pesquisa genética experimental,

necessariamente restrita às determinações diminutas representadas por uns poucos genes

cuja expressão consegue reproduzir de modo controlado em laboratório, magnificando-as

portanto no processo de torná-las um sinal distinto em relação ao ruído de fundo. Com isso

se origina o que LEWONTIN (2000c, p. x-xi) chama de problema da extrapolação: “A

222 “(...) genes, organisms, and environments are in reciprocal interaction with each other in such a way that each is both cause and effect in a quite complex, although perfectly analyzable way. The known facts of development and of natural history make it patently clear that genes do not determine individuals nor do environments determine species.”

153

concentração dos geneticistas na origem das diferenças e sua confusão dessa questão com o

processo que leva ao estado de um organismo emerge de uma profunda limitação estrutural

da investigação experimental em biologia”.223 Noutra formulação: “O uso de mutações

drásticas de genes como ferramenta primária de investigação é um tipo de prática

reforçadora que convence ainda mais o biólogo de que toda variação observada entre

organismos deve ser o resultado de diferenças genéticas” (LEWONTIN, 2000b, p. 15).224

Tal redução deixaria de fora determinações essenciais à própria condição de ser

vivo: “Organismos, diferentemente de sistemas físicos mais simples como estrelas e seus

planetas, são de médio porte e funcionalmente heterogêneos, por dentro. Como resultado,

constituem o nexo de um número muito grande de trajetórias causais fracamente

determinantes” (LEWONTIN, 2000c, p. xi).225 O foco exclusivo da nascente genômica

conduziria historicamente à estagnação da ciência clássica da embriologia experimental,226

constata Lewontin em seu prefácio 15 anos depois da primeira edição de The ontogeny of

information, de Susan Oyama, que de resto enxerga o mesmo hiato na geneticização do

desenvolvimento e da embriologia: “... nossas convicções mais fundamentais sobre

processos de vida não parecem ter mantido o passo com o nosso crescente conhecimento

factual. (...) Criamos e observamos diferenças, mas desejamos compreender fenômenos. Ao

tentar explicar fenômenos, usamos as ferramentas que nos servem tão bem ao investigar

essas diferenças, e caímos no desvão fatal entre a análise e a síntese” (OYAMA, 2000a, p.

52).227

223 “Geneticists’ concentration on the origin of differences, and their confusion of this question with the processes leading to an organism’s state, arises from a deep structural limitation of the experimental investigation in biology.” 224 “The use of drastic gene mutations as the primary tool of investigation is a form of reinforcing practice that further convinces the biologist that any variation that is observed among organisms must be the result of genetic differences.” 225 “Organisms, unlike simpler physical systems such as stars and their planets, are medium sized and internally functionally heterogeneous. As a result, they are the nexus of a very large number of weakly determining pathways.” 226 A mesma avaliação foi feita por PINTO-CORREIA (1999, p. 382): “No final, os embriologistas foram os grandes derrotados na guerra contra a genética. Com o tempo, a abordagem genética à embriologia (e à evolução, e a tudo o mais que existisse sob o sol biológico) tornou-se a versão triunfante. E a sucessora final da pré-formação, a biologia molecular, hoje ameaça tomar conta de todo o campo da biologia do desenvolvimento”. 227 “(...) our most fundamental convictions about life processes have not seemed to keep step with our growing factual knowledge. (...) We create and observe differences, but we wish to understand phenomena. In attempting to explain phenomena, we use the tools that served us so well in investigating those differences, and we fall into the fatal gap between analysis and synthesis.”

154

Essa armadilha molecular contra a embriologia acabaria por atrair a atenção crítica

também de estudiosas da ciência próximas ou militantes de uma perspectiva feminista,

como Hilary Rose, Ruth Hubbard e Evelyn Fox Keller. Afinal, o que ficava reprimido pela

doutrina da primazia do gene não era só o desenvolvimento do embrião (que no caso dos

mamíferos ocorre em estreita ligação com o corpo feminino), mas também a contribuição

única do óvulo materno para o novo ser, que recebe metade do patrimônio genético de cada

um dos genitores, mas somente da mãe as organelas, membranas e proteínas que

desencadeiam e regulam os passos iniciais desse desenvolvimento, antes que o genoma do

embrião comece a ser lido e diretamente expressado. Keller, depois de escrever uma

biografia da geneticista Barbara McClintock sintomaticamente intitulada A feeling for the

organism, fez dessa omissão um dos temas centrais de Refiguring life:

Inevitavelmente, é claro, esse modo de falar sobre genes também teve seus custos, e esses custos foram sentidos mais obviamente pelos embriologistas. (...) Ele não concedia nem tempo nem espaço nos quais o restante do organismo, a economia supérflua do soma, pudesse exercer seus efeitos. O que é especificamente eclipsado no discurso da ação gênica é o corpo citoplasmático, marcado simultaneamente por gênero, por conflito internacional, e pela política disciplinar.228 (KELLER, 1995, p. xiv-xv)

Naquele momento Keller já demonstrava certo otimismo com a transformação do

discurso da ação gênica no de ativação gênica, para ela mais condizente com as realidades

experimentalmente estipuladas pelo estudo do desenvolvimento, mas cinco anos depois, por

assim dizer na véspera do anúncio das seqüências-rascunho do genoma humano, ainda

considerou necessário fazer em The century of the gene229 nova denúncia da omissão do

citoplasma operada pelo genocentrismo,230 com base na

... suposição não declarada de que, desde que o curso do desenvolvimento e da forma final são herdáveis, o único material causal relevante a ser transmitido de uma geração a outra é o material genético. O fato manifesto de que o processo reprodutivo passa adiante não somente genes mas também citoplasma não é mencionado. (...) a convicção de que o

228 “Inevitably, of course, this way of talking about genes also had its costs, and these costs were felt most obviously by embryologists. (...) It allowed neither time nor space in which the rest of the organism, the surplus economy of the soma, could exert its effects. What is specifically eclipsed in the discourse of gene action is the cytoplasmic body, marked simultaneously by gender, by international conflict, and by disciplinary politics.” 229 A primeira edição norte-americana foi publicada em 2000. 230 A mesma denúncia da omissão do citoplasma e do óvulo já havia sido feita em texto de 1992 por LEWONTIN (2000, p. 143).

155

citoplasma não poderia conter nem transmitir traços da memória intergeracional havia sido um pilar da genética por tanto tempo que fazia parte da “memória” dessa disciplina, operando de forma silenciosa mas eficaz para moldar a própria lógica da inferência. (KELLER, 2002, p. 99-100)

Num ensaio publicado logo depois, “Beyond the gene but beneath the skin”, a

autora explicita o caráter eminentemente político e de gênero da omissão da genética

quanto ao papel do óvulo:

Uma vez que, na reprodução sexual, o citoplasma deriva quase inteiramente do óvulo não-fertilizado, não é uma mera figura de linguagem referir-se a ele como a contribuição materna. (...) Meu título, em poucas palavras, é deliberado em sua alusão: quero indicar que a política de gênero esteve implicada na elisão histórica do corpo em questão, sem ao mesmo tempo reinscrever a mulher naquele ou em qualquer outro corpo.231 (KELLER, 2001, p. 301-302)

Assim como LEWONTIN (2000, p. 160-161), KELLER (2001, p. 300) destaca o

caráter instrumental da primazia conferida ao gene para a ressurgência de estudos

controversos no campo da eugenia e da hereditariedade da inteligência e de

comportamentos, na atmosfera da síntese neo-darwiniana, mas o faz em sentido sempre

histórico-interpretativo, como se essa visão genocêntrica limitadora já se encontrasse num

processo inelutável de dissolução, sob a luz potente das observações experimentais. Esse

otimismo de certo modo kuhniano com o poder corretivo ou revolucionador das

descobertas empíricas (neste caso, a inesgotável complexidade que emerge dos estudos

genômicos) é partilhado, por exemplo, por David S. Moore, para quem embriologia e

genética seguiram cursos divergentes a partir de 1910, inclusive na eleição de seus animais-

modelo (respectivamente ouriços-do-mar e anfíbios, de um lado, e moscas drosófilas, de

outro), mas estão fadadas ao reencontro, por visarem ao mesmo objeto, vale dizer, os

resultados do processo de desenvolvimento:

As investigações gêmeas em genética e desenvolvimento requerem integração antes que os grandes problemas da biologia e da psicologia possam ser resolvidos. (...) A boa notícia é que avanços recentes tanto no entendimento quanto na tecnologia vêm permitindo que uma

231 “Because, in sexual reproduction, the cytoplasm derives almost entirely from the unfertilized egg, it is no mere figure of speech to refer to it as the maternal contribution. (...) My title, in short, is deliberate in its allusivity: I want to indicate the possibility that gender politics has been implicated in the historic elision of the body in question, without, at the same time, reinscribing the woman in that or any other body.”

156

síntese apareça no horizonte. (...) tal reunião trará com ela uma rejeição da noção de determinismo genético.232 (MOORE, 2002, p. 30-31)

Pode ser injusto atribuir algum otimismo a Keller, que tem manifestado dúvidas

quanto à possibilidade de que a complexidade biológica possa um dia ser apreendida nas

malhas de um ciência matematicamente formalizada, como ocorre nas ciências físicas. De

todo modo, mesmo que possa ser incluída no rol dos pessimistas epistemológicos da

biologia, sua perspectiva permanece profundamente diversa do pessimismo histórico-

político à maneira de Richard Lewontin, para quem a biologia como investigação não

parece ser tolhida por certa opacidade inerente à trama do próprio objeto, mas antes por sua

renitência “antidialética”. Nos últimos anos, o inspirador e líder de tantas críticas ao

determinismo genético parece ser o último a ainda se apegar aos termos político-

ideológicos daquele debate dos anos 1980. Seu companheiro e co-autor no libelo de 1985,

Not in our genes, Steven Rose, declara-se mais preocupado em preencher as lacunas

científicas (falta de evidências empíricas) deixadas pelo movimento da ciência radical: “O

desafio para os oponentes do determinismo biológico é que, embora possamos ter sido

eficazes em nossa crítica de suas afirmações reducionistas, falhamos em oferecer uma

moldura alternativa coerente na qual [se possam] interpretar processos vivos” (ROSE,

1998, p. ix).233 Com efeito, chega a ser sintomático que LEWONTIN (2000c, p. xv) declare

ainda preferir a qualificação de “interacionismo dialético” à de “interacionismo

construtivista” defendida por OYAMA (2000a, p. xvii) na reedição de The ontogeny of

information, quando, precisamente, ela e vários cientistas simpáticos a uma reformulação

da biologia na ótica da DST (developmental systems theory)234 se esforçam para torná-la

menos datada, mais coerente e experimentalmente mais fértil.

232 “The twin inquiries into genetics and development require integration before the great problems of biology and psychology can be solved. (...) The good news is that recent advances in both understanding and technology have allowed such a synthesis to appear on the horizon. (...) such a reunion will bring with it a rejection of the notion of genetic determinism.” 233 “The challenge to the opponents of biological determinism is that, while we may have been effective in our critique of its reductionist claims, we have failed to offer a coherent alternative framework within which to interpret living processes.” 234 Steven ROSE (1998, p. ix-x) prefere empregar o termo “homeodinâmica” para designar uma visão da biologia que transcenda o determinismo genético e ponha o organismo, não o “gene”, no centro do fenômeno da vida; MOORE (2002, p. 8), por seu turno, declara-se adepto de uma “perspectiva de sistemas de desenvolvimento”, evitando a carga pretensiosa do termo “teoria” para o que ainda se configura como uma orientação dispersa entre muitas denominações, como “interacionismo”, “construcionismo”, “desenvolvimentalismo dinâmico”, “abordagem de epigênese probabilística” e outras; a própria OYAMA

157

4.4 A Teoria de Sistemas Desenvolvimentais e o interacionismo construtivista

De todo modo, ainda que expurgada da componente de crítica política, a matriz

dessa perspectiva permanece sendo aquela aberta no início dos anos 80 sob a liderança de

Lewontin, como fica atestado na persistente aceitação do termo “interacionismo” para

marcar o caráter eminentemente histórico – e contingencial – do desenvolvimento

biológico, assim como a necessária interação entre genes e ambiente para a emergência de

forma e função no organismo, pretendidas antíteses tanto da dicotomia nature/nurture

quanto da primazia de seu primeiro termo, na forma do todo-poderoso DNA pré-formador.

Eis a visão do problema para os integrantes do movimento da ciência radical em Not in our

genes:

Organismos não herdam suas características [traits], mas somente seus genes, as moléculas de DNA que estão presentes no ovo fertilizado. Do momento da fertilização até o momento de sua morte, o organismo passa pelo processo histórico de desenvolvimento. Aquilo que o organismo se torna a cada momento depende tanto dos genes que carrega em suas células quanto do ambiente no qual o desenvolvimento está ocorrendo.235 (LEWONTIN, ROSE e KAMIN, 1985, p. 268)

Duas décadas depois, a noção de que o desenvolvimento depende de um “complexo

interativo” capaz de ativar diferencial e concertadamente os genes nos diversos tecidos

ainda goza de importância central nos esforços de sistematização da DST promovidos

sobretudo por Oyama:

O que se transmite entre gerações não são características [traits], ou planos-mestres [blueprints], ou representações simbólicas de características, mas sim meios de desenvolvimento (ou recursos, ou ainda interagentes [interactants]). Esses meios incluem genes, a maquinaria celular necessária para seu funcionamento e o contexto desenvolvimental mais amplo, o qual pode incluir um sistema reprodutivo materno, cuidado

(2000b, p. 2) concorda que talvez seja preferível falar em “perspectiva” ou “abordagem”, se por teoria entender-se mais do que uma “máquina geradora de hipóteses”. 235 “Organisms do not inherit their traits but only their genes, the DNA molecules that are present in the fertilized egg. From the moment of fertilization until the moment of its death, the organism goes through the historical process of development. What the organism becomes at each moment depends both on the genes that it carries in its cells and on the environment in which development is occurring.”

158

parental ou outra interação com integrantes da mesma espécie [conspecifics], assim como relações com outros aspectos dos mundos animado e inanimado.236 (OYAMA, 2000b, p. 29)

Para a autora, levar essa perspectiva interacionista a sério exige a rejeição do

Dogma Central de Francis Crick como metáfora pertinente para descrever os mecanismos

de controle do processo de desenvolvimento: “A causação de mão única que ele implica é

inconsistente com a causação múltipla e recíproca realmente observada nos processos

vitais. Interação requer uma ‘troca de informação’ de duas mãos” (OYAMA, 2000b, p.

68).237 Poucas páginas adiante, OYAMA (2000b, p. 73-74) apresenta uma relação mais

detalhada dos vários fatores que interagem no desenvolvimento (rebaixando assim o DNA à

condição de um, apenas, entre pelo menos nove componentes):

1. O genoma, com suas partes móveis e interativas;

2. A estrutura celular, aí incluídas organelas como as mitocôndrias, que, segundo a teoria

da endossimbiose, teriam origem em organismos primitivos assimilados no passado

evolutivo profundo pelos organismos que viriam a ser os eucariotos;

3. As substâncias intracelulares, como o RNA mensageiro (mRNA) herdado de outras

gerações pelo citoplasma do óvulo;

4. O ambiente extracelular (mecânico, hormonal, energético);

5. Os sistemas reprodutivos parentais (fisiológicos ou comportamentais);

6. A auto-estimulação pelo próprio organismo em formação, como sinais bioquímicos

emitidos por células ou tecidos vizinhos;

7. O ambiente físico imediato (ninhos, fontes de alimento);

8. Os membros da própria espécie ou de outras, como nas relações de simbiose;

9. O clima e outros componentes físicos do ambiente em sentido mais amplo.

Diante desse quadro, Moore chega à conclusão de que não cabe mais falar em

controle ou informação (no sentido de instruções identificáveis num componente especial

236 “What is transmitted between generations is not traits, or blueprints or symbolic representations of traits, but developmental means (or resources, or interactants). These means include genes, the cellular machinery necessary for their functioning, and the larger developmental context, which may include a maternal reproductive system, parental care, or other interaction with conspecifics, as well as relations with other aspects of the animate and inanimate worlds.”

159

desse sistema, como os genes), uma vez que o que se pretende designar por esse termo na

realidade está pulverizado e disseminado por todo o sistema em desenvolvimento. Assim, a

constituição de características fisiológicas ou comportamentais antes ditas “hereditárias” se

daria como que espontaneamente, pela confluência de uma gama enorme de condições, a

maioria delas necessária – mas nenhuma suficiente – para o resultado, de tal modo que “as

contribuições causais para nossas características [traits] não podem ser repartidas entre os

componentes do sistema do qual emergimos, pois a própria natureza do processo

desenvolvimental que constrói nossas características torna teoricamente impossível a

repartição de causalidade” (MOORE, 2002, p. 153).238

Como é da natureza eclética da nascente perspectiva DST, existe pouca

convergência quanto à terminologia mesmo quando parece haver concordância nos

aspectos fundamentais. Eva Jablonka, ao esquematizar essa ampliação da hereditariedade, o

faz não só preservando o conceito de informação – combatido por vários outros autores239

como verdadeiro cerne do Dogma Central e do determinismo genético – como estende sua

aplicação para além da genética; define-o como “organização transmissível de um estado

atual ou potencial de um sistema” (JABLONKA, 2001, p. 100; grifo da autora) e o põe no

centro de gravidade de seu esquema com quatro sistemas de hereditariedade: genética (GIS,

na abreviação em inglês); epigenética (EIS), de célula para célula; comportamental (BIS),

ou transmissão em sociedades animais por meio de aprendizado social; e simbólica (SIS),

ou comunicação pelo emprego da linguagem.

De toda maneira, a ampliação inaudita da noção de hereditariedade representa

apenas um dos oito temas centrais ou idéias-chave que a DST mobiliza contra o

genocentrismo, tais como foram sistematizados por OYAMA (2000b, p. 2-7):

1. Aplicação dos mesmos critérios de análise para componentes do sistema como genes e

ambiente, de modo a demonstrar como a concessão de primazia aos primeiros constitui

um processo circular;

237 “The one-way causation it implies is inconsistent with the reciprocal, multiple causation actually observed in vital processes. Interaction requires a two-way ‘exchange of information’.” 238 “(...) causal contributions to our traits cannot be apportioned to the components of the system from which we emerge, because the very nature of the developmental process that build our traits renders apportioning causality theoretically impossible.” 239 O problema da “informação” genética será tratado no próximo capítulo.

160

2. Interdependência desenvolvimental e evolutiva de organismo e ambiente, que se

interpenetram e produzem reciprocamente;

3. Deslocamento da dicotomia nature/nurture para uma multiplicidade de entidades,

influências e ambientes;

4. Deslocamento da escala única que leva do genótipo ao fenótipo para múltiplas escalas

de magnitude e temporais (das interações entre moléculas àquelas entre organismos e

pessoas; da ação instantânea de um hormônio à duração de uma vida e ao tempo

evolutivo);

5. Extensão da hereditariedade;

6. Deslocamento do controle central para a regulação interativa e distribuída;

7. Deslocamento do foco na transmissão entre gerações para a construção e transformação

contínuas (daí a qualificação de “interacionismo construcionista”);

8. Extensão e unificação teóricas, com a convergência de explicações para o fenômeno do

desenvolvimento hoje dispersas e concorrentes.240

Quanto a um programa de investigação experimental, OYAMA (2000b, p. 8-9)

deduz que a DST implicaria “atentar para as ligações ecológicas, comportamentais e

fisiológicas entre gerações, assim como perguntar como mudanças intergeracionais podem

ser mantidas, abafadas ou amplificadas”. Não é muito diversa a recomendação de

LEWONTIN (2000b, p. 47) em The triple helix, possivelmente sua obra mais propositiva,

embora ele prefira centrar o destino da investigação biológica numa reforma da interação

postulada entre organismo e ambiente: “Chegou o momento em que o futuro progresso de

nosso entendimento da natureza requer que reconsideremos a relação entre o exterior e o

interior, entre organismo e ambiente”. Algo paradoxalmente, esse movimento – que seria

também aquele que transita da noção darwiniana clássica de adaptação para outra mais

240 Noutra versão da lista de temas centrais da DST, OYAMA, GRIFFITHS e GRAY (2001, p. 2) reduzem-na a seis itens: determinação conjunta por múltiplas causas; sensibilidade ao contexto e contingência; herança ampliada; desenvolvimento como construção; controle distribuído; e evolução como construção. Já STERELNY (2001, p. 335), no mesmo volume, relaciona uma tese programática (a unidade fundamental da evolução é o ciclo de vida) e três teses críticas centrais: não se deve pressupor que a fronteira organismo/ambiente tenha significado teórico para a biologia evolutiva e do desenvolvimento; genes podem ser destacados com finalidade explicativa ou preditiva, mas não são mais que um recurso desenvolvimental entre outros; é duvidoso explicar similaridades intergeracionais apenas com base em informação geradora de fenótipos transmitida entre gerações.

161

relacional, de construção – implica destruir ou abandonar o conceito de segmentos

predeterminados em um ambiente físico logicamente anterior à vida, uma vez que

... a premissa de que o ambiente de um organismo é causalmente independente do organismo, e de que as mudanças no ambiente são autônomas e independentes das mudanças na própria espécie, é claramente errada. É má biologia, e todo ecólogo ou biólogo evolucionista sabe que é má biologia. (...) Um ambiente é algo que rodeia [surrounds] e engloba, mas, para que haja um entorno [surrounding], é preciso haver algo no centro para ser rodeado [surrounded]. O ambiente de um organismo é a penumbra de condições externas que são relevantes para ele porque mantém interações efetivas com aqueles aspectos do mundo externo. Se o conceito de nicho ecológico preexistente pudesse ter alguma realidade concreta e algum valor no estudo da natureza, deveria ser possível especificar quais justaposições de fenômenos físicos constituiriam um nicho potencial e quais não. O conceito de um nicho ecológico vazio não pode ser tornado concreto.241 (LEWONTIN, 2000b, p. 48-49)

Como já foi assinalado acima, essa noção de niche-picking (escolha de nicho, ou

construção do ambiente) e a de sua conseqüente herdabilidade revelaram-se muito frutíferas

para pesquisadores simpáticos à perspectiva DST. MOORE (2002, p. 168-172) oferece três

exemplos eloqüentes de pesquisas que embaralham a nítida distinção tradicional entre o que

é herdado e o que é ambiental: camundongos que ganham mais peso quando recebem

cuidados parentais de adultos de pelagem clara, independentemente de sua própria pelagem

(ou seja, de seus genes), e que transmitem esse padrão característico de cuidado

parental/ganho de peso para as gerações seguintes, mais uma vez de maneira independente

do que especifica seu DNA em matéria de pelagem;242 filhotes de espécies diversas de

tentilhões que, ao nascerem em ninhos da outra espécie, aprendem o canto característico

desta e o transmitem a seus próprios filhotes;243 e dois tipos de organização de formigueiros

por formigas da mesma espécie (Solenopsis invicta), com uma ou com várias rainhas na

241 “... the claim that the environment of an organism is causally independent of the organism, and that changes in the environment are autonomous and independent of changes in the species itself, is clearly wrong. It is bad biology, and every ecologist and evolutionary biologist knows that it is bad biology. (...) An environment is something that surrounds or encircles, but for there to be a surrounding there must be something at the center to be surrounded. The environment of an organism is the penumbra of external conditions that are relevant to it because it has effective interactions with those aspects of the outer world. “If the concept of the preexisting ecological niche is to have any concrete reality and any value in the study of nature it must be possible to specify which juxtapositions of physical phenomena would constitute a potential niche and which would not. The concept of an empty ecological niche cannot be made concrete.” 242 RESSLER, Robert H. 1966. Inherited environmental influences on the operant behavior of mice. Journal of Comparative and Physiological Psychology. Vol. 61, p. 264-267. [Citado em MOORE, 2002.]

162

mesma colônia, com diferenças anatômicas na fase madura induzidas pelo tipo de

formigueiro e independentes do patrimônio genético desses indivíduos (mesmo rainhas com

os mesmos genes amadurecem de forma diversa caso sejam únicas, ou várias, na mesma

colônia).244 Para o autor, esse gênero de investigação fortalece cada vez mais a noção de

que as especificações contidas no DNA da espécie e os aspectos do ambiente que lhe são

relevantes ou são por ela moldados constituem complexos coerentes de recursos

desenvolvimentais que não faz sentido considerar separadamente, muito menos em

categorias hierárquicas que façam do DNA o componente mais importante, por ser

supostamente o único fator transmitido de geração para geração:

Lembre-se: como as características [traits] são construídas por cooperações [co-actions] gene-ambiente durante o tempo de vida de um indivíduo, o que precisa se tornar disponível para a prole, para que possa desenvolver as características adaptativas de seus ancestrais, são tanto os fatores genéticos quanto os fatores ambientais que levaram seus ancestrais a desenvolver essas características, antes de mais nada. Somente desse modo pode a prole desenvolver as próprias características adaptativas. Diante deste estado de coisas, a evolução darwiniana só pode ocorrer quando a natureza “seleciona” para reprodução na

próxima geração os sistemas gene-ambiente que produzem as características adaptativas. (...) O principal dessa conclusão é que mesmo recursos ambientais persistentes como o hábitat – não menos do que genes, ou do que fatores ambientais como comportamento parental, por exemplo – podem ser adquiridos por meio da evolução.245 (MOORE, 2002, p. 173-174)

BATESON e MARTIN (2000) estendem as conseqüências da noção de niche-

picking para o domínio mais controverso das relações entre genética e ambiente, aquele dos

comportamentos sociais humanos, tão caro aos proponentes da sociobiologia e adeptos do

determinismo genético:

243 IMMELMANN, K. 1969. Song development in the zebra finch and other estrildid finches. In: HINDE, R.A. (ed.). Bird vocalizations: Their relations to current problems in biology and psychology. Cambridge, Reino Unido: Cambridge University Press. [Citado em MOORE, 2002.] 244 KELLER, L. e ROSS, K.G. 1993. Phenotypic plasticity and “cultural transmission” of alternative social organization in the fire ant Solenopsis invicta. Behavioral Ecology and Sociobiology. Vol. 33, p. 121-129. [Citado em MOORE, 2002.] 245 “Remember: because traits are constructed by gene-environment co-actions during an individual’s lifetime, what must be made available to offspring if they are to develop the adaptive traits of their ancestors are both the genetic and environmental factors that led the ancestors to develop the traits in the first place. Only in this way can the offspring develop the adaptive traits themselves. Given this state of affairs, Darwinian evolution can occur only when nature ‘selects’ for reproduction in the next generation the

complete gene-environment systems that produce adaptive traits. (...) The upshot of this conclusion is that

163

Mesmo quando se sabe que um gene particular, ou uma experiência particular, tem um efeito poderoso sobre o desenvolvimento de um comportamento, a biologia tem uma maneira misteriosa de encontrar rotas alternativas. Se a via desenvolvimental normal para uma forma particular de comportamento adulto estiver bloqueada, um outro caminho pode com freqüência ser encontrado. O indivíduo pode ser capaz, por meio de seu comportamento, de configurar [match] seu ambiente de modo a adequá-lo a suas próprias características – um processo batizado como “escolha de nicho” [“niche-picking”]. Ao mesmo tempo, a atividade lúdica [playful] aumenta o leque de escolhas disponíveis e, quando mais criativa, permite ao indivíduo controlar o ambiente por vias que de outro modo não seriam possíveis.246 (BATESON e MARTIN, 2000, p. 220)

Talvez a melhor maneira de coordenar o que os adeptos de uma perspectiva DST

propõem de forma não muito unívoca seja destacar o fato de que se cruzam em seus

escritos pelo menos três tipos de recusa de primazia ou anterioridade lógica ao DNA: eles

não determinam sozinhos as características dos seres vivos, não são os únicos recursos

desenvolvimentais transmitidos de uma geração a outra e tampouco possuem exclusividade

como unidades de seleção, ou seja, não é apenas sobre eles que age a seleção natural. Este

último ponto é salientado por Stephen Jay Gould, ao negar a idéia de Richard Dawkins de

que genes interagiriam diretamente com o ambiente na luta dos organismos pela

sobrevivência:

Genes interagiriam diretamente [com o ambiente] somente se os organismos não desenvolvessem propriedades emergentes – isto é, se os genes construíssem os organismos de uma maneira inteiramente aditiva, sem quaisquer interações não-lineares entre os genes. (...) Assim, uma vez que os genes interagem com o ambiente apenas indiretamente por meio da seleção sobre os organismos, e uma vez que a seleção dos organismos opera predominantemente sobre características [characters] emergentes, genes não podem ser unidades de seleção.247 (GOULD, 2002, p. 620)

even persistent environmental resources such as habitat –no less than genes, or than environmental factors like parental behavior, for example– can be acquired through evolution.” 246 “Even when a particular gene or a particular experience is known to have a powerful effect on the development of behavior, biology has an uncanny way of finding alternative routes. If the normal development pathway to a particular form of adult behavior is impassable, another way may often be found. The individual may be able, through its behavior, to match its environment to suit its own characteristics –a process dubbed ‘niche-picking.’ At the same time, playful activity increases the range of available choices and, at its most creative, enables the individual to control the environment in ways that would otherwise not be possible.” 247 “Genes would interact directly only if organisms developed no emergent properties –that is, if genes built organisms in an entirely additive fashion, with no nonlinear interactions among genes at all. (...) Thus, since genes interact with the environment only indirectly through selection upon organisms, and since selection on organisms operates largely upon emergent characters, genes cannot be units of selection.”

164

Assim, tem razão GODFREY-SMITH (2001, p. 283) quando afirma que o cerne da

perspectiva DST é o antipré-formacionismo sobre o desenvolvimento, embora considere

que por vezes seus adeptos caminhem longe demais nesse rumo. O tema comum a essas

três recusas relacionadas com a suposta primazia do DNA pode ser caracterizado também

como o abandono definitivo das explicações teleológicas em biologia, dos resquícios de

causas finais e causas formais aristotélicas (OYAMA, 2000a, p. 13) que fazem dos genes a

sede de um intencionalidade inviável (por inexplicável e indesignável), em favor de causas

eficientes e materiais como as interações construtivas envolvendo genes, aspectos do

ambiente, estados das células, tecidos, órgãos etc., recursos de outras gerações, espécies ou

indivíduos, e assim por diante. Uma biologia, enfim, centrada na imanência do

desenvolvimento, e não essencialista (ou pré-formacionista).

Atenção: não se trata apenas de reivindicar igualdade ou mesmo superioridade de

recursos ambientais ou não-genéticos como fatores de determinação, pois isso ainda seria

permanecer nos limites estreitos da dicotomia nature/nurture e ser mais uma vez arrastado

pelo recorrente movimento pendular entre esses dois pólos, quando a perspectiva DST

pretende libertar-se de tal pensamento dicotômico.248 Esse é o sentido da escolha do termo

interacionismo construtivista: apenas alguns meios ou recursos de desenvolvimento são

herdados; os produtos do desenvolvimento, por seu turno, são construídos, e não dados

(pré-formados). Dito de outro modo, a regularidade que se observa no desenvolvimento de

seres da mesma espécie é resultado e não causa do sistema vivo (OYAMA, 2000a, p. 26 e

141; KELLER, 2002, p. 43). “Com efeito, o padrão com freqüência é mantido apesar de

consideráveis alterações no genótipo, no ambiente ou em ambos” (OYAMA, 2000a, p.

17).249 Essa mesma confiabilidade do processo de desenvolvimento é destacada também

por KELLER (2002, p. 121): “... mais notável do que a persistência material da estrutura do

gene através de tantas gerações, é a confiabilidade com que um organismo individual, em

cada geração, negocia sua precária passagem de zigoto a adulto”.

248 Movimento semelhante é realizado por Steven ROSE, ainda que ele não se filie à DST e proponha apenas a substituição da dicotomia nature/nurture por outra, entre plasticidade e especificidade (1998, p. 142), para entender o processo de desenvolvimento. Ambas seriam propriedades inerentes ao organismo e manteriam relações inextricáveis tanto com os genes quanto com o ambiente, compondo uma espécie de extensão do conceito de norma de reação introduzido por Theodosius Dobzhansky, segundo o qual muitos processos ontogenéticos são relativamente indiferentes à experiência do organismo. 249 “In fact, pattern is often maintained despite considerable changes in genotype, environment, or both.”

165

OYAMA (2000a, p. 41) chega mesmo a prescindir de um agente na efetivação do

tipo de mudança estudada pela biologia: “Em seres vivos, nenhum agente é necessário para

iniciar seqüências de mudança ou para guiá-los a suas metas [goals] próprias. A matéria,

incluindo a matéria viva, é inerentemente reativa, e a mudança, longe de ser uma intrusão

em alguma ordem natural estática, é inevitável”.250 Trata-se de uma forma algo paradoxal

de resgatar o organismo – e, por extensão, os comportamentos humanos, individual e

social, fenótipo que motiva a maior parte dos debates sobre o determinismo – do limbo de

passividade e heteronomia a que havia sido relegado pela doutrina da ação gênica, ou seja,

pela noção de que todas as manifestações fenotípicas se encontram prefiguradas de forma

linear no DNA. A qualificação de “paradoxal” se justifica por não se tratar de uma simples

troca de sinal, como por vezes se entende o ponto de vista da DST, ou seja, mera subtração

ao DNA do atributo de autonomia e sua transferência para o ambiente, ou para fatores não-

genéticos em geral, o que pode ser entendido como a ressurreição de alguma forma de

vitalismo, de um sopro ou uma força misteriosa a comandar o próprio desenvolvimento do

organismo. O que a perspectiva DST busca inaugurar não é tanto o traslado da autonomia

de um componente privilegiado a outro, mas sua distribuição por todo o processo, inclusive

em termos temporais (em que o fenótipo anterior comparece como uma das “causas” do

subseqüente, e assim por diante). Para o ser humano e social, o que se objetiva resgatar com

essa visão é exatamente a condição de possibilidade da autonomia, como ensina Susan

Oyama ao descartar tanto a doutrina do determinismo genético quanto a de seu oposto

simétrico, o behaviorismo:

Uma das conseqüências de dotar o gene com esses poderes subjetivos [subjectlike] é que nossas idéias de liberdade e possibilidade, nunca muito claras, tornam-se ainda mais turvas. Nossa liberdade parece ser ameaçada por coisas que são feitas conosco e afirmada por coisas que nós fazemos; genes como sujeitos nos tornam objetos, justamente como os estímulos dos behavioristas. O determinismo genético é freqüentemente criticado por nos transformar em robôs impelidos de lá para cá por forças biológicas, enquanto a ênfase behaviorista no controle do estímulo tem sido freqüentemente denunciada por nos tornar passivos, objetos meramente reativos de forças ambientais. Esse ataque em dois fronts

250 “In living beings, no agent is needed to initiate sequences of change or to guide them to their proper goals. Matter, including living matter, is inherently reactive, and change, far from being an intrusion into some static natural order, is inevitable.”

166

contra a autonomia deve nos fazer parar para pensar, especialmente quando nos dizem que isso é tudo o que há: apenas genes e ambiente.251 (OYAMA, 2000a, p. 90-91)

Torna-se claro, assim, como a crítica do determinismo genético empreendida do

ângulo da DST adquire uma dimensão também política, em sentido mais profundo que o da

crítica à sociobiologia. O próprio Richard Lewontin tira conclusões semelhantes, como ao

afirmar:

Todo objeto biológico, mas especialmente um ser humano, é o nexo de um grande número de causas em ação. Nenhuma, ou poucas, dessas causas determina a vida do organismo; assim, o que parecem ser histórias causais trivialmente diferentes podem ter produtos finais radicalmente diversos. É essa estrutura de interação de múltiplas vias causais que torna livres as criaturas vivas, até mesmo o cientista, de um modo que os objetos inanimados não são. É por isso que, no final, biografias nos contam tão pouco, mas exemplificam tanto, sobre a complexidade do desenvolvimento.252 (LEWONTIN, 2000a, p. 217)

Mostra-se legítimo, nesse contexto, o deslocamento metafórico do plano do

organismo biológico para o do sujeito social, elegendo a indeterminação – e portanto a

abertura para o novo e para a construção – como algo inerente a ambos; “legítimo” não

apenas porque homens em sociedade são primeiramente seres vivos, mas também, e

sobretudo, porque o determinismo biológico e em particular a sociobiologia propõem

reduzir a primeira condição à determinação pela segunda. Opor-se a tal estreitamento de

possibilidades não implica necessariamente pressupor uma continuidade ontológica, e tanto

mais problemática, entre negatividades supostamente inerentes a ambos os sistemas, o

desenvolvimental e o social, como parece sugerir LEWONTIN (1993, p. 120-121) nas

passagens em que insiste numa visão “dialética” (ou seja, na pressuposição à Engels de que

todo processo complexo de transformação necessariamente proceda pelo engendramento de

251 “One of the consequences of endowing the gene with these subjectlike powers is that our ideas of freedom and possibility, never that clear, are further muddled. Our freedom seems to be endangered by things that are done to us and affirmed by things that we do; the genes as subjects make us objects, just as the behaviorists’ stimuli do. Genetic determinism is often criticized for turning us into robots pushed and pulled by biological forces, while the behaviorist emphasis on stimulus control has frequently been denounced for making us passive, merely reactive objects of environmental forces. This two-fronted attack on autonomy should give us pause, especially when we are told that this is all there is: just genes and environment.” 252 “Every biological object, but especially a human being, is the nexus of a large number of weakly acting causes. No one, or few, of those causes determines the life of the organism; so that what appear to be trivially different causal stories may have utterly different end products. It is this structure of interaction of multiple causal pathways that makes living creatures, even the scientist, free in a way that inanimate objects are not. This is why, in the end, biographies tell us so little yet exemplify so much about the complexity of development.”

167

antíteses e sínteses). A esse respeito, é importante assinalar como Steven Rose, seu co-autor

no quase-manifesto Not in our genes (LEWONTIN, ROSE e KAMIN, 1985), evita

cuidadosamente o termo de sabor marxista em sua própria tentativa de sistematizar uma

perspectiva teórica alternativa à do determinismo genético (ROSE, 1998). Em suma,

mesmo que não se faça objeção de princípio a um ponto de vista político na base da crítica

teórica a um determinado programa ou estratégia de pesquisa, no caso da acertada crítica de

Lewontin aos pressupostos deterministas do PGH parece perfeitamente dispensável o

recurso a esquemas especulativos como o de uma “dialética da natureza”.

4.5 Interacionismo construtivista e baixo potencial heurístico

A insistência de uma de suas mais importantes figuras inspiradoras (Lewontin)

nesse esquematismo reminiscente da dialética da natureza de Engels não representa

contudo a única, e possivelmente nem mesmo a principal, fraqueza que se pode apontar na

perspectiva DST; afinal, os autores mais diretamente envolvidos no esforço de coordenação

desses pontos de vista, como Susan Oyama, claramente se afastam desse acréscimo

interpretativo desnecessário. Bem mais preocupante para a teoria incipiente do

interacionismo construtivista apresenta-se a objeção levantada por Sahotra Sarkar, segundo

o qual os adeptos da DST tendem a confundir determinismo (epistemologicamente

ilegítimo, por ultrapassar limites autorizados pelos experimentos) com redução física253

(legítima, por heurística e experimentalmente profícua), uma vez que a adoção de uma

perspectiva desenvolvimental (ou “histórica”) em biologia não invalida nem exclui

forçosamente o emprego da segunda como ferramenta de investigação:

Em biologia, aquelas condições [iniciais] são com freqüência críticas para a explicação do fenômeno – essa é uma versão do que por vezes se chama de princípio da historicidade em biologia. As entidades e processos são claramente insuficientes para construir os resultados [outcomes]. Mais ainda, dado que o conjunto de condições possíveis no qual as entidades podem se encontrar é grande, não deveria constituir surpresa que resultados [outcomes] biológicos – o resultado [result] de uma história evolutiva particular e de uma história desenvolvimental particular – não possam ser previstos ou construídos (a partir de algum outro F-domínio [F-realm; na terminologia de Sarkar, a teoria com base na qual se realiza a

253 Explicação de fenômenos biológicos com base na física (SARKAR, 1998, p. 10).

168

redução de outra, como a física em relação à biologia molecular]) na prática. Mas isso, uma vez mais, não é argumento contra o valor das reduções.254 (SARKAR, 1999, p. 65)

O equívoco estaria em deplorar a redução por não comportar predição, quando ela

representa unicamente uma forma de explicação, uma “categoria mais fraca” (SARKAR,

1999, p. 64) do que a primeira. Mas não inútil: se o critério adotado for o da prática da

ciência, ou seja, o da construção de modelos úteis ou intelectualmente iluminadores do

mundo (valor que certamente seria subscrito pelos mais ferrenhos críticos do determinismo

e do reducionismo genéticos no campo da DST, pois todos se reivindicam cientistas), a

redução física da biologia não só constitui um instrumento válido, como também profícuo,

na opinião de SARKAR (1999, p. 64). Com efeito, não há como negar ou desprezar o

notável acervo de descobertas propiciado pelo biologia molecular, sobretudo na última

década, em que pesem todos os abusos do discurso determinista do qual se fez preceder e

acompanhar. A reverência diante da inaudita produtividade experimental da genética

tornada genômica também aproxima autores insuspeitos de militância pró-determinismo,

como Evelyn Fox Keller. Para ela, o conceito reducionista de gene representa uma espécie

de alça ou manopla (handle) indispensável para o pesquisador experimental, que lhe

permite manusear e manipular de modo eficiente a vida no plano infra-celular: “De fato, a

eficácia de tais intervenções é o que convence muitos biólogos moleculares do poder causal

dos genes” (KELLER, 2002, p. 159). A utilidade do reducionismo é experimental e

tecnológica, como assinalam CHO et al. (1999, p. 2089): “Concentrar-se numa abordagem

reducionista tem obtido algum valor histórico ao ajudar cientistas a produzir um melhor

entendimento da função celular”, mas esses mesmos autores ressalvam que “a vida não

precisa ser entendida somente em termos do que a tecnologia permite a cientistas naturais

descobrir”.255

254 “In biology, those [initial] conditions are often critical in the explanation of phenomena –this is one version of what is sometimes called the principle of historicity in biology. The entities and processes are clearly not sufficient to construct the outcomes. Moreover, since the set of possible conditions in which the entities may find themselves is large, it should come as no surprise that biological outcomes –the result of a particular evolutionary and a particular developmental history– would not be predicted (from some other F-realm) in practice. But this, once again, is no argument against the value of reductions.” 255 “Focusing on a reductionist approach has had some historical value in helping scientists produce a better understanding of cellular function. (...) But life need not be understood solely in terms of what technology permits natural scientists to discover.”

169

O elogio à proficiência da perspectiva reducionista no trabalho de laboratório

(mesmo que a contragosto) pode ter também como contrapartida um ataque ao próprio

campo da DST, que padeceria de uma incapacidade de gerar programas experimentais

originais. Em Ontogeny of information, OYAMA (2000a, p. 126) ainda respondia

tentativamente à objeção de que o excesso de complexidade visado pelo interacionismo

construcionista tornava impraticáveis quaisquer generalizações, dizendo que, na verdade,

essa crítica poderia ocultar um preconceito contra novos tipos de generalização. Naquela

altura, a líder da DST ainda não arriscava mais que delinear a proposta de um estilo de

pesquisa: “Para alcançar a integração coerente [da embriologia e dos estudos

desenvolvimentais com a teoria da evolução], um investigador precisa realizar por sua

vontade e por seu engenho o que os organismos em desenvolvimento realizam pela

natureza emergente: discriminar níveis e funções e manter em ordem as fontes, os efeitos

interativos e os processos” (OYAMA, 2000a, p. 164).256 Em Evolution’s eye, década e meia

depois, ela admite que a DST não deve ser considerada uma “teoria” no sentido forte de

máquina geradora de hipóteses experimentais (OYAMA, 2000b, p. 2), embora chegue a

esboçar, como já foi destacado acima, as linhas de um futuro programa experimental para a

DST: “... atentar para as ligações ecológicas, comportamentais e fisiológicas entre gerações,

assim como perguntar como mudanças intergeracionais podem ser mantidas, abafadas ou

amplificadas” (OYAMA, 2000b, p. 8-9).

O grande e temerário passo é dado por Godfrey-Smith, em sua contribuição para a

coletânea Cycles of contingency, co-editada por Susan Oyama, quando diz que a DST não

estaria no domínio da ciência propriamente dita, mas sim no que chama de filosofia da

natureza, portanto livre da obrigação de ser útil em contexto experimental: “No trabalho

empírico, é provavelmente inevitável que o pesquisador desembaralhe fatores causais e

distinga alguns como condições primárias e outros como condições de fundo, e negar essa

estratégia ao pesquisador significa interditar a [própria] pesquisa” (GODFREY-SMITH,

2001, p. 289).257 Dele discorda Lenny Moss, no mesmo volume, recusando a dicotomia

256 “For coherent integration to be accomplished, an investigator must do by will and wit what the developing organism does by emerging nature: sort out levels and functions and keep sources, interacting effects, and processes straight.” 257 “In empirical work, it is probably inevitable that the researcher sort through causal factors and distinguish some as primary and others as background conditions, and to deny the researcher this strategy is to shut down research.”

170

sem gradações entre reducionismo heurístico e holismo “impraticável” e advogando que

nem mesmo a abordagem reducionista pode esquivar-se de dar conta da integração real

observada nos organismos: “Abrir mão do cordão umbilical pré-formacionista não significa

cair num abismo sem fundo de complexidade, mas sim manter-se empiricamente aberto

para descobrir qual nível de ordenação biológica é mais relevante para os próprios

propósitos explicativos. (...) Módulos multimoleculares e funcionalmente conservados têm

emergido como novas unidades de desenvolvimento, morfologia, inovação e variação, num

nível intermediário de ordenação biológica”.258 (MOSS, 2001, p. 91)

Em poucas palavras, não está claro ainda – nem mesmo entre os simpatizantes da

DST – se dessa perspectiva poderá ser derivado um programa experimental que consiga ir

além do programa reducionista, até porque ainda tem poucos resultados para exibir nesse

quesito, à exceção talvez da fecundidade da noção de niche-picking.

Nessa encruzilhada entre a crítica do reducionismo e a dificuldade de rivalizar com

ele nas trincheiras dos laboratórios, um dos grandes problemas para a DST é a própria

noção de gene. Embora até mesmo os adversários dessa perspectiva aceitem que se torna

cada vez mais difícil abarcar com esse termo tantas e tão díspares unidades funcionais de

ácidos nucléicos, o que hoje impediria uma definição unívoca e epistemologicamente

aceitável para ele (MAYNARD SMITH, 2000, p. 44),259 no campo dos interacionistas

construtivistas não há muito acordo quanto ao destino que lhe cabe. KELLER (2002, p. 17

e 79), por exemplo, considera que o conceito pertencia ao século XX e com ele se

extinguia, mas conclui que terá de continuar a ser empregado – pela necessidade prática de

pesquisadores260 – até que surja vocabulário novo e melhor (KELLER, 2002, p. 155).261 Já

Eva Neumann-Held considera que, mesmo retendo o conceito de gene, é preciso enfrentar a

258 “To give up the preformationist umbilical cord is not to drop in an abyss of limitless complexity but rather to remain empirically open to discovering what level of biological ordering is relevant for one’s explanatory purposes. (...) Functionally conserved, multimolecular modules have emerged as new units of development, morphology, innovation, and variation, at an intermediate level of biological ordering.” 259 Para GELBART (1998, p. 660), uma voz aparentemente mais “neutra” nesse debate, já está claro para cientistas experimentais que os genes não são objetos físicos, mas somente conceitos com uma pesada bagagem histórica. 260 Há outra razão de ordem pragmática para manter em circulação o conceito de “gene”, diagnosticada por GELBART (1998, p. 660): mesmo constituindo uma barreira para a compreensão do genoma, essa noção ainda serve de fundamento para a organização das grandes bases de dados genômicos. 261 É perceptível já a tendência de alguns cientistas a substituir “gene” por “cístron”, neologismo livre da carga filosófica e até ideológica do termo clássico, e que designa uma região de DNA comprovadamente especificadora de um produto funcional (em geral, uma proteína), por meio de teste do tipo “cis-trans”.

171

questão de sua imprecisão, o que a leva a propor sua reformulação no que nomeia como

“conceito processual-molecular de gene” (process molecular gene, ou PMG), reunindo os

processos de transcrição (do DNA em mRNA) e de tradução (dos códons de RNA em

aminoácidos):

“Gene” é o processo (isto é, o decurso de eventos) que interliga o DNA com todos os outras entidades não-DNA relevantes na produção de um polipeptídeo262 particular. O termo gene, nesse sentido, designa os processos que são especificados por (1) interações específicas entre segmentos específicos de DNA e entidades específicas não-localizadas em DNA, (2) mecanismos específicos de processamento dos mRNAs resultantes em interações com outras entidades não-localizadas em DNA. Esses processos, na sua ordem temporal específica, resultam (3) na síntese de um polipeptídeo específico. Esse conceito de gene é relacional e sempre inclui a interação entre o DNA e seu ambiente (desenvolvimental).263 (NEUMANN-HELD, 2001, p. 74)

Mesmo para um leigo fica manifesto no conceito proposto seu caráter pouco

operacional – isso para não mencionar as dificuldades de representação que introduziria:

como anotá-lo num artigo científico, por exemplo, na forma de diagramas, fórmulas,

esquemas tridimensionais? Com todos os seus defeitos, o conceito tradicional era

facilmente representado na forma de um “colar de contas”, em que seus diversos

componentes (promotores, operons, éxons etc.) aparecem enfileirados na ordem que se

acredita ocuparem na cadeia de DNA. O conceito PMG é criticado por Lenny Moss como

impraticável, com base no exemplo do gene conhecido como N-CAM,264 que, dependendo

do tecido e da etapa de desenvolvimento em que é expressado, pode resultar numa centena

de variações (isoformas) da proteína N-CAM; cada variante, no caso do conceito PMG,

demandaria uma nova definição. “Os PMGs não denotariam nada de mais durável do que

262 Molécula composta por uma única cadeia de aminoácidos; proteínas são formadas por uma ou mais dessas cadeias. 263 “(...) ‘gene’ is the process (i.e., the course of events) that binds together DNA and all other relevant non-DNA entities in the production of a particular polypeptide. The term gene in this sense stands for processes which are specified by (1) specific interactions between specific DNA segments and specific non-DNA located entities, (2) specific processing mechanisms of resulting mRNA’s in interactions with additional non-DNA located entities. These processes, in their specific temporal order, result (3) in the synthesis of a specific polypeptide. This gene concept is relational, and it always include interactions between DNA and its (developmental) environment.” 264 De neural cell adhesion molecule, ou “molécula de adesão de célula neural”.

172

singularidades na história de vida de um organismo e, portanto, seriam de valor biológico

negligenciável” (MOSS, 2001, p. 91).265

A conclusão mais plausível desse debate, além de provisória, é que – parafraseando

Ernst JÜNGER (1989, p. 249)266 a respeito da ciência e do intelecto – não se trata de

menosprezar e prescindir imediatamente do conceito de gene, mas de remetê-lo a seu

devido lugar, ou seja, o de um entre muitos recursos desenvolvimentais, e não o de um

componente privilegiado, único a armazenar toda a informação e a deter todo o controle267

do processo de desenvolvimento do organismo.268 Nesse sentido, mostra-se útil a distinção

entre Gene-P (de pré-formacionista) e Gene-D (de desenvolvimental) proposta por MOSS

(2001, p. 86-87). O primeiro, Gene-P, é o conceito mendeliano, no qual só conta sua

condição de unidade de transmissão intergeracional, funcionando portanto como fator de

predição de uma característica fenotípica, e não suas propriedades moleculares. Já o Gene-

D é entendido como unidade transcricional, simples recurso para o desenvolvimento, em si

mesmo indeterminado com relação ao fenótipo (pois este depende também da confluência

de todos os outros recursos desenvolvimentais, dos epigenéticos aos não-genéticos).

Tal diferenciação corresponde em grande medida à que Sahotra Sarkar estabelece

entre determinismo genético (cujo correlato ou substrato seria o Gene-P de Moss) e

redução física (pelo menos não-conflitante com o Gene-D), concluindo que o equívoco

estaria em promover uma mistura dessas duas doutrinas. É compreensível que os

interessados na promoção e na hegemonia da pesquisa genômica associem a ela o sucesso

experimental inegável da redução física, para reforçar a plausibilidade do determinismo

genético, mas os críticos deste último deveriam evitar cometer o mesmo erro, ao identificar

determinismo genético com reducionismo físico, como faziam LEWONTIN, ROSE e

KAMIN (1985) ao denunciar este último como não-dialético e correlato da ideologia

individualista: “(...) muito da confusão filosófica sobre a viabilidade da redução em

265 “PMGs would not denote anything more durable than singularities in the life history of an organism and thus would be of negligible biological value.” 266 Ver Capítulo 1. 267 V. próximo capítulo, “Metáfora e destino da informação”. 268 GOULD (2002, p. 614), por exemplo, diz que sua função é a de simples instrumento de apontadoria (bookkeeping), enquanto Eric Lander –um dos líderes do PGH– exprimiu idéia semelhante, numa conferência, com um termo mais glamuroso, “caderno de notas da evolução” (REUNIÃO ANUAL DA ASSOCIAÇÃO AMERICANA PARA O AVANÇO DA CIÊNCIA-AAAS, 2002, Boston); ATLAN (1992, p. 50) e MORANGE (2001, p. 24) seguem na mesma direção ao considerar mais adequada que a metáfora de programa a de memória de computador, para descrever a função do genoma.

173

genética molecular surgiu da mistura [conflation] do reducionismo genético com o físico.

Os problemas com o primeiro foram usados para argumentar contra o último” (SARKAR,

1998, p. 14).269 Raciocínio semelhante é desenvolvido por Michel Morange quando afirma

que a biologia molecular realmente praticada nos laboratórios nunca se limitou a um

programa genético-determinista:

Os opositores da biologia molecular e da genética afirmam que há dois tipos de biólogos: aqueles que querem explicar a complexidade da vida simplesmente entendendo os genes e aqueles que situam essa complexidade no nível de outros componentes do organismo e, acima de tudo, em sua organização. Tal dicotomia é absurda e cria uma impressão errada da visão molecular da vida que se tem desenvolvido desde os anos 1950. Se os biólogos moleculares tivessem de designar uma categoria de macromoléculas como sendo essenciais para a vida, seriam as proteínas e suas múltiplas funções, não o DNA e os genes. Os genes são importantes somente porque contêm informação suficiente para permitir a síntese dessas proteínas no momento e no lugar apropriados.270 (MORANGE, 2001, p. 2)

Pode-se mesmo postular que ao menos parte da dificuldade da DST em obter

desdobramentos experimentais de sua perspectiva teórica decorra do incômodo – no

mínimo, de uma atitude ambígua – de seus adeptos com respeito a um procedimento

metodológico (a redução física), que alguns equivocadamente assimilam à perspectiva que

combatem (a do determinismo genético e a da sociobiologia), que é metateórica. Mantendo

essa confusão, podem pôr a perder a oportunidade histórica de reconectar-se com aqueles

pesquisadores sensíveis às complexidades que emergem dos experimentos em biologia

molecular e que não subscrevem a priori a agenda determinista.

269 “(...) much of the philosophical confusion about the viability of reduction in molecular genetics has arisen from a conflation of genetic and physical reductionism. The problems with the former have been used to argue against the latter.” 270 “The opponents of molecular biology and of genetics claim that there are two types of biologist: those who want to explain the complexity of life simply by understanding genes, and those who situate this complexity at the level of other components of the organism and, above all, in its organization. This dichotomy is absurd and gives a wrong impression of the molecular biology of life that has developed since the 1950s. If molecular biologists had to designate one category of macromolecules as being essential for life, it would be

174

4.6 Interacionismo, complexidade e biologia de sistemas

Com efeito, como se procurou caracterizar no começo deste capítulo, é perceptível a

confluência dessas duas perspectivas, a da complexidade que se impõe no recesso dos

laboratórios que pesquisam as relações entre genoma e desenvolvimento e a da

complexidade há anos defendida pelos cientistas que orbitam, de perto ou de longe, os

temas lançados pela DST. Não é preciso muito esforço para detectar similaridades ou, no

mínimo, ressonâncias entre as formulações do interacionismo construtivista e os esboços e

modelos que emergem das pesquisas mais recentes, principalmente em torno da idéia de

que o genoma constitui uma entidade complexa e com dinâmica própria, cuja estrutura se

encontra em relacionamento não menos complexo e temporalmente determinado com

outros níveis de organização biológica, como fenótipos e ambiente (ou melhor, nichos

ecológicos definidos por organismos em desenvolvimento).

Assim é que Eörs Szathmáry, um colaborador de John Maynard Smith em obras

teóricas de biologia que pouco têm a ver com a DST, sugere buscar nos instrumentos para

abordar e quantificar a complexidade de ecossistemas a inspiração para desenvolver

modelos capazes de dar conta da conectividade inerente ao genoma e da complexidade

biológica em geral, “que poderia ser mais bem explicada considerando redes de fatores de

transcrição e os genes que regulam, em lugar de simplesmente contar o número de genes ou

de interações entre genes” (SZATHMÁRY, JORDÁN e PÁL, 2001, p. 1315).271 Compare-

se essa visão com a de genomas “turbulentos” em interação com ambientes idem, tal como

proposta por Gabriel Dover num capítulo contra Richard Dawkins de volume organizado

pelos “cientistas radicais” Hilary e Steven Rose: “Muitas adaptações supostamente

complexas não são o resultado final da adição de centenas de genes novos em folha, mas

sim os produtos de novas permutações combinatórias de um conjunto limitado de módulos

proteins and their multiple functions, not DNA and genes. Genes are important only because they contain enough information to enable the synthesis of these proteins at an appropriate time and place.” 271 “[We propose that biological complexity] might be better explained by considering networks of transcription factors and the genes they regulate, rather than by simply counting the number of genes or the number of interactions among genes.”

175

não-mendelianos livremente flutuantes e amplamente distribuídos” (DOVER, 2000, p.

69).272

Outros críticos da perspectiva DST também chamam a atenção para a importância

das propriedades de conectividade e modularidade em redes de interações e da emergência

de explicações de tipo topológico tanto na biologia molecular como em outros campos de

investigação biológica (SARKAR, 1999, p. 173), assim como para a hierarquia de

estruturas e escalas (das moléculas aos organismos e até os grupos) em que se engendram

complexas funções biológicas (MORANGE, 2001, p. 89-90) – precisamente como fazem

MOSS (2001, p. 94), KELLER (2002, p. 142-146) e GOULD (2002, p. 553n), bem mais

próximos daquilo que a DST defende como interacionismo construtivista.

Retomando o que diz STROHMAN (2002, p. 701), as condições estão dadas para

que a pesquisa nesse campo evolua para uma biologia de sistemas (a escolha do nome não é

só uma coincidência com o significado da abreviação DST, assim como não o é o fato de

ele citar Lewontin e Keller em seu artigo); mais que isso, é o conhecimento emergente dos

laboratórios que está a exigir essa transição. Mas o próprio autor alerta que interesses

econômicos e institucionais podem dificultar esse desenvolvimento, em favor da

manutenção do paradigma da biologia computacional (STROHMAN, 2002, p. 703), cujos

bancos de dados não conteriam porém informação suficiente para especificar o

comportamento de sistemas complexos. O desenvolvimento “natural” dessa biologia

dominada pelo complexo acadêmico-industrial de produção em massa de dados, após a

conclusão dos genomas das espécies mais importantes, é partir para o seqüenciamento do

conjunto das proteínas (proteoma) desses organismos, na esperança de entender como se

engendram estrutura e função dessas macromoléculas a partir do que estaria especificado

nas bases de informações já obtidas sobre o DNA.

Hoje, a estrutura de proteínas ainda é individualmente determinada por um processo

laborioso e caro de cristalografia, que pode custar de US$ 50.000 a US$ 200.000

(STEVENS et al., 2001, p. 90) por macromolécula. Como muitos motivos que constituem

proteínas se repetem e elas podem ser organizadas em famílias, acredita-se que a

determinação experimental das estruturas de 16.000 delas seria suficiente para derivar

272 “Many supposedly complex adaptations are not the end result of the addition of hundreds of brand-new genes; rather, they are the products of new combinatorial permutations of a limited set of free-floating and widely distributed non-Mendelian modules.”

176

algoritmos capazes de, a partir daí, deduzir estruturas apenas com base na seqüência

(STEVENS et al., 2001, p. 91; BAKER e SALI, 2001, p. 95) – um empreendimento de US$

800 milhões a US$ 3,2 bilhões, para ocupar legiões de biólogos moleculares por muitos

anos. “As características biofísicas das proteínas variam amplamente em comparação com

as propriedades conservadoras apresentadas pelos ácidos nucléicos, tornando esse projeto

de determinação da estrutura de proteínas ordens de magnitude mais desafiador do que os

vários projetos de seqüenciamento de genomas”, resumem STEVENS et al. (2001, p. 90).

O rumo das investigações e dos negócios com biologia, como se pôde ver, já está

traçado pelos que detêm o comando e as verbas de pesquisa no setor, mas nada indica que

essa rota consiga evitar a crise prognosticada por STROHMAN (2002, p. 703), fruto

provável da resistência da biologia informacional, hegemônica, à biologia de sistemas que

está nascendo na confluência das pesquisas moleculares mais recentes com críticas antigas

à perspectiva determinista que sempre inspirou o Projeto Genoma Humano e ainda inspira,

em grande medida, muitas das linhas de pesquisa que engendrou.

177

CAPÍTULO 5

Metáfora e destino da informação

Embora não sejam mais tão encontradiças em pronunciamentos de pesquisadores

atuantes no campo da biologia, metáforas que associam a genética com o mundo da

informática prosseguem como moeda corrente na apresentação do genoma para o público, a

ponto de penetrarem no senso comum sobre a questão e adquirirem a aparência de um

conceito revelador da essência do gene. A mais corriqueira faz dele um programa, ou seja,

por analogia com o software, um código capaz de realizar tarefas ou de engendrar ações.

Há muitas razões concorrentes para promover tal identificação – que este texto mostrará ser

tão deficitária quanto interessada –, a começar pela percepção correta de que muito do

dinamismo do que se poderia chamar de economia de futuros se deslocou para a esfera de

atuação das empresas de ciências da vida (biomedicina e biotecnologia) e de informática

(sobretudo internet). Companhias que trabalhem a partir de DNA ou de silício, ou

preferivelmente sobre alguma forma de convergência dessas plataformas, tornaram-se

sinônimos do que se convencionou designar como alta tecnologia.

A contigüidade não é porém apenas simbólica, mas se manifesta igualmente, em

graus variados de confluência, no interior dos próprios campos de atividade. Decerto que

ainda não se materializou nem como protótipo um computador com base em DNA, capaz

de cooptar as propriedades e os padrões de hibridização das fitas da dupla hélice para

substituir, na escala molecular, os avantajados dispositivos eletrônicos baseados em

semicondutores (cada vez mais próximos de um limite físico de miniaturização), mas já

foram por assim dizer incorporadas no cotidiano da informática realmente existente as

redes ditas neurais, formas de processamento que buscam imitar a flexibilidade do

pensamento humano.

É no dia-a-dia da pesquisa genômica, no entanto, que a informática está

coadjuvando o que aparece como verdadeira revolução, como se pode notar em visita a

qualquer instalação do setor (onde já soa quase anacrônico falar em “laboratório”). Os

instrumentos básicos de trabalho são seqüenciadores automáticos de DNA, que não passam

de computadores aplicados à rotina de monitorar e interpretar, em paralelo, resultados de

dúzias de processos eletroquímicos (eletroforese) no interior de tubos capilares, e não mais

178

em tubos de ensaio ou placas de gel. Mesmo as etapas “úmidas” da operação, como a

produção de lotes de DNA para leitura, passam por um processo acelerado de automação,

por exemplo com o emprego de robôs e códigos de barras para transportar, armazenar e

rastrear amostras. Convertida – ou “transduzida”, como se diz – para a modalidade digital,

na forma de séries de permutações de letras A, T, C e G para designar a seqüência de bases

nitrogenadas (amina, timina, citosina e guanina) que compõem os degraus da hélice dupla,

desaparece a identidade química enquanto tal. A partir daí, todo o trabalho de pesquisa –

anotação, interpretação e prospecção de genes – passa a ser feito in silico, e não mais in

vivo ou in vitro: a seco. É o domínio da bioinformática, setor que vem observando a maior

expansão no que já caberia chamar de complexo biológico-industrial.

Há uma maneira ainda mais substancial de conceber essa convergência, que

transcende o fato tecnológico para escorar-se numa continuidade de tipo ontológico. Nessa

camada mais profunda da metáfora do gene como programa, o próprio DNA é definido

como informação. Como não se cansam de alertar KELLER (1995), LEWONTIN (2000a,

2000b) e OYAMA (2000a, 2000b), paga-se um preço para usar metáforas, e ele pode ser

proibitivo. Um exemplo tomado da copiosa literatura de divulgação sobre o genoma

ajudará a tornar mais evidentes os custos de não refletir sobre as implicações do conteúdo

da figura de linguagem empregada. Eis como é definida, por um biólogo-empresário do

Vale do Silício, a Nova Biologia:

A biologia está renascendo como ciência da informação, progênie da Era da Informação. Como cientistas da informação, biólogos se ocupam com as mensagens que sustentam a vida, tais como as intricadas séries de sinais que dizem a um óvulo fertilizado para se desenvolver em um organismo completo (...). As moléculas carregam informação, e são suas mensagens que têm a mais elevada importância. Cada molécula interage com um conjunto de outras moléculas, e cada conjunto se comunica com outro conjunto, de modo que todos estão interconectados. Redes [networks] de células dão forma a células; redes de células produzem organismos multicelulares; redes de pessoas ocasionam culturas e sociedades; e redes de espécies abarcam ecossistemas. A vida é uma rede [web] e a rede é vida.273 (ZWEIGER, 2001, pp. xi-xii)

273 “Biology is being reborn as an information science, a progeny of the Information Age. As information scientists, biologists concern themselves with the messages that sustain life, such as the intricate series of signals that tell a fertilized egg to develop into a full-grown organism. (...) Molecules convey information, and it is their messages that are of paramount importance. Each molecule interacts with a set of other molecules and each set communicates with another set, such that all are interconnected. Networks of molecules give rise

179

Quase uma década antes, conceitualizações semelhantes já eram emitidas por

luminares da nascente ciência genômica, como Leroy Hood:

O futuro da biologia vai depender da análise de sistemas complexos e de redes que podem envolver moléculas, células ou mesmo arranjos de células. Para que algum dia possamos entender tais sistemas, precisam ser definidos os elementos individuais da rede, assim como a natureza de sua conectividade. Modelos de computador serão necessários para explorar o comportamento em rede quando elementos individuais são perturbados.274 (HOOD, 1993, p. 149)

5.1 Das gêmulas ao código construtor

Diante da freqüência e da facilidade com que se fala de “informação genética”, a

noção de que as macromoléculas de DNA carregam mensagens não chega a causar

estranheza, mas deveria. A superposição de camadas de sentido acumuladas pela

convergência bioinformática contribui para soterrar o núcleo da metáfora, que tem uma

história muito anterior ao advento da biotecnologia e das redes de computadores e se

organiza em torno da noção de pré-formação, vale dizer, da idéia de que o organismo e seu

curso de desenvolvimento estão já especificados na unidade ínfima de origem e de que esse

desdobramento ou crescimento ocorre de modo automático, graças à potência aí contida.

Essa noção é tão antiga quanto a biologia moderna, assim como a polêmica que a opôs

desde o século XVII à de epigênese, segundo a qual o organismo se forma pela produção de

partes e órgãos que não estão prefiguradas no germe (ex novo, e não ex ovo), e se mostrou

tão influente e recorrente que chegou a ser incluída entre os dez maiores debates científicos

de todos os tempos.275

Na origem, o pré-formacionismo acabou derrotado pelo epigenesismo como

explicação para o fenômeno do desenvolvimento e ridicularizado exatamente em razão das

aporias a que pode se ver conduzido o pensamento imagético em biologia, nesse caso por

to cells; networks of cells produce multicellular organisms; networks of people bring about cultures and societies; and networks of species encompass ecosystems. Life is a web and the web is life.” 274 “The future of biology will depend upon the analysis of complex systems and networks that may involve molecules, cells, or even arrays of cells. If we are ever to understand such systems, the individual elements in the network must be defined, as must the nature of their connectivity. Computer models will be required to explore network behavior when individual elements are perturbed.”

180

força de ficções como o “homúnculo” na cabeça do espermatozóide ou a presença de todos

os seres humanos nascidos e por nascer no interior do “ovário de Eva” – título de um

curioso relato dos debates da época (PINTO-CORREIA, 1999). Entretanto, como faz notar

Stephen Jay Gould na apresentação desse mesmo livro, a idéia só parece ridícula de uma

perspectiva anacrônica, cega para o peso das imagens que conferem uma aura de evidência

e naturalidade ao conceito atual de gene:

Deveremos culpá-los porque o aparato metafórico da vida do século XVIII não incluía o conceito ‘correto’ de instruções programadas, em vez de partes pré-formadas? [Charles] Bonnet conhecia a caixa de música, mas talvez a sociedade precisasse do tear de Jacquard, e da pianola e do cartão perfurado do computador Hollerith, para colocar, dentro da capacidade geral de compreensão, o conceito de instruções codificadas. (PINTO-CORREIA, 1999, p. 10)

Porque não resta dúvida de que, por meio de um aggiornamento da noção, agora

revestida com o manto respeitável das novas tecnologias, o conceito reprimido retornou

com força arrasadora, como conclui PINTO-CORREIA:

No final, os embriologistas foram os grandes derrotados na guerra contra a genética. Com o tempo, a abordagem genética à embriologia (e à evolução, e a tudo o mais que existisse sob o sol biológico) tornou-se a versão triunfante. E a sucessora final da pré-formação, a biologia molecular, hoje ameaça tomar conta de todo o campo da biologia do desenvolvimento. (1999, p. 382)

As partículas da hereditariedade passariam ainda por muitas encarnações teóricas

antes de libertar-se de seu fardo de mistério, das “gêmulas” de Charles Darwin aos

“fatores” de Gregor Mendel e aos “genes” de Wilhelm Johannsen – termo cunhado em

1909, três anos depois de “genética” (KELLER, 2000, p. 1). Tal fardo só começaria a

dissipar-se a partir de 1944, com a identificação do substrato ou correlato físico para tais

partículas. Havia alguns anos já que se desconfiava de sua presença numa substância difusa

no núcleo das células vivas – o ácido desoxirribonucléico, DNA – e que tinha a

peculiaridade de condensar-se em estruturas pareadas e duplicadas durante a divisão celular

batizadas de cromossomos, as quais, por sua vez, sugeriam uma relação direta com os pares

de fatores hereditários “conhecidos” desde o trabalho de Mendel, publicado em 1866.

275 Cf. HELLMAN, Hal. 1999. Grandes debates da ciência. Dez das maiores contendas de todos os tempos. Tradução: José Oscar de Almeida Marques. São Paulo: Editora Unesp.

181

Quase um século depois, ao desvendar a estrutura química tridimensional do DNA,

construindo o modelo da hélice dupla em que bases nitrogenadas emparelham-se segundo

um padrão fixo (adenina sempre com timina, e citosina sempre com guanina, o que torna

cada hélice logicamente complementar da outra), WATSON e CRICK (1953, p. 737)

acrescentaram a seu artigo de apenas uma página as três linhas que empolgariam a biologia

do século XX: “Não escapou à nossa atenção que o emparelhamento específico por nós

postulado sugere imediatamente um possível mecanismo de cópia do material genético”276

(ou seja, da transmissão de partículas hereditárias entre gerações de células e organismos).

O funcionamento do mecanismo propriamente dito – grupos de três bases, ou códons, como

especificadores de cada aminoácido na seqüência de uma proteína – seria elucidado anos

depois sob a liderança de Crick e Sidney Brenner, e com ele começavam a ganhar

substância, ainda que no plano ínfimo das moléculas, aquelas que até então haviam pairado

como forças enigmáticas sobre a paisagem e a sucessão da vida.

A noção de que esse mecanismo constituiria necessariamente um código, por outro

lado, não havia nascido com a estrutura do DNA, nem com sua implicação na síntese de

proteínas. Em certo sentido, a descoberta de Watson e Crick já se deu no quadro de um

programa de investigação delineado dez anos antes por Erwin Schrödinger, um físico que

havia dividido o Prêmio Nobel de 1933 com Paul Dirac por suas contribuições à mecânica

quântica. Numa conferência decisiva de 1943, What is Life? (SCHRÖDINGER, 1997), o

físico deduziu e postulou que, para conter toda a complexidade de um futuro organismo no

espaço diminuto do núcleo de uma única célula (o zigoto), sem prejuízo à ordem, uma

“chave elaborada” só poderia existir como “associação bem ordenada de átomos”

(SCHRÖDINGER, 1997, p. 97), isto é, como molécula. Mas Schrödinger deu um passo

além, adicionando a seu modelo teórico uma determinação que o aproximaria da noção de

programa, termo que só viria a ser empregado nesse contexto por Jacques Monod e

François Jacob em 1961 (KELLER, 2000, p. 80). Para Schrödinger, a substância que depois

seria identificada e decifrada como DNA haveria também de ser, necessariamente, um

construtor:

276 “It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible copying mechanism for the genetic material.”

182

São esses cromossomos, ou provavelmente só uma fibra axial do que vemos sob o microscópio como cromossomo, os que contêm em alguma forma de chave ou texto cifrado o esquema completo de todo o desenvolvimento futuro do indivíduo e de seu funcionamento em estado maduro. (...) Mas o termo ‘chave’, ou texto cifrado, é demasiadamente limitado. As estruturas cromossômicas são ao mesmo tempo os instrumentos que realizam o desenvolvimento que elas mesmas prognosticam. Representam tanto o texto legal como o poder executivo; para usar outra comparação, são ao mesmo tempo os planos do arquiteto e a mão-de-obra do construtor.277 (SCHRÖDINGER, 1997, p. 41-2)

5.2 Informação, pré-formação, cognição

Essa determinação do conceito é fundamental, como demonstra OYAMA ao longo

de seu livro Ontogeny of information (2000a), publicado originalmente em 1985. As

faculdades pré-formadora e construtora de organismos no DNA serão então fundidas na

noção de gene como informação, já sob a influência do meio de cultura informática

contemporânea. Segundo Keller, os responsáveis por sua introdução foram os próprios

descobridores da dupla hélice:

A noção de informação genética que Watson e Crick invocaram não era literal, e sim metafórica. Mas foi extremamente poderosa. Embora não permitisse medida quantitativa alguma, autorizava a expectativa – antecipada na noção de ação gênica – de que a informação biológica não aumenta no curso do desenvolvimento: já está inteiramente contida no genoma. (KELLER, 1995, p. 19)278

A informação se caracteriza como um tipo especial de causa, capaz de conferir

ordem e forma à matéria viva, mas uma causa que preexiste à sua própria utilização ou

expressão (OYAMA, 2000, p. 2-3). Constitui, assim, na opinião da autora, a metáfora mais

277 “Son estos cromosomas, o probablemente sólo una fibra axial de lo que vemos bajo el microscopio como cromosoma, los que contienen en alguma forma de clave o texto cifrado el esquema completo de todo el desarollo futuro del indivíduo y de su funcionamiento en estado maduro. (...) Pero el término ‘clave’, o texto cifrado, es demasiado limitado. Las estructuras cromosómicas son al mismo tiempo los instrumentos que realizam el desarollo que ellos mismos prognosticam. Representan tanto el texto legal como el poder ejecutivo; para usar outra comparación, son a la vez los planos del arquitecto y la mano de obra del constructor.” 278 “The notion of genetical information that Watson and Crick invoked was not literal but metaphoric. But it was extremely powerful. Although it permitted no quantitative measure, it authorized the expectation –anticipated in the notion of gene action– that biological information does not increase in the course of development: it is already fully contained in the genome.”

183

adequada para a época atual, em que tudo – do trabalho à cultura e à biologia – parece

redutível a um formato digital:

Em um mundo crescentemente tecnológico e computadorizado, informação é uma mercadoria de primeira linha, e, quando utilizada na teorização biológica, lhe é conferido um tipo de autonomia atomística, ao mover-se de um lugar a outro, ser coletada, armazenada, marcada e traduzida. Tem uma história só na medida em que é acumulada ou transferida. Informação, a fonte moderna de forma, é vista como residente em moléculas, em células, em tecidos, “no ambiente”, em geral latente, mas causalmente potente. É pensada como algo que capacita essas moléculas, células e outras entidades a reconhecer, selecionar e instruir umas às outras, a construir umas às outras e a si mesmas, a regular, controlar, induzir, dirigir e determinar eventos de todos os tipos.279 (OYAMA, 2000a, p. 1-2).

Na análise de Oyama, o fulcro dessa operação simbólica sobre o gene consiste em

imprimir-lhe o atributo de cognição, ou uma modalidade peculiar de inteligência, com

poderes ontológicos – a capacidade de instituir ou engendrar a priori o seu próprio objeto:

“Quando o plano preexistente é utilizado para explicar o que é, o que é se torna necessário

(ou pelo menos natural, normal ou difícil de mudar)” (OYAMA, 2000a, p. 73).280 Ora, o

que essa visão põe entre parênteses são todas as peculiaridades e contingências do próprio

desenvolvimento do organismo, que se tornam apenas ocasião, cenário ou, no máximo,

estímulo para desencadear esse processo de desdobramento de uma forma, para todos os

efeitos, já dada. Argumentação semelhante sobre o fetichismo cognitivo do gene foi

desenvolvida por Lewontin, da maneira mais direta que lhe é característica, em um ensaio

de 1992:

A descrição mais acurada do papel do DNA é que ele carrega informação que é lida pela maquinaria da célula no processo produtivo. Sutilmente, o DNA como portador de informação é transubstanciado, de modo sucessivo, em DNA como projeto, como plano, como plano-mestre, como molécula-mestra. É a transposição para a biologia da crença na

279 “In an increasingly technological, computerized world, information is a prime commodity, and when it is used in biological theorizing it is granted a kind of atomistic autonomy as it moves from place to place, is gathered, stored, imprinted, and translated. It has a history only insofar as it is accumulated or transferred. Information, the modern source of form, is seen to reside in molecules, cells, tissues, ‘the environment’, often latent but causally potent. It is thought to enable these molecules, cells, and other entities to recognize, select, and instruct each other, to construct each other and themselves, to regulate, control, induce, direct, and determine events o f all kinds.” 280 “When preexisting plan is used to explain what is, what is becomes necessary (or at least natural, normal, or hard to change).”

184

superioridade do trabalho mental sobre o meramente físico, do planejador e do projetista sobre o operador não-qualificado da linha de montagem.281 (LEWONTIN, 2000a, p. 143-4)

Oyama talvez objetasse contra a aceitação implícita da noção de DNA-informação,

mas o fato é que sua metáfora – melhor dizendo, a componente que o autor analisa das

metáforas hegemônicas sobre os genes – tem a vantagem de pôr a nu uma determinação

fundamental. Oyama, por seu turno, propõe-se a metodicamente inventariar, analisar e

criticar a sucessão de imagens apenas alinhavada por Lewontin, e o faz num capítulo

sintomaticamente intitulado “Variações sobre um tema: Metáforas cognitivas e o gene

homunculóide” (OYAMA, 2000a, p. 54-83). Seu guia na empreitada é o inevitável fracasso

da caracterização do processo de desenvolvimento que resulta da adoção dessa perspectiva

pré-formacionista.

O primeiro alvo é a concepção simplista de gene como plano-mestre ou planta

arquitetônica (blueprint), sumariamente descartada por implicar a figura complementar de

um empreiteiro ou construtor (deficiência já intuída e “resolvida” por Schrödinger). Depois

passa a ser atacada a noção de DNA como imagem e conhecimento apresentada na obra do

etólogo Konrad Lorenz, segundo a qual ocorre uma aquisição contínua de informação pelos

genomas na sua interação com o meio, ou seja, no processo de adaptação, que, por

morfogenia, introjeta no organismo uma espécie de decalque do próprio ambiente ou nicho

ecológico (no sentido de que uma barbatana de peixe, por exemplo, “reflete” propriedades

hidrodinâmicas), de modo que “organismos ‘superiores’ são aqueles que armazenam mais

informação” (OYAMA, 2000a, p. 55).282 A objeção é que tal “conhecimento” só pode ser

localizado, segundo o próprio esquema, não nos genótipos, mas nos fenótipos, e que,

mesmo assim, persiste o problema de saber como essa informação – sobretudo a de caráter

comportamental, objeto de estudo de Lorenz – se torna “inata”. Em poucas palavras, que

sentido pode haver em afirmações como a de que carrapatos “sabem” quais animais lhes

cabe sugar.

281 “The more accurate description of the role of DNA is that it bears information that is read by the cell machinery in the productive process. Subtly, DNA as information bearer is transmogrified successively into DNA as blueprint, as plan, as master plan, as master molecule. It is the transfer onto biology of the belief in the superiority of mental labor over the merely physical, of the planner and designer over the unskilled operative on the assembly line.” 282 “(...) the ‘higher’ organisms are those that store the most information”.

185

A seguir, Oyama se debruça sobre a concepção de gene como símbolo ou como

hipótese, variantes mais elaboradas propostas por estudiosos insatisfeitos com metáforas

cognitivistas simples, como H.H. Pattee e B.C. Goodwin. Eles reconhecem a necessidade

de relacionar o conteúdo do DNA com um contexto, um sistema de balizamento que lhe

confira sentido; dito de outro modo, os símbolos (Pattee) ou hipóteses (Goodwin) contidos

nos genes precisam ser interpretados ou traduzidos, por exemplo na “linguagem” das

proteínas, ou seja, já no domínio da constituição de um fenótipo imerso num ambiente.

Assim, a bactéria que porta o gene de uma enzima para metabolizar determinado nutriente

carregaria na verdade uma hipótese, a de que tal meio de fato teria disponível o nutriente,

que atuaria então como o estímulo adequado para que o gene correspondente fosse lido.

Ora, rebate a autora, isso implicaria que um genoma contivesse todas as hipóteses sobre

todos os estímulos possíveis que lhe são exteriores, inclusive contingências do

desenvolvimento que sejam raras ou até letais, o que não parece aceitável.

Dá-se assim explicitamente ao organismo, ou melhor, ao pool de genes ou à espécie como fonte de sucessivas hipóteses, propriedades similares às da mente, mas a hipótese permanece estática pelo tempo de vida do organismo e parece firmemente incrustada no genótipo, não no fenótipo, cuja competência está na transformação, a maior parte do tempo. (...) Como Pattee, [Goodwin] parece insatisfeito com os genes como explicação completa do desenvolvimento e é conhecedor da complexidade necessária para que a transcrição do gene tenha eficácia ontogênica. No entanto, permanece apegado ao gene cognitivo.283 (OYAMA, 2000a, p. 58)

Ainda mais elaborada, e talvez por isso mais difundida entre teóricos da biologia, é

a noção de gene como regra, instrução ou programa. Oyama principia com a observação

de que não lhe parece menos difícil de compreender que moléculas possam conter

sentenças e comandos do que encerrar órgãos e comportamentos em miniatura, mas não

contorna a tarefa que se impôs de examinar com método as principais ocorrências também

dessas metáforas, que envolvem alguns pesos pesados da biologia do século XX. O

primeiro a ser apanhado na sua alça de mira é Edward O. Wilson, que, com Charles

Lumsden, aderiu em 1981 à noção por meio da idéia de “regra epigenética” – e não deixa

283 “An organism, or better, gene pool or species as source of successive hypotheses, is thus given explicitly mindlike properties, but the hypothesis is static for the organism’s lifetime and seems firmly embedded in the genotype, not the phenotype, whose competence is in transformation much of the time. (...) Like Pattee, he appears dissatisfied with the genes as full explanation of development and is cognizant of the complexity necessary for gene transcription to have ontogenetic efficacy. Yet he remains wedded to the cognitive gene.”

186

de ser sintomático que tenham escolhido o qualificativo “epigenético” apenas alguns anos

depois do vendaval de acusações de determinismo genético (entenda-se: pré-

formacionismo) conjurado pelas teorias sociobiológicas de Wilson. Ele e Lumsden estavam

preocupados em identificar condicionantes biológicos de vieses culturais (como a proibição

do incesto ou certa universalidade de expressões faciais) e os localizam em regras

epigenéticas inatas, espécie de resultante da composição dos vetores definidos por genes e

ambiente partilhados que deixaria sua marca no cérebro, como circuitos ou estruturas de

conhecimento herdadas. À parte uma indistinção incômoda entre o que seria inato e

adquirido nesse processo, Oyama aponta o aspecto tautológico da explicação: “O círculo

clássico se fecha quando regras epigenéticas são inicialmente inferidas da freqüência do

fenótipo e, depois, invocadas para explicar o desenvolvimento do fenótipo” (OYAMA,

2000a, p. 60).284

Complicações adicionais são postuladas por outros autores, como a noção de

programas fechados e abertos proposta por Ernst Mayr e assimilada por Konrad Lorenz,

mas todas essas formações acabam recaindo no mesmo tipo de dificuldade, a saber, que a

tentativa de admitir ou transferir alguma capacidade construtora para o sistema fenótipo-

ambiente sempre redundará nalguma medida de ambigüidade, posto que a própria noção de

programa pressupõe uma assimetria, um locus de onde parte o comando e outro onde ele se

cumpre, residindo a informação apenas e tão-somente no primeiro. É por isso que os vários

autores acabam sempre por pender para o lado do gene, reconhecendo-o em última

instância como sede, se não de toda a ação, ao menos de sua parte principal ou primordial,

o que repõe mais uma vez a questão da complexidade histórica da ontogênese a transbordar

desse esquema determinista, e assim por diante. “A regularidade que descrevemos, por ser

sempre determinada de modo múltiplo e por ser uma função da história do sistema, não

pode residir em um componente do sistema. É o resultado da operação do sistema, não a

sua causa” (OYAMA, 2000a, p. 72).285

284 “The classic circle is closed when epigenetic rules are first inferred from frequency of phenotype, then invoked to explain development of the phenotype.” 285 “The regularity we describe, because it is always multiply determined and is a function of the history of the system, cannot reside in a component of the system. It is the result of the operation of the system, not its cause.”

187

5.3 Forma preexistente e controle teleológico

Tendo em vista tantas dificuldades teóricas suscitadas por essa constelação

semântica, talvez se comece a entender a persistência e a penetração das metáforas

informacionais do gene se se caracterizar melhor onde estaria o núcleo duro dessa recusa

em abandoná-las. Uma hipótese é que o motivo central se encontre na informação como

precondição do controle, a faculdade de conduzir um processo a um objetivo anteposto. É o

que sugerem OYAMA (2000a, p. 159), quando diz que “as idéias parelhas de forma

preexistente e controle teleológico viajam juntas”,286 e Keller, quando lembra que a

contaminação pós-Schrödinger da biologia pela física não impediu que alguns de seus

principais programas de pesquisa seguissem caminhos divergente no que respeita à noção

de teleologia: enquanto os biólogos pelejavam para libertar sua ciência de antigos ecos

vitalistas, substituindo em suas descrições idéias como propósito, organização e harmonia

pela mais asséptica de função, físicos e engenheiros – sobretudo no Massachusetts Institute

of Technology – quebravam a cabeça precisamente para assimilá-las em suas teorias sobre

o comportamento de máquinas: “Os geneticistas estavam numa trilha diferente. Baseavam

suas esperanças não em subjugar sistemas complexos, mas no que tem sido para cientistas

naturais o paradigma mais natural de controle – os benefícios epistemológicos e

tecnológicos da reductio ad simplicitatum” (KELLER, 1995, p. 92).287 A autora expõe

então como reduto genético dessa forma mais tradicional de controle o próprio Dogma

Central proposto por Francis Crick (uma designação inspirada, para o bem e para o mal, na

rígida noção de que há uma direcionalidade irreversível na expressão do DNA, a partir do

qual se faz o RNA mensageiro e deste, as proteínas): “Em vez de feedback circular, [o

Dogma Central] prometia uma estrutura linear de influência causal, do escritório central do

DNA para as subsidiárias exteriores da fábrica de proteínas” (KELLER, 1995, p. 93).288

286 “(...) the yoked ideas of preexisting form and teleological control travel together”. 287 “Geneticists were on a different track. They had based their hopes not on the harnessing of complex systems but on what has been for natural scientists the more traditional paradigm of control –on the epistemological and technological benefits of reductio ad simplicitatum.” 288 “Instead of circular feedback, it promised a linear structure of causal influence, from the central office of DNA to the outlying subsidiaries of the protein factory.”

188

O controle visado pela genética, portanto, pouco tinha a ver com computadores,

redes e cibernética, pois, enquanto esta “estava ocupada em usar o organismo para ilustrar

um novo tipo de máquina, a outra procurava modelar organismos a partir das máquinas do

passado” (KELLER, 1995, p. 97).289 Isso nos anos 1960, porque na década de 1980, nas

palavras de Keller, os ventos da informação cresceriam como um tornado, graças à

tecnologia do DNA recombinante, e revolveriam a biologia molecular numa “ciência

informacional, uma ciência de comando, controle e comunicação” (KELLER, 1995, p.

113). Não há contradição entre as duas descrições, em primeiro lugar porque a autora está

apresentando uma evolução do próprio campo de pesquisa e, por assim dizer, uma mudança

de patamar que é evidente (basta dizer que o Projeto Genoma Humano só foi concebido em

meados dos anos 1980); além disso, pode-se também argüir que a fórmula cibernética

“informação/comando, controle, comunicação” é convocada para qualificar a prática

científica (genômica) e não mais seu objeto (organismos). De todo modo, como defende

Oyama, a metáfora do gene-programa e do organismo-computador ou organismo-rede não

é mesmo sustentável, seja porque o programa, ao tender para uma identificação com o

próprio processo (de desenvolvimento, ou ontogênese), não pode mais ser circunscrito a

uma das instâncias do processo (o gene), seja porque, do ponto de vista do

desenvolvimento, nada exige que ele se organize, em qualquer instância, de modo cognitivo

ou lingüístico: “No sistema biológico, a ‘decisão’ ou a ‘regra’ não precisam ser

programadas simbolicamente; ‘regras e decisões’ são simplesmente nossas descrições

antropomórficas dos eventos que observamos” (OYAMA, 2000, p. 72).290

5.4 Controle da natureza

De volta à questão do controle: sobre o que, exatamente, as metáforas

informacionais para o gene almejam propiciar controle? Sobre a natureza em seu sentido

mais amplo, sobre o até então incondicionado com base no qual se erguia a cultura, em

289 “(...) was busy using the organism to illustrate a new kind of machine, the other was seeking to model the organism after the machines of yesteryear”. 290 “In the biological system, the ‘decision’ or ‘rule’ needn’t be programmed symbolically; ‘rules and decisions’ are simply our anthropomorphic descriptions of the events we observe.”

189

especial o substrato do humano que não parecia estar ao alcance do homem e de sua

técnica: o desenvolvimento, a constituição fundamental do corpo, os padrões de

comportamento individual e social, as capacidades cognitivas, os padrões básicos do

metabolismo e seus desvios recorrentes (doença). O que o gene-informação promete é uma

tecnologização das ciências da vida, uma biomedicina e uma biotecnologia – uma

tecnobiologia, enfim.

Da biologia molecular emergiu um saber tecnológico que alterou decisivamente nosso senso histórico de imutabilidade da “natureza”. Enquanto a visão tradicional era a de que a “natureza” [nature] pressagiava destino e “ambiente” [nurture], liberdade, agora os papéis pareciam trocados. As inovações tecnológicas da biologia molecular convidam a uma ousadia discursiva vastamente ampliada, encorajando a noção de que poderíamos controlar mais prontamente aquela do que esta.291 (KELLER, 1993, p. 288)

A seta da metáfora aponta para os dois lados. Na visão padronizada, moléculas de DNA “processam” toda e qualquer “informação” de que necessitem para nos fazer, e nos fazer funcionar. Numa reviravolta elegante, diz-se agora de nós, algumas vezes, que “programamos” nossos filhos (...). Vale um momento de reflexão que todos esses programas conotem algum grau de obediência irrefletida. Isso pode dar conta de parte da nossa dificuldade para elaborá-los numa versão satisfatória de experiência e agenciamento.292 (OYAMA, 2000, p. 213)

O mesmo gênero de argumentação pode ser encontrado em Hegel, Texas, de

Hermínio Martins, que enxerga nas biotecnologias a “vocação mais decisivamente

ontológica”, entre todas as tecnologias contemporâneas, porque suas “criações ônticas”

(seres artificiais, cyborgs, quimeras) lançam um desafio à “imagem do equipamento básico

do Mundo”. Um desafio corrosivo, que torna movediça a fronteira outrora fixa entre

Natureza e Cultura: “A vincada fronteira ontológica entre esses mundos, bem como entre o

natural e o artificial, entrou agora na arena do essencialmente contestável, à luz das

capacidades tecnológicas contemporâneas” (MARTINS, 1996a, p. 189). O centro de

291 “Out of molecular biology emerged a technological know-how that decisively altered our historical sense of immutability of ‘nature’. Where the traditional view had been that ‘nature’ spelled destiny and ‘nurture’ freedom, now the roles appeared to be reversed. The technological innovations of molecular biology invited a vastly extended discursive prowess, encouraging the notion that we could more readily control the former than the latter.” 292 “(...) metaphor’s arrow points both ways. In the standard view, DNA molecules ‘process’ whatever ‘information’ they need to in order to make us and to make us run. By a neatly doubling back, we are now sometimes said to ‘program’ our children (...). It’s worth a moment’s thought that all of these programs connote some degree of mindless compliance. This may account for some of our difficulty in working them into satisfying accounts of experience and agency.”

190

gravidade desse conceito em deslocamento se encontra num processo de desmaterialização,

em que tudo o que antes escapava da malha tecnológica – como a produção da vida —,

agora reduzido à condição de informação, passa a ficar sob seu alcance:

Os tecnólogos de hoje têm a tendência de conceber tecnofanias nas quais a dominação total da Natureza é ela mesma quase desmaterializada em saber absoluto e numa espécie de totum simul. Versões correntes de tecnofanias ligadas ao discurso sobre as tecnologias da informação, nas quais a “informação” se torna o conceito dominante do quadro categorial, sugerem que a conversão total do não-informacional em informação é o momento da consumação do progresso tecnológico. (MARTINS, 1996a, p. 181)

Esse momento imaginário de realização, de penetração do orgânico pelo foco

potente do entendimento analítico-redutivo, é apresentado por Martins como portador de

um sentido “gnosticizante”. A diferença em relação ao sentido tradicional da idéia é que,

em lugar de uma aversão pelo orgânico e pela viscosidade natural das coisas, se trata agora

de sua submissão e conquista:

Pela expressão superficialmente paradoxal “gnosticismo tecnológico” quer-se significar o casamento das realizações, projectos e aspirações tecnológicos com os sonhos caracteristicamente gnósticos de se transcender radicalmente a condição humana (...). Ultrapassar os parâmetros básicos da condição humana – a sua finitude, contingência, mortalidade, corporalidade, animalidade, limitação existencial — aparece como um móbil e até como uma das legitimações da tecno-ciência contemporânea. (MARTINS, 1996a, p. 172)

O próprio Martins já indica o quanto há de interesse nessa visão prometéica (para

repetir outra noção sua) da tecnologia. Parece já evidente, nesta altura da análise, que a

metáfora do gene como informação e seu fulcro na noção de controle estão longe de dar

conta da complexidade do fenômeno do desenvolvimento, para não falar do comportamento

do organismo constituído, e de sua adaptação dinâmica ao meio, assim como do papel do

genoma nesse sistema. A posição simétrica – fáustica, nos termos de Martins —, de

denúncia do caráter manipulador e destrutivo da tecnologia, pode resultar igualmente

esquemática, se não for capaz de escapar da generalização vazia (que aponta na essência de

toda técnica e mesmo em qualquer atitude científica um movimento básico de criação de

condições para sua alteração ou apropriação) e de indicar em que configurações reais de

interesses essa manipulação – aqui já não importa mais se essencial ou não — se manifesta,

191

para além da satisfação de vagas necessidades, digamos, existenciais. Afinal, embora seja

igualmente difícil de discordar dela, é preciso ir além de formulações um tanto vagas, ainda

que convincentes, como a de OYAMA:

Talvez haja também uma relação não-arbitrária entre o fato de acharmos difícil acreditar que a ontogenia seja possível sem a liderança da mente, ou de um sucedâneo da mente, emprestando ímpeto, direção e forma ao processo, e o fato de acharmos difícil conduzir nossas vidas sem recorrer a verdades a priori, particularmente diante da variedade social e cultural e da grande incerteza sobre o futuro.293 (2000, p. 161)

Tampouco são plenamente elucidativas algumas das explicações avançadas por

Lewontin. Para além da crítica ao determinismo genético, ele diagnostica na fabulação

reducionista da ciência, de maneira generalizadora, uma função de legitimação da

sociedade que anteriormente era exercida pela religião, com a qual partilharia quatro

características fundamentais: é uma instituição exterior ao domínio normal da vida humana,

alcança validade e verdade transcendentais, provém de fontes absolutas e se apresenta com

qualidades místicas inacessíveis numa linguagem esotérica. Assim é que, na sua visão algo

esquemática, a noção de gene que ele chama de “reducionista” teria surgido como

decorrência do individualismo inerente ao capitalismo e como ocultamento da noção de que

a vida social é produzida coletivamente:

Essa sociedade atomizada é correlata de uma nova visão da natureza, a visão reducionista. Agora se acredita que o todo deve ser entendido somente quando tomado em suas partes, que os pedaços e partes individuais, átomos, moléculas, células e genes, são as causas das propriedades dos objetos inteiros (...). Esta é uma visão empobrecida e incorreta do relacionamento real entre organismos e o mundo que ocupam, um mundo que os organismos vivos em grande medida criam por suas atividades vivas.294 (LEWONTIN, 1993, p. 12)

293 “There may also be a nonarbitrary relation between the fact that we find it difficult to believe ontogeny is possible without a guiding mind or mind-surrogate to lend impetus, direction, and form to the process and the fact that we find it difficult to conduct our lives without recourse to a priori truths, particularly in the face of social and cultural variety and great uncertainty about the future.” 294 “This atomized society is matched by a new view of nature, the reductionist view. Now it is believed that the whole is to be understood only by taking it into pieces, that the individual bits and pieces, the atoms, molecules, cells, and genes, are the causes of the properties of the whole objects (...) this is an impoverished and incorrect view of the actual relationship between organisms and the world they occupy, a world that living organisms by and large create by their own living activities.”

192

Ainda que capture determinações relevantes de um sistema de significações erigido

em torno da genética e da genômica, a interpretação de Lewontin mal consegue disfarçar o

mecanicismo da noção de ideologia como reflexo da prática real dos homens. Não se trata

de negar que tais representações sobre o gene possam servir aos interesses de tais ou quais

grupos sociais, sobretudo ao estamento de cientistas em busca de fundos de pesquisa, mas

sim de ser capaz de mostrar como elas e as práticas a elas associadas se imbricam no

processo de reprodução material da sociedade, se possível no âmago da própria produção

de valor. A biologia já não pode mais ser reduzida à idéia de ideologia, em face do poderio

ontológico que vem adquirindo – a não ser que se admita que ideologias tenham o condão

de povoar o mundo também com quimeras de carne e osso, ou de carne e silício, e não

apenas com fantasmas.

5.5 Potencial versus processo

O aspecto mais importante da construção do gene como informação é que ela isola o

DNA como um potencial. Ao desqualificar todo o desenvolvimento do organismo como

sede de qualquer informação, reduzindo-o a uma simples manifestação ou desdobramento

de algo cuja forma substancial reside alhures (no gene), a metáfora informacional exclui

precisamente o processo que está em relação estreita com a história do organismo e da

espécie, vale dizer, com seu passado e com sua atualização (seu presente). O gene, que

poderia ser também pensado como o resultado evolutivamente contingente de um processo

ontológico continuado, ou seja, de um sistema cuja fluidez se desdobra tanto no espaço

(população, pool genético) quanto no tempo (adaptação, especiação), nessa operação

significante é por assim dizer desencarnado na condição de informação. Em sua abstração,

deixa de visar não só o dado como também o atual, razão pela qual Laymert Garcia dos

Santos destaca essa constituição do gene como informação do processo de modernização

enquanto tal, pois este desvalorizava o passado em prol do presente, e não do futuro. “A

lógica que preside a conduta da tecnociência e do capital com relação aos seres vivos, agora

transformados em recursos genéticos, é a mesma que se explicita em toda parte: trata-se de

privilegiar o virtual, e de preparar o futuro para que ele já chegue apropriado.” Ou ainda:

193

“O potencial é potência para reprogramação do mundo e a recombinação da vida. Levando

a instrumentalização ao extremo, tal estratégia considera tudo que existe ou existiu como

matéria-prima passível de valorização tecnológica.” (SANTOS, 2001b, p. 35)

A determinação que se acrescenta por essa via de interpretação, crucial, é a

vinculação do gene-informação com a produção de valor no capitalismo contemporâneo,

vale dizer, como recurso genético. Eis o tipo de controle significado na metáfora

informacional: não só o de mais um instrumento a permitir a atualização de potenciais (por

exemplo, a fabricação de objetos), mas o do próprio princípio supostamente gerador de

todos os potenciais; em outras palavras, um controle que se exerce pela via da apropriação,

em germe, das possibilidades futuras. Já se percebe que essa é a racionalidade a sustentar a

noção de propriedade intelectual (patentabilidade) de genes, em relação à qual cabe aqui

menos uma peroração ético-moral sobre a destruição dos valores intrínsecos da vida, por

legítima que seja, do que apontar a imbricação desse constructo jurídico-epistemológico

numa determinada configuração histórica. Se a investigação social da produção de

conhecimento pode tirar alguma lição do tipo de pensamento sistêmico advogado para a

biologia a partir da crítica do reducionismo, entre outros por Oyama e Lewontin, é a de que

se devem evitar as explicações de cunho teleológico, com base em intencionalidades

veladas. Da mesma forma que não se pode afirmar que o gene prefigure todas as

contingências do processo de desenvolvimento de um determinado organismo, não se deve

concluir que a metáfora do gene-informação tenha por finalidade oculta preparar o terreno

para o patenteamento de genes – muito embora, retrospectivamente, se possa estabelecer

um vínculo entre a metáfora biológica e a noção jurídica. Seria uma forma pré-

formacionista de conceber o funcionamento da ideologia, provavelmente tão aporética

quanto procurar homúnculos na cabeça de espermatozóides.

Investir seqüências de DNA de uma capacidade agenciadora que essas moléculas

efetivamente não possuem,295 de um ponto de vista estritamente bioquímico (pois se trata

de substância inerte, que precisa ser ativada para participar da síntese de proteínas),

propicia não só a inclusão de processos orgânicos na apropriação presente de objetos

futuros, como também um vasto campo de prospecção. Como diz SANTOS:

295 Ver capítulo 4.

194

A informação torna-se crucial a partir do momento em que a dimensão virtual da realidade começa a ser mais importante do ponto de vista econômico e tecnocientífico do que a sua dimensão atual. A lógica que preside a conduta da tecnociência e do capital com relação a seres vivos, agora transformados em recursos genéticos, é a mesma que se explicita em toda parte: trata-se de privilegiar o virtual, e de preparar o futuro para que ele já chegue apropriado, trata-se de um saque no futuro e do futuro. (2001b, p. 37)

Tal orientação é claramente perceptível na racionalidade que anima a principal

empreitada da biologia molecular contemporânea, a genômica, materializada no Projeto

Genoma Humano e sua nemesis empresarial, o seqüenciamento levado a cabo pela

companhia Celera (cujo lema, cabe repetir neste contexto, é speed matters, que, numa

tradução capciosa, equivaleria a “a velocidade é substancial”). Embora em termos retóricos

seja mais comum a justificativa de que permitirá resolver o quebra-cabeças do câncer –

uma doença que consome US$ 6 bilhões ao ano em pesquisa, nos Estados Unidos, e outros

US$ 40 bilhões em tratamentos (ZWEIGER, 2001, p. 1) –, a principal utilidade da

informação genômica, centralizada em gigantescos bancos de dados como o GenBank,

parece estar na racionalização da busca por novos fármacos, por meio de uma atividade

mais de corte industrial do que científica e já qualificada como “garimpagem” (mining).296

Ainda que ao preço de ter de aturar uma apresentação algo cínica da situação, se não

ingênua em seu pragmatismo, é proveitoso retornar brevemente ao discurso de quem está

imerso na prática genômica:

Um grande número de pessoas, embora não certamente todas, busca remédios melhores para tratar de suas enfermidades, em particular remédios que satisfaçam certos padrões científicos de segurança e eficácia. Empresas farmacêuticas buscam satisfazer essas necessidades por meio de drogas novas e aperfeiçoadas. Elas também enfrentam contínuas quebras de receita a cada vez que expira a vida patentária de 20 anos de um de seus medicamentos fazedores de dinheiro. Poderiam essas forças econômicas impelir o desenvolvimento de novas tecnologias?297 (ZWEIGER, 2001, p. 75)

A resposta do biólogo-empresário é um óbvio “sim”, na forma de saltos sucessivos

nas técnicas de leitura e automação de seqüências de DNA, que permitiram antecipar em

296 Ver capítulo 3. 297 “A large number of people, though certainly not all, seek better medicines to treat their ailments, particularly medicines that meet certain scientific standards of safety and effectiveness. Pharmaceutical companies seek to fulfill these needs through new and improved drugs. They also continually face revenue voids each time the 20-year patent life of one of their money-making drugs expires. Could such economic forces drive the development of new technologies?”

195

nada menos do que quatro anos a finalização do genoma. Com essas informações

disponíveis para download via internet, qualquer pesquisador poderia – no melhor dos

mundos virtuais — modelá-las em computador e investigá-las de forma abstrata, in silico,

simulando propriedades das proteínas correspondentes, comparando-as com outras

proteínas conhecidas e – mais importante – tentando encontrar ou construir outras

moléculas que atuem sobre proteínas humanas de interesse, bloqueando-as ou ativando-as

para eventualmente obter certos efeitos no metabolismo e no corpo (no limite, o cientista

pode também sintetizar a seqüência de DNA que atraiu seu interesse no banco de dados e

empregar a construção gênica rematerializada em ensaios in vitro e in vivo). Acumular

informação molecular em formato digital visa levar o estudo da vida até um patamar

totalmente novo, porque facilita em princípio técnicas analíticas que se apóiam na

matemática da probabilidade e a exploram, afirma Zweiger. A bioinformática, enfim, induz

tamanha transformação no campo da pesquisa em biologia que já foi qualificada

inevitavelmente, como “mudança de paradigma” – isso já em 1991 e por ninguém menos

que Walter Gilbert, que, além de ter ganho um Nobel por sua contribuição na criação de

métodos para seqüenciar DNA, estabeleceu a transcrição do genoma humano como o Santo

Graal da biologia: “Para usar esse dilúvio de conhecimento que vai inundar as redes de

computadores do mundo, os biólogos não só precisam tornar-se versados em computadores

como também mudar sua abordagem do problema do entendimento da vida” (citado por

ZWEIGER, 2001, p. 60).298

Outra maneira de contextualizar esse nascimento de uma tecnobiologia é entendê-la

como parte de uma transformação mais ampla da socioeconomia mundial, no que Laymert

Garcia dos Santos chamou, tomando de empréstimo um termo de Catherine Waldby, de

“virada cibernética” (SANTOS, 2005, p. 129). Mais do que uma virada cultural, em que a

própria cultura se torna mercadoria, o que se observa é a mobilização de todas as esferas,

inclusive a da vida, como matéria-prima para o movimento de acumulação do capital, cuja

força motriz se desloca mais e mais da produção industrial para a esfera da ciência e da

tecnologia. Scott Lash também enxerga esses dois momentos – a transformação cultural (ou

transmutação da arte em “tecnoarte”) e a submissão da vida ao conhecimento (tecnociência)

– como integrantes de um movimento mais geral de “informacionalização” (LASH, 2002,

298 “To use this flood of knowledge, which will pour across the computer networks of the world, biologists not

196

pp. viii e 22) das formas de vida, sejam elas orgânicas ou socioculturais. A tecnobiologia

genômica, assim, não teria toda a proeminência estrutural e histórica que lhe querem

imprimir os autores ávidos por definir e batizar novas eras, como RIFKIN (1998, 2001) ou

WATSON e BERRY (2003).

Mesmo que não estejamos presenciando o alvorecer de uma Era da Biotecnologia

ou da Revolução Genômica, não se deve subestimar a profundidade da transformação por

que passou a biologia nos últimos 50 anos, em especial na última década. Sua concepção

como ciência informacional, fundada sobre a metáfora pré-formacionista do gene como

informação, se encontra hoje tão difundida que ninguém mais pensa nela como uma

analogia, nem mesmo os biólogos moleculares cujos resultados de pesquisa promovem sua

contínua erosão (como se viu nos capítulos 3 e 4). Quando falam em gene, têm em vista

duas entidades muito diversas, o que talvez explique o excedente de sentido de que se

revestiu no imaginário social: de um lado, o gene particulado, ou seja, a unidade hereditária

direcionalmente associada com a manifestação de uma característica fenotípica, na

condição de sua causa; de outro, uma seqüência de DNA transcrita e processada na forma

de RNA, que servirá de molde para a síntese de determinada proteína. A primeira não passa

de uma construção teórica, anterior à própria definição do DNA como molécula da

hereditariedade e à própria biologia molecular, portanto. A ausência de um substrato físico,

porém, não impediu que norteasse a constituição de uma ciência prolífica, a genética, na

primeira metade do século XX. Ainda mais problemática se tornou sua sobrevivência após

a descoberta da estrutura molecular do DNA e a chamada decifração do código genético,

ambas na segunda metade do século passado, quando se tornou a pedra angular do

genocentrismo, vale dizer, do emprego retórico de noções pré-formacionistas

(determinismo genético, atenuado ou não) em favor de um programa de pesquisa molecular

com vocação hegemonista, a genômica.

A análise mais penetrante desse conceito biarticulado do gene como informação, já

mencionada no capítulo anterior, foi realizada por Leny Moss, seguindo a trilha aberta

pelas três damas pioneiras da crítica ao genocentrismo (Evelyn Fox Keller, Susan Oyama e

Lily Kay) e pela perspectiva teórica oferecida pela teoria de sistemas de desenvolvimento

(ou DST). Em What genes can’t do (MOSS, 2003), ele aprofunda a análise e descreve a

only must become computer-literate, but also change their approach to the problem of understanding life.”

197

noção dúplice corrente como um acoplamento arbitrário dos conceitos que chama de Gene-

P e Gene-D:

O gene pré-formacionista (Gene-P) prediz fenótipos, mas unicamente em uma base experimental, na qual se podem obter benefícios médicos e/ou econômicos imediatos. O gene da epigênese (Gene-D), em contraste, é um recurso desenvolvimental que fornece moldes possíveis para a síntese de RNA e proteínas, mas que não tem em si mesmo qualquer relação determinada com fenótipos organísmicos. A idéia aparentemente dominante de que genes constituem informação para características (e plantas arquitetônicas para organismos) está baseada, defendo, em uma conjunção indevida desses dois sentidos, mantidos efetivamente reunidos por um adesivo retórico. (MOSS, 2003, p.xiv)299

No caso do Gene-P, Moss se refere àqueles poucos casos em que se pode

estabelecer uma relação direta entre genótipo e fenótipo, ainda que em geral de maneira

negativa – a seqüência de DNA que, alterada por mutação ou por intrusão de outros

elementos genômicos, leva à manifestação de uma característica fenotípica na forma de

doença genética, ou erros inatos de metabolismo, como a fibrose cística. Apesar de raras e

cunhadas na deficiência, essas instâncias ainda servem de modelo para generalizar a relação

positiva entre genótipo e fenótipo como direcional e determinada, ou seja, tendo o gene

como portador da característica pré-formada. Mesmo diante da inconstância manifesta

dessa relação, que já em 1911 levara o dinamarquês Wilhelm Johannsen a cunhar os

próprios termos genótipo e fenótipo para enfatizar sua relativa independência e a influência

do ambiente encapsulada no conceito de norma de reação (MOSS, 2003, p. 30), a

tendência de substancialização pré-formacionista buscou incorporar essa elasticidade do

fenótipo como propriedades do próprio gene, com as noções de penetrância (freqüência

estatística com que um traço genotípico é expressado no fenótipo) e expressividade (grau

de expressão da característica no fenótipo), noções introduzidas por Vogt em 1926 (MOSS,

2003, p. 28).

A conceituação do Gene-D como recurso desenvolvimental tem sua raiz na DST

propugnada por Susan Oyama, a perspectiva teórica que se convencionou chamar de

299 “The preformationist gene (Gene-P) predicts phenotypes but only on an instrumental basis where immediate medical and/or economic benefits can be had. The gene of epigenesis (Gene-D), by contrast, is a developmental resource that provides possible templates for RNA and protein synthesis but has in itself no determinate relationship to organismal phenotypes. The seemingly prevalent idea that genes constitute information for traits (and blueprints for organisms) is based, I argue, on an unwarranted conflation of these two meanings which is, in effect, held together bt rethorical glue.”

198

interacionismo, e visa justamente acentuar que a manifestação de uma característica no

fenótipo resulta sempre da interação de múltiplos recursos no processo de desenvolvimento

do organismo (da compartimentação do óvulo por meio de membranas às características

físico-químicas do ninho e do nicho ecológico), em que o DNA é apenas um recurso entre

outros. Mesmo que não adote uma perspectiva interacionista, na prática de laboratório o

biólogo molecular trabalha com uma noção operacional de gene (unidade de transcrição)

que está mais próxima do Gene-D do que do Gene-P; tanto é assim que, na maior parte do

tempo, o grosso do trabalho genômico se resume a seqüenciar (soletrar) “genes” dos quais

não se conhece a função. Eles só adquirem a posição central e de comando do processo

quando acrescidos da dimensão metafórica implícita no Gene-P, a articulação “indevida” de

que fala MOSS, que segundo ele é efetuada de maneira retórica, justamente, pela noção de

gene como informação (2003, p. 50). Com suas entonações lingüísticas, a classe de

metáforas (código, texto, cifra, programa etc.) embutida no gene como informação lhe

devolve artificialmente a dimensão semântica de que havia sido desprovido na sua acepção

particulada, pré-formacionista, vale dizer, ao ser separado do contexto desenvolvimental,

sem o qual não se pode pensar em sentido biológico (função).

Para Lily Kay, no entanto, nem mesmo de uma metáfora se trata, no caso do gene

como informação, mas sim de uma catacrese – um deslocamento de sentido, a partir de uma

metáfora anterior, ela própria problemática, cunhada no campo da teoria da informação e da

cibernética de Claude Shannon, Warren Weaver300 e Norbert Wiener, a partir de 1949. Ao

se apropriar da noção comum de informação como comunicação que faz sentido, a

disciplina nascente do comando, comunicação e controle em máquinas a despiu

precisamente da dimensão semântica, inteiramente divorciada de conteúdo (KAY, 2000, p.

20), portanto concebendo metaforicamente o funcionamento de máquinas como um

processo de comunicação, ainda que sem sujeitos nos papéis de emissor ou de receptor.

Com a catacrese, isto é, o deslocamento desse conceito para forjar o de informação

biológica (genética), essa restrição de origem como que se oculta na ressignificação pré-

formacionista, mas apenas retoricamente, sem base empírica:

300 Weaver, sintomaticamente, havia dirigido a área de ciências naturais na Fundação Rockefeller antes da Segunda Guerra Mundial, posição em que fomentou pesquisas no campo que em 1938 ele mesmo havia batizado, de maneira premonitória, como “biologia molecular” (JUDSON, 1996, p. 53).

199

A medida de informação de Wiener-Shannon é um fenômeno puramente estocástico que diz respeito à raridade estatística de sinais. O que esses sinais significam ou querem dizer, ou quais são seu valor ou sua verdade, não pode ser inferido por meio da teoria da comunicação. (...) A teoria da informação, portanto, não pode servir para legitimar o texto de DNA ou o Livro da Vida como fonte de sentido biológico. Mesmo que fosse possível determinar matematicamente (em bits) o conteúdo de informação de uma mensagem genômica ou de uma “sentença” no Livro da Vida, isso não forneceria semântica alguma, a não ser que seu contexto (genômico, celular, organísmico, ambiental) pudesse ser propriamente especificado. (KAY, 2000, p. 21)301

A mesma objeção já havia sido levantada por Bernd-Olaf Küppers, que,

acompanhando Carl Friedrich von Weizsäcker, principia por questionar até mesmo a noção

de informação absoluta de Shannon, entendendo que a própria probabilidade prévia

(historicamente determinada) de ocorrência do sinal abre a porta dos fundos para o retorno

do contexto e do aspecto semântico à teoria da informação (KÜPPERS, 1990, p. 33).

Aplicado à biologia, ademais, tal conceito se revela inútil, porque implicaria atribuir a

mesma quantidade de informação a seqüências de DNA especificadoras de proteínas muito

diversas, com graus divergentes de complexidade (KÜPPERS, 1990, p. 48). Para além

dessa relação conflituada com a semântica do mundo vivo, o deslocamento da noção de

informação de Shannon para recobrir a de gene tem a desvantagem de omitir o que seria a

sua decisiva pragmática, nos termos do autor alemão: “... a protossemântica da informação

genética é decidida pela capacidade de um sistema vivo de sustentar a si mesmo pela

reprodução. Este é o equivalente biológico da tese de que a informação só pode ser alguma

coisa que produz ela própria informação” (KÜPPERS, 1990, p. 50).302 Mais adiante: “O

processo de hereditariedade e a transformação pragmática da informação hereditária no

processo de morfogênese repousam precisamente sobre a função ‘confirmatória’ da

informação hereditária” (KÜPPERS, 1990, p. 55).303 Em termos darwinianos, a pragmática

301 “The Wiener-Shannon measure of information is a purely stochastic phenomenon concerning the statistical rarity of signals. What these signals signify or mean, or what their value or truth is, cannot be gleaned from the theory of communication. (…) Information theory, therefore, cannot serve to legitimate the DNA text or the Book of Life as a source of biological meaning. Even if it were possible to determine mathematically (in bits) the information content of a genomic message or a ‘sentence’ in the Book of Life, this would not yield any semantics, not unless its context (genomic, cellular, organismic, environmental) could be properly specified.” 302 “… the protosemantics of genetic information are decided by the ability of a living system to sustain itself by reproduction. This is the biological equivalent of the thesis that information can only be something that itself produces information.” 303

“The process of inheritance and the pragmatic transformation of hereditary information in the process of

morphogenesis rest precisely upon the ‘confirmatory’ function of hereditary information”.

200

biológica está corporificada na seleção natural, e o sentido da informação biológica (muito

além da noção de Shannon), na adaptação.

Faltaria entender, então, como uma noção assim tão deficitária (em termos de

capacidade explicativa) quanto o gene como informação alcançou tamanha disseminação,

seja na comunidade dos biólogos moleculares, seja na esfera pública. Duas ordens de

razões utilitárias parecem estar por trás do sucesso reprodutivo desse conceito: sua

rentabilidade retórica e sua rentabilidade proprietária. Com relação à primeira, como já

visto nos capítulos 3 e 4, parece óbvia a vantagem de empregar noções como a de Gene-P

(ou uma conjunção Gene-P/Gene-D sob a égide do primeiro termo) quando se trata de

convencer o público e seus representantes de que uma modalidade nova de pesquisa (a

genômica) tem mais potencial para obter avanços biomédicos do que os métodos

tradicionais. É mais fácil associar a promessa de cura do câncer, por exemplo, com uma

espécie de partícula totipotente, portadora de um ímpeto causativo, do que com um mero

recurso desenvolvimental (Gene-D), que poderá ou não estar associado com a manifestação

de tumor, dependendo de uma miríade de outros fatores.304 Essa utilidade retórica já é

abertamente reconhecida por geneticistas como John Avise, da Universidade da Geórgia,

nos Estados Unidos: “... a noção do genoma como um ‘livro da vida’ ajudou a focalizar e a

vender o projeto de seqüenciamento do genoma humano” (AVISE, 2001, p. 86; ênfase

minha).305

Se fosse apenas um expediente retórico, porém, o gene como informação talvez não

tivesse sobrevivido ao contínuo ataque epistemológico dos críticos do genocentrismo. Se

vingou e proliferou, foi também porque é uma construção inteiramente favorável à

apropriação, na forma de propriedade intelectual. Não é o caso de dizer, obviamente, que a

confluência de teoria da informação e biologia molecular, iniciada nos anos 1950, tenha

tido por objetivo e motivação, desde sempre, a obtenção de seqüências de DNA

patenteáveis, o que seria um anacronismo; é fato, contudo, que essa noção adaptou-se

304 Basta mencionar, a esse respeito, que dois dos genes mais incensados na imprensa como “causas” de câncer, o BRCA-1 e o BRCA-2, estão associados com no máximo 15% dos tumores de mama. Diante desse baixo rendimento, nota MOSS (2003, p. 182), a teoria da carcinogênese transitou quase imperceptivelmente da mutação somática como causa para a idéia muito mais vaga de suscetibilidade genômica, ainda assim um bom nicho de mercado para testes diagnósticos genéticos, por exemplo. 305 “… the notion of the genome as a ‘book of life’ helped to focus and sell the human genome sequencing project”.

201

extraordinariamente bem no novo ambiente da mundialização do capital, em que a

propriedade intelectual se transformou paulatinamente num dos principais – se não o

principal – focos de produção de valor, como afirmam LASH (2002) e SANTOS (2005).

Como o conceito de propriedade intelectual não comporta (ou não comportava) a proteção

privilegiada de objetos naturais descobertos ou sem utilidade definida, o gene como

informação veio a oferecer um mínimo de artificialidade e abstração – por meio de seu

desenraizamento do emaranhado viscoso de recursos desenvolvimentais – e de

aplicabilidade imanente (pré-formada), permitindo com isso a inclusão de seqüências de

DNA na alçada da legislação de propriedade intelectual, consideravelmente flexibilizada a

partir da histórica decisão de 1980, pela Suprema Corte dos Estados Unidos, em favor de

Ananda Chakrabarty e da General Electric.

Desprovido da semântica do desenvolvimento organísmico e da pragmática da

seleção natural, as únicas capazes de lhe conferir sentido biológico, o gene-informação

deixa de ser visto como recurso desenvolvimental para se tornar um recurso meramente

bioquímico, simples instrução (linha ou módulo de código) que pode ser incorporada em

princípio a qualquer programa animador de um sistema vivo. Encontra-se reduzido a uma

sintaxe vazia. Nesta acepção, o primeiro atributo do DNA-informação vislumbrado no

Dogma Central de Francis Crick é a mobilidade: “A especificidade estava vinculada à

matéria, enquanto a informação era móvel, transportando a memória da forma para além

dos vínculos materiais. A informação era a alma e o logos do corpo. A informação era

repassada do emissor para o receptor; a especificidade era solitária e muda”, assinala KAY

(2000, p. 175).306 Pode, assim, ser transferida de seres vivos para bancos de dados, ou entre

bancos de dados, inserindo-se sem atrito nos fluxos de rede que caracterizam a

informacionalização do mundo segundo Scott Lash.

Outro atributo do gene pré-formacionista que concorda com as novas formas de

produção de valor é a sua potencialidade (ou virtualidade): ele encerra a promessa de um

efeito futuro, realizável assim que for reconduzido ao contexto pragmático de um sistema

vivo – seja por meio da transgenia, ou recombinação, quando o recurso bioquímico a que

foi reduzido será expressado em contextos inéditos, seja em testes diagnósticos ou

306 “Specificity was bounded in matter, while information was mobile, transporting the memory of form beyond material bounds. Information was the body’s soul and logos. Information was realyed from sender to receiver; specificity was solitary and mute.”

202

medicamentos revolucionários, ainda por inventar. A genômica, por exemplo, representaria

uma promessa de “bem-estar futuro” (LASH, 2002, p. 19), ou pelo menos de controle

tecnocientífico sobre a vida: “A informação genética significou uma forma emergente de

biopoder: o controle material da vida seria agora suplementado pela promessa de controlar

sua forma e seu logos” (KAY, 2000, p. 3).307 Nas palavras de SANTOS (2005, p. 133), “a

virada cibernética torna-se a quintessência do controle”.

Essa promessa de controle sobre efeitos futuros contida nas seqüências de DNA

entendidas como informação, no entanto, precisam elas mesmas ser mantidas sob controle,

por meio da propriedade intelectual:

O poder na era da manufatura estava ligado à propriedade como meios mecânicos de produção. Na era da informação, está ligado à propriedade intelectual. É a propriedade intelectual, especialmente na forma de patentes, direitos autorais e marcas, que põe uma nova ordem nos turbilhões fora de controle de bits e bytes de informação, de modo que eles podem ser valorizados para gerar lucro. Por exemplo, em biotecnologia, patentes sobre técnicas genômicas e formas de modificação genética concedem a firmas específicas direitos exclusivos de valorização da informação genética. (LASH, 2002, p. 4)308

Na formulação de FRANKLIN (2000, p.188), os genomas que haviam sido

desligados da história natural dos organismos a que pertenciam são por assim dizer

“reanimados”, voltam à vida, na forma de capital corporativo. É o que ela busca captar no

conceito de Vida Própria (Life Itself; FRANKLIN, 2000, p. 222), que define como

estratégia de acumulação, mas também como tecnologia cultural (controle), noção que

encontra muitos paralelos com o já mencionado conceito pioneiro de biossocialidade de

RABINOW (1992).

Não é por acaso que todos esses autores põem ênfase na componente do controle

como algo de fundamental no conceito cibernético de informação, em geral, e na de

informação genética, em particular. Controle não só da capacidade de gerar valor e lucro,

mas também e primeiramente sobre a própria vida, na transformação genética de plantas e

307 “Genetic information signified an emergent form of biopower: the material control of life would be now supplemented by the promise of controlling its form and logos”. 308 “Power in the manufacturing age was attached to property as the mechanical means of production. In the information age it is attached to intellectual property. It is intellectual property, especially in the form of patent, copyright and trademark, that put a new order on the out-of-control swirls of bits and bytes of information so that they can be valorized to create profit. For example, in biotechnology, patents on genome techniques and forms of genetic modification allow specific firms exclusive rights to the valorization of genetic information.”

203

animais, no combate molecular a moléstias hoje renitentes, na seleção de características

humanas por uma espécie de eugenia positiva (de mercado) e quem sabe, um dia, até na

interferência tecnobiológica sobre o comportamento humano.

Como ensina LACEY (1998, 1999), a valorização contemporânea do controle sobre

a natureza – seja na forma de tecnologia, seja na de experimentação – é o ponto fraco na

couraça de neutralidade erguida pela estratégia materialista de pesquisa em torno da

tecnociência. Ao pretender banir toda forma de valor de sua concepção estreitada da

pesquisa empírica sistemática que se convencionou chamar de ciência, essa estratégia

assume uma feição ideológica ao deixar de reconhecer a si mesma como estratégia fundada

sobre a valorização baconiana do controle sobre a natureza. No caso da genômica, este

capítulo procurou mostrar que tal ponto cego se manifesta na figura do gene como

informação (e nas várias metáforas lingüísticas para o DNA), ou melhor, na conjunção

inapropriada do Gene-P com o Gene-D. Ao eclipsar a dimensão semântica e pragmática do

organismo (morfogênese e seleção natural), a noção de DNA informacional franqueia uma

sintaxe descarnada à mobilidade e à virtualidade dos bancos de dados – em poucas

palavras, à apropriação e ao controle.

Isso não quer dizer, decerto, que a genômica colecione apenas resultados incorretos

ou inválidos. O fato de fornecerem explicações parciais e até mesmo enviesadas não

invalida, por princípio, seu conteúdo empírico. Nada há de fundamentalmente errado,

tampouco, com adotar uma estratégia de pesquisa, pois esta lhe confere uma direção:

“Valores permeiam, e devem permear, as práticas científicas e (numa medida significativa)

respondem pela direção da investigação e pelos tipos de possibilidades que se tenta

encapsular nas teorias” (LACEY, 1999, p. 256). O problema, claro, está em escamotear a

presença e a influência desses valores. Da mesma maneira, a crítica aqui empreendida do

genocentrismo e da metáfora informacional do gene que lhe dá sustentação não deve ser

entendida como uma recusa e uma negação peremptórias do papel das metáforas na

formulação de teorias e na adoção de estratégias de pesquisa; mais uma vez, a objeção se

levanta contra fazê-lo de maneira irrefletida, abrindo o espaço conceitual para a

acumulação de camadas e mais camadas de sentidos indesejáveis. Neste caso, as metáforas

se desgovernam, ganham autonomia e se afastam progressivamente da complexidade que

deveriam contribuir para domar e apreender, antes de mais nada; o que nasceu como

204

simples analogia se aproxima assim, perigosamente, de se tornar uma ontologia (KAY,

2000, p. 331).

O gene não é nem contém toda a informação biológica; com o DNA não se escreve

texto algum; e o genoma humano nunca foi nem será o Livro da Vida. Essa constelação de

construções metafóricas pode ter cumprido papel heurístico no passado, contribuindo para

pôr de pé um dos mais ricos e prolíficos programas de pesquisa – a biologia molecular – de

todos os tempos. Mas, assim como Lacey defende uma ampliação (ou um resgate) do

conceito de ciência como pesquisa empírica sistemática para além dos limites da estratégia

materialista que a circunscreve à tecnociência, cabe aqui, mais do que defender, constatar

que é chegada a hora de reformar ou substituir o complexo de analogias que tem sustentado

a biologia molecular e, em particular, a genômica. O que falta resgatar, neste caso, é a

dimensão desenvolvimental do organismo nutrida pela perspectiva teórica da DST de Susan

Oyama, Paul Griffiths, Lenny Moss, Lily Kay e outros. Isso de certo modo já está em

curso, com o movimento progressivo de biólogos moleculares para as águas turbulentas da

epigenética e da biologia de sistemas, mas poucos deles se dão conta de que termos como

epigenética têm uma história que torna contraditório empregá-los lado a lado com

metáforas pré-formacionistas como a de gene como informação e genoma como Livro da

Vida.

“Embora seja improvável que alguma metáfora vá ser informativa em todos os

aspectos, qualquer perspectiva nova que encare o genoma como uma comunidade interativa

de loci em evolução pode ser especialmente útil e estimulante neste momento”,309 concede

o biólogo molecular John AVISE (2001, p. 87) no mesmo texto em que justificava

“vender” o genoma humano como Livro da Vida. Não é ainda uma plena incorporação da

importância do ambiente e do desenvolvimento, mas já se trata de um avanço (entre

possíveis novas metáforas o autor inclui figuras mais dinâmicas do genoma como coletivo

social, divisão complexa de trabalho, ou como ecossistema). Curiosamente, o interacionista

Lenny Moss, ao discutir em seu livro a necessidade de remetaforizar a noção de gene, não

abandona o universo referencial lingüístico, defendendo na realidade uma “troca de marcha

retórica” pela incorporação de uma dimensão dialógica à analogia: “O entendimento do

Gene-D como um recurso molecular dependente do contexto é adequadamente

205

complementado pela ‘metafórica’ da construção dialógica de sentido no contexto, e tal

metafórica pode com efeito ser produtiva para induzir intuições que os biólogos serão

capazes de realizar com novos desenhos experimentais” (MOSS, 2003, p. 73).310 Como diz

ANVISE (2001, p. 86), “Metáforas em ciência são como sirenes de neblina e faróis

costeiros: em geral se encontram em áreas traiçoeiras, mas também podem guiar os

marinheiros da pesquisa até novos portos”.311

Qualquer que seja a metáfora ou as metáforas para rejuvenescer a biologia

molecular, se antigas analogias lingüísticas em nova engrenagem ou outras figuras de todo

inovadoras, não resta dúvida de que a retórica associada até aqui com a genômica necessita

enfrentar um vendaval para se livrar do lastro indesejável de propaganda acumulado em

duas décadas de Projeto Genoma Humano.

309 “Although no one metaphor is likely to be informatiba in all respects, some new perspective that views the genome as an interactive community of evolving loci may be especially useful and stimulating at this time.” 310 “The understanding of Gene-D as a context-dependent molecular resource is nicely complemented by the ‘metaphorics’ of the dialogic construction of meaning in context, and such metaphorics can indeed be productive in eliciting intuitions that biologists will be able to realize in new experimental designs.” 311 “Metaphors in science are like foghorns and lighthouses: They usually reside in treacherous areas, yet they can also guide research mariners to novel ports.”

206

207

CONCLUSÃO

A tese central deste trabalho, tal como enunciada na sua introdução, é que a

comoção e a aceitação públicas produzidas pelo Projeto Genoma Humano só se explicam

pela mobilização retórica e política, nas interfaces com a esfera pública leiga, de um

determinismo genético crescentemente irreconciliável com os resultados empíricos obtidos

no curso da própria pesquisa genômica. Ela foi corroborada e documentada nos capítulos 3

e 4, verdadeiro centro de gravidade desta tese, nos quais se mostrou que a complexidade

empiricamente constatada da arquitetura do genoma e de suas interações com a célula, o

organismo e o meio circundante desautorizam a manutenção da causalidade simples e

unidirecional pressuposta na noção de gene como único portador de informação, esteio da

doutrina da ação gênica, determinismo genético e genocentrismo. Neles também se expôs

que, apesar disso, o complexo de metáforas informacionais continua vivo nas

manifestações publicadas dos biólogos moleculares, um discurso ambíguo que modula

graus variados de retórica determinista conforme se dirija aos próprios pares ou, indireta e

diretamente, ao público leigo.

Tal análise foi empreendida numa chave interpretativa que buscou escapar das

armadilhas representadas tanto pela oscilação entre visões prometéicas (otimistas) e

fáusticas (alarmistas) da tecnociência quanto do determinismo tecnológico que faz dela o

núcleo ativo e exclusivo do processo de mudança social e da história, algo que não deve ser

tomado como verdadeiro nem para o bem, nem para o mal, nem para o passado, nem para o

presente. A autonomização da tecnologia em relação aos homens e suas ações e intenções

não é completa, como sugere a literatura iniciada por Mumford e Ellul, entre outros. Uma

descrição mais penetrante e menos imobilizante dessa tensão se encontra na noção de

momento dos sistemas tecnológicos proposta por Hughes – algo que pode ser quebrado, ou

vetorialmente redirecionado, como ocorreu historicamente com a reação do público, em

vários países, contra a energia nuclear e, mais recentemente, problematizando a adoção de

cultivares transgênicos.

A recusa da dicotomia fáustico/prometéico e do determinismo tecnológico não quer

dizer que a interpretação oferecida careça de ponto de vista. Ao contrário: a perspectiva

assumida foi a da atitude preconizada pela teoria crítica diante da ciência e da tecnologia,

208

ainda que não apocalíptica, por concluir dos debates abertos pela Escola de Frankfurt que o

problema digno de atenção está mais na redução da ciência à técnica (como em Habermas),

uma figura histórica, do que numa alegada característica transcendentalmente dominadora

da razão instrumental (como em Adorno e vários escritos de Marcuse).

Esta visão menos maligna da tecnociência não se confunde, ademais, com uma

confiança cega na sua capacidade auto-reformadora, implícita na perspectiva da chamada

modernização ecológica de Mol e Spaargaren, em oposição à modernização reflexiva de

Beck. A emancipação visada pela proposta de superação do momento adquirido pelos

sistemas tecnológicos é uma possibilidade real, mas o risco de um colapso social e

ecológico não é menos real que ela. O resultado final dependerá da ação política, não da

confiança nos sistemas especialistas.

Entre os componentes decisivos dessa nova política descentralizada (ou subpolítica,

nos termos de Beck) está a crítica da tecnociência, que vê voltar-se contra si mesma a

ferramenta abrasiva do ceticismo que deu ímpeto à primeira modernidade mas se

esclerosou com a colonização da idéia de ciência como pesquisa empírica sistemática pela

estratégia materialista e pelo valor exacerbado do controle, segundo a análise de Lacey. É

preciso retomar o escopo original da investigação científica de abranger todas as

possibilidades (não só aquelas passíveis de controle) e submetê-las a confirmação empírica.

Essa forma de sociologia crítica da tecnociência não deve se resumir, no entanto, a uma

atividade teórica ou acadêmica, mas sim engajar a esfera pública, melhor dizendo, a

federação de esferas públicas articuladas em que os homens de determinada época

desenvolvem um saber reflexivo sobre aquilo que representam como sociedade.

Na passagem do século XX para o XXI, com a finalização do Projeto Genoma

Humano, as biotecnologias passaram a ocupar o centro nervoso da empreitada

tecnocientífica. De uma perspectiva tecnológico-determinista, isso bastou para que se

falasse em Era da Biotecnologia, ou Era do Genoma, apesar de não possuírem elas o

mesmo potencial refundador da base econômica da informática, por exemplo. Mesmo

assim, as biotecnologias ganham papel de relevo sob dois ângulos importantes: 1. Pelo

papel que podem vir a desempenhar na solução de problemas crônicos de sustentabilidade

ecológico-econômica (oferta de energia e destinação de rejeitos), como defende Roobeek;

2. Pelo reposicionamento que desencadeiam da fronteira entre natureza e cultura, em

209

particular no que respeita ao ser humano, por exemplo com a redefinição dos conceitos de

normalidade diante da provável oferta crescente de serviços ortogênicos no mercado.

O esfumaçamento dos limites entre natureza e cultura não se resolve, porém, com a

decisão de ignorá-los, como faz a sociobiologia reencarnada como psicologia evolucionista

de Cosmides, Tooby e Pinker. Decerto ele projeta sombras sobre a autonomia durkheimiana

do fato social, na medida em que doravante as representações sobre a pessoa humana

sofrem a influência também de fatos extra-sociais, mas também põe em crise o

determinismo biológico, uma vez que deixa de ser possível invocar como substrato

imutável do comportamento humano uma “natureza” já franqueada para as manipulações e

maquinações da tecnociência. De fundamento da vida social pressuposto nessa perspectiva

naturalista, a natureza humana se converte em um horizonte fugidio, como diz Franklin. O

caráter movediço dessa fronteira engendra o que se poderia chamar de ansiedade ética,

como está representada nas obras recentes de Habermas e Fukuyama sobre o futuro da

natureza humana, ameaçada que estaria em sua condição de um incondicionado, de

ancoradouro para um sistema mínimo que seja de valores universalizantes. Contra a

inclinação restritiva da pesquisa tecnocientífica nesses dois autores se insurge justamente

Zizek, entre outros, que propõe em seu lugar uma reconceituação das noções éticas tidas

como universais.

Essa disposição menos judicativa e mais fleumática diante da ciência e da

tecnologia encontra eco na atitude etnográfica preconizada por Rabinow diante do que

chama de biossocialidade, os novos circuitos de identidade que emergem na esteira das

biotecnologias e do Projeto Genoma Humano. Foi esta a inspiração deste trabalho, que

buscou inventariar e descrever o sistema de símbolos (metáforas, no caso) veiculado na

principal manifestação cultural no campo da ciência natural, suas publicações em

periódicos auditados (com peer review). Encontrou-se que, um século depois de ter sido

cunhado como conceito apenas teórico, sem correlato empírico conhecido, a noção de gene

como partícula de hereditariedade pré-formadora de características dos organismos se

encontra em plena atividade, revivificada que foi a partir dos anos 1950 pela

superimposição que sofreu da noção cibernética de informação. Quando da divulgação do

seqüenciamento (soletração) do genoma humano, porém, essa visão determinista e

genocêntrica já se encontrava sob duas décadas de fogo cruzado, enfrentando de um lado a

210

incongruência empírica galopante de um genoma complexo em interação com o organismo

e seu meio, e, de outro, o assalto teórico pelos críticos do determinismo reunidos na ótica

de um interacionismo construtivista e da nascente teoria de sistemas desenvolvimentais

(DST). Com isso, revela a análise dos textos, a retórica das manifestações de biólogos

moleculares oscila constantemente entre pólos mais e menos deterministas e genocêntricos,

dependendo do público e do efeito visados – uma vez que a noção de gene como

informação comprovou-se muito mais eficaz, historicamente, como ponto de venda da

empreitada bilionária do genoma. Não pode, por isso, ser abandonada abruptamente,

inclusive porque penetrou fundo nos próprios esquemas mentais de que se servem os

mesmos pesquisadores, como demonstra à farta o discurso francamente ideológico e

propagandístico de um James Watson. Como seus pares, ele se entrega a uma reafirmação

da fé messiânica na prometida revolução biomédica e biotecnológica, apesar das evidências

empíricas de que esse dia talvez não venha, pelo menos não da forma de uma reviravolta

fulgurante, como mostram Nightingale e Martin.

Por outro lado, é preciso registrar que as manifestações de biólogos moleculares e

seus intérpretes comportam também inúmeros reconhecimentos e exemplos das limitações

da abordagem genômica da biologia. Além de referências apenas protocolares à influência

do meio sobre os organismos e seu desenvolvimento, encontram-se muitas reflexões sobre

a necessidade de complementar o que anteriormente havia sido apresentado como

coroamento da biologia com décadas mais de estudos “úmidos”, ou seja, de laboriosa

verificação e validação obtidas nas “cozinhas repugnantes” de que fala Latour.

Protagonistas da genômica também já reconhecem abertamente a importância da

epigenética, entre outros exemplos de sistemas hereditários não baseados em DNA, e a

necessidade de ampliar o escopo da pesquisa no sentido de uma biologia de sistemas,

confirmando assim as objeção levantadas pelos opositores interacionistas, ainda que poucos

biólogos moleculares lhes reconheçam o crédito e o pioneirismo.

Em que pese esse esboço de revisionismo, o campo da genômica ainda está longe de

abandonar a conjunção indevida das noções de gene pré-formacionista e de gene como um

recurso desenvolvimental entre outros, como assinala Moss, que está por trás da metáfora

do gene como informação. E as razões para isso vão além de uma simples inércia

vocabular. O que essa fusão inspirada pela terminologia cibernética propicia é uma versão

211

asséptica do gene, distanciada da natureza, puramente sintática, móvel e virtual o bastante

para circular desimpedidamente nos novos circuitos de geração de valor. Esse gene bifronte

que habita os bancos de dados é uma pura promessa de controle, tanto de processos antes

exclusivos do organismo e ora franqueados à tecnologia quanto do potencial de valorização

dessas possibilidades de intervenção. O gene como informação constitui simbólica e

pragmaticamente a noção de recurso genético na acepção de Laymert Garcia dos Santos,

passível de garimpagem e de apropriação, e não tanto de explicação do mundo vivo.

A conclusão principal já se encontra formulada no final do capítulo 5, cabendo aqui

a sua reiteração: cabe ao cientista social que se defronta com a tecnociência em sua vertente

biotecnológica empunhar as armas da crítica para desafiar o campo hegemônico da

genômica a abandonar ou reformular drasticamente o complexo de metáforas deterministas

que até agora lhe deu sustentação. Sem isso ela deixará de ser científica, ou seja, se afastará

cada vez mais da promessa de objetividade e de imparcialidade implícita em qualquer

forma de pesquisa científica, até mesmo na tecnociência.

212

213

REFERÊNCIAS BIBLIOGRÁFICAS

ADORNO, Theodor W.; HORKHEIMER, Max. 1985. Dialética do esclarecimento. Fragmentos

filosóficos. Tradução: Guido Antonio de Almeida. Rio de Janeiro: Zahar. ADORNO, Theodor W. 1989. Society. In: BRONNER, Stephen E., KELLNER, Douglas M. (Eds.).

Critical theory and society. Nova York: Routledge. ATLAN, Henri. 1992. Entre o cristal e a fumaça: Ensaios sobre a organização do ser vivo.

Tradução: Vera Ribeiro. Revisão técnica: Henrique Lins de Barros. Rio de Janeiro: Jorge Zahar Editor.

AVISE, John C. 2001. Evolving genomic metaphors: A new look at the language of DNA. Science, v.294, n. 5540, p. 86-87, 5.out.2001. BAKER, David; SALI, Andrej. 2001. Protein structure prediction and structural genomics.

Science, v. 294, n. 5540, p. 93-96, 5.out.2001. BALTIMORE, David. 2001. Our genome unveiled. Nature, v. 409, n. 6822, p. 814-816,

15.fev.2001. BATESON, Patrick; MARTIN, Paul. 2000. Design for a life: How behavior and personality

develop. Nova York: Simon & Schuster. BECK, Ulrich. 1996a. The reinvention of politics: Rethinking modernity in the global social order.

Tradução: Mark Ritter. Cambridge, Reino Unido: Polity Press. BECK, Ulrich. 1996b. Risk society: Towards a new modernity. Tradução de Mark Ritter.

Londres: Sage. BECK, Ulrich. 1997. A reinvenção da política: rumo a uma teoria da modernização reflexiva. In:

GIDDENS, Anthony, BECK, Ulrich, LASH, Scott. Modernização reflexiva. Política,

tradição e estética na ordem social moderna. Tradução: Magda Lopes. São Paulo: Editora da Universidade Estadual Paulista.

BENNER, Steven E. 2002. The past as the key to the present: Resurrection of ancient proteins

from eosinophils. PNAS, v. 99, n. 8, p. 4760-4761, 16.abr.2002. BERGER, Shelley L. 2001. The histone modification circus. Science, v. 292, n. 5514, p. 64-65,

6.abr.2001. BIJKER, Wiebe E.; HUGHES, Thomas; PINCH, Trevor. (Eds.) 1984. The social construction of

technological systems: New directions in the sociology and history of technology. Cambridge, Massachusetts: The MIT Press.

BIMBER, Bruce. 1994. Three faces of technological determinism. In: SMITH, Merritt Roe;

MARX, Leo. (Eds.). Does technology drive history? The dilemma of technological determinism. Cambridge, MA: The MIT Press. p. 79-100.

214

BIRNEY, Ewan; BATEMAN, Alex; CLAMP, Michelle E.; HUBBARD, Tim J. 2001. Mining the draft human genome. Nature, v. 409, n. 6822, p. 827-828, 15.fev.2001.

BOBROW, Martin; THOMAS, Sandy. 2001. Patents in a genetic age. Nature, v. 409, n. 6822, p.

763-764, 15.fev.2001. BORK, Peer; COPLEY, Rcihard. 2001. Filling in the gaps. Nature, v. 409, n. 6822, p. 818-820,

15.fev.2001. BRENNER, Sydney. 2001. Hunting the metaphor. Science, v. 291, n. 5507, p. 1265-1266,

16.fev.2001. BROSIUS, Jürgen; GOULD, Stephen Jay. 1992. On “genomenclature”: A comprehensive (and

respectful) taxonomy for pseudogenes and other “junk DNA”. Proceedings of the National Academy of Sciences USA, v. 89, p. 10706-10710, nov.1992.

BUTLER, Declan. 2001. Are you ready for the revolution? Nature, v. 409, n. 6822, p. 758-760,

15.fev.2001. BUTTEL, Frederick H. 1995. Biotechnology: An epoch-making technology? In: FRANSMAN,

Martin; JUNNE, Gerd; ROOBEEK, Annemieke (Eds.). The biotechnology revolution? Oxford: Blackwell. p. 25-45.

BUTTEL, Frederick H. 1997. Social institutions and environmental change. In: REDCLIFT,

Michael; WOODGATE, Graham. (Eds.) The International handbook of environmental sociology. Cheltenham, Reino Unido: Edward Elgar. p. 40-54.

CAMARGO, Anamaria A. et al. 2001. The contribution of 700,000 ORF sequence tags to the

definition of the human transcriptome. PNAS, v. 98, n. 21, p.12103-12108,9.out.(2001) CHAKRAVARTI, Aravinda. 2001. ... to a future of genetic medicine. Nature, v. 409, n. 6822, p.

821-822, 15.fev.2001.

CHO, Mildred K. et al. 1999. Ethical considerations in synthesizing a minimal genome. Science, v. 286, n. 5447, p. 2087-2090, 10.dez.1999.

CLAVERIE, Jean-Michel. 2001. What if there are only 30,000 human genes? Science, v. 291,

n. 5507, p. 1255-1257, 16.fev.2001. COLLINS, Francis; GREEN, Eric D.; GUTTMACHER, Alan E.; GUYER, Mark S. 2003a. A

vision for the future of genomics research. A blueprint for the genomic era. Nature, v. 422, n. 6934, p. 835-847, 24.abr.2003.

COLLINS, Francis; MORGAN, Michael; PATRINOS, Aristides. 2003b. The Human Genome

Project: Lessons from large-scale biology. Science, v. 300, n. 5617, p. 286-296, 11.abr.2003.

COMMONER, Barry. 2002 Unravelling the DNA myth. In: Harper’s Magazine. fev.2002. p. 39-

47. DELEUZE, Gilles. 1988 Sobre a morte do homem e o super-homem. Tradução: Claudia

215

Sant’Anna Martins. In: DELEUZE, Gilles. Foucault. São Paulo: Editora Brasiliense. p. 132-142.

DELEUZE, Gilles. 1990. Controle e devir (entrevista a Toni Negri) e Post-scriptum sobre as

sociedades de controle. Tradução: P.P. Pelbart. In: DELEUZE, Gilles. Conversações. 1972- 1990. Rio de Janeiro: Editora 34. p. 209-226.

DENNIS, Carina; GALLAGHER, Richard; CAMPBELL, Philip. 2001. Everyone’s genome.

Nature, v. 409, n. 6822, p. 813, 15.fev.2001.

DOVER, Gabriel. 2000. Anti-Dawkins. In: ROSE, Hilary; ROSE, Steven (Eds.). Alas, poor Darwin: Arguments against evolutionary psychology. Nova York: Harmony Books. p. 55-77.

DULBECCO, Renato. 1997. Os genes e o nosso futuro. Tradução: Marlena Maria Lichaa. São

Paulo: Best Seller. DUNLAP, Riley E. 1997. The evolution of environmental sociology: A brief history and

assessment of the American experience. In: REDCLIFT, Michael; WOODGATE, Graham. (Eds.) The International handbook of environmental sociology. Cheltenham, Reino Unido: Edward Elgar. p. 21-39.

DURKHEIM, Émile. 1978. As regras do método sociológico. In: Durkheim. Tradução: Margarida

Garrido Esteves. São Paulo: Abril Cultural (Os Pensadores). p. 71-161. ELLUL, Jacques. 1964. The technological society. Tradução: John Wilkinson. Nova York: Vintage

Books. ENARD, Wolfgang et al. 2002. Intra- and interspecific variation in primate gene expression

patterns. Science, v. 296, n. 5566, p. 340-343, 12.abr.2002. FAIRBURN, Hannah R. et al. 2002 Epigenetic reprogramming: How now, cloned cow? Current

Biology, v. 12, p. R68-R70. FRANKLIN, Sarah. 2000. Life itself. Global nature and the genetic imaginary. In: Sarah

FRANKLIN, Celia LURY, Jackie STACEY. Global nature, global culture. Londres: Sage. p. 188-227.

FRANSMAN, Martin; JUNNE, Gerd; ROOBEEK, Annemieke (Eds.). 1995 The biotechnology

revolution? Oxford: Blackwell. FRAZIER, Marvin E.; JOHNSON, Gary M.; THOMASSEN, David G.; OLIVER, Carl E.;

PATRINOS, Aristides. 2003. Realizing the potential of the genome revolution. The Genomes To Life program. Science, v. 300, n. 5617, p. 290-293, 11.abr.2003.

FREEMAN, Christopher. 1995. Technological revolutions: Historical analogies. In: FRANSMAN,

Martin; JUNNE, Gerd; ROOBEEK, Annemieke (Eds.). The biotechnology revolution? Oxford: Blackwell. p. 7-24.

FREUDENBURG, William R. 2000. Social constructions and social constrictions: Toward

analyzing the social construction of ‘the naturalized’ as well as ‘the natural’. In:

216

SPAARGAREN, Gert; MOL, Arthur P.J.; BUTTEL, Frederick M. (Eds.) Environmental and global modernity. Londres: Sage. p. 103-119.

FUKUYAMA, Francis. 2002. Our Post-Human Future. Consequences of the biotechnology

revolution. Nova York: Farrar, Straus and Giroux. GALAS, David J. 2001. Making sense of the sequence. Science, v. 291, n. 5507, p. 1257-1260,

16.fev.2001. GELBART, William M. 1998. Databases in genomic research. Science, v. 2, n. 5389, p. 659-661,

23.out.1998. GIDDENS, Anthony; BECK, Ulrich; LASH, Scott. 1997. Modernização reflexiva. Política,

tradição e estética na ordem social moderna. Tradução: Magda Lopes. São Paulo: Editora da Universidade Estadual Paulista.

GIDDENS, Anthony. 1991. As conseqüências da modernidade. Tradução: Raul Fiker. São Paulo:

Editora da Universidade Estadual Paulista. GILBERT, Walter. 1993. A vision of the Grail. In: KEVLES, Daniel J.; HOOD, Leroy (Eds.). The

code of codes. Scientific and social issues in the Human Genome Project. Cambridge, EUA: Harvard University Press.

GODFREY-SMITH, Peter. 2001. On the status and explanatory structure of developmental

systems theory. In: OYAMA, Susan; GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 283-297.

GOODY, Jack; WATT, Ian. 1968. The consequences of literacy. In: GOODY, Jack. Literacy in

traditional societies. Cambridge, Reino Unido: Cambridge University Press. GOULD, Stephen Jay. 2001. Humbled by the genome’s mysteries. The New York Times.

19.fev.(2001) GOULD, Stephen Jay. 2002. The structure of evolutionary theory. Cambridge, MA: Harvard

University Press. GRATZER, Walter B. 2000. Introduction. Em: James D. WATSON. A passion for DNA. Cold

Spring Harbor, NY: CSHL Press. HABERMAS, Jürgen. 1982. Aufgaben einer kritischen Gesellschaftstheorie. In: Theorie des

kommunikativen Handelns. Frankfurt: Suhrkamp. HABERMAS, Jürgen. 1993. Técnica e ciência como “ideologia”. Tradução de Artur Morão.

Lisboa: Edições 70. HABERMAS, Jürgen. 2000. O discurso filosófico da modernidade. Tradução: Luiz Sérgio Repa e

Rodnei Nascimento. São Paulo: Martins Fontes. HABERMAS, Jürgen. 2001. Die Zukunft der menschlichen Natur. Auf dem Weg zu einer

liberalen Eugenik? Frankfurt: Suhrkamp Verlag.

217

HARAWAY, Donna. 1997. Modest_Witness@ Second_Millennium. FemaleMan_Meets_

OncoMouse. Feminism and technoscience. Nova York: Routledge. HEILBRONER, Robert L. 1994. Do machines make history? In: SMITH, Merritt Roe; MARX,

Leo. (Eds.). Does technology drive history? The dilemma of technological determinism. Cambridge, MA: The MIT Press. p. 53-78.

HO, Mae-Wan. 2001. The human genome map, the death of genetic determinism and beyond.

Londres: Institute for Science in Society (ISIS). Disponível em <http://www.i-sis.org.uk/HumangenTWN-pr.php>.

HOOD, Leroy. 1993. Biology and medicine in the twenty-first century. In: KEVLES, Daniel J.;

HOOD, Leroy (Eds.). The code of codes. Scientific and social issues in the Human Genome Project. Cambridge, EUA: Harvard University Press. p. 136-163.

HORKHEIMER, Max. 1980. Teoria tradicional e teoria crítica. In: Textos escolhidos. São Paulo:

Abril Cultural (Os Pensadores). HUBBARD, Ruth; WALD, Elijah. 1997. Exploding the gene myth: How genetic information is

produced and manipulated by scientists, physicians, employers, insurance companies,

educators, and law enforcers. Boston: Beacon Press. HUGHES, Thomas. 1994. Technological momentum. In: SMITH, Merritt Roe; MARX, Leo.(Eds.).

Does technology drive history? The dilemma of technological determinism. Cambridge, Massachusetts: The MIT Press. p. 101-103.

HUGHES, Thomas. 1999. The evolution of large technological systems. In: BIJKER, Wiebe E.;

HUGHES, Thoma; PINCH, Trevor. (Eds.) The social construction of technological systems: New directions in the sociology and history of technology. Cambridge, Massachusetts: The MIT Press. p. 51-82.

HUTTER, Harald et al. 2000. Conservation and novelty in the evolution of cell adhesion and

extracellular matrix genes. Science, v. 287, n. 5455, p. 989-994, 11.fev.2000. INOUE, Kimiko et al. 2002. Faithful expression of imprinted genes in cloned mice. Science, v.

295, n. 5553, p. 297, 11.jan.2002. JABLONKA, Eva. 2001. The systems of inheritance. In: OYAMA, Susan; GRIFFITHS, Paul E.;

GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 99-116.

JAENISCH, Rudolf; WILMUT, Ian. 2001. Don’t clone humans! Science, v. 291, n. 5513, p. 2552,

30.mar.2001. JEFFORDS, James M.; DASCHLE, Tom. 2001. Political issues in the Genome Era. Science, v.

291, n. 5507, p. 1249-1251, 16.fev.2001. JUDSON, Horace Freeland. 1996. The Eighth day of creation. Makers of the revolution in biology.

Cold Spring Harbor, Nova York: Cold Spring Harbor Laboratory Press.

218

JÜNGER, Ernst. 1990. L’état universel, suivi de La mobilisation totale. Tradução de Henri Plard e Marc B. de Launay. Paris: Gallimard.

JÜNGER, Ernst. 1993. Le travailleur. Tradução de Julien Hervier. Paris: Christian Bourgois. KAY, Lily E. 2000. Who wrote the Book of Life? A history of the genetic code. Stanford, Calif.:

Stanford University Press. KELLER, Evelyn Fox. 1993. Nature, nurture, and the Human Genome Project. In: KEVLES,

Daniel J.; HOOD, Leroy (Eds.). The code of codes. Scientific and social issues in the Human Genome Project. Cambridge, EUA: Harvard University Press. p. 281-299.

KELLER, Evelyn Fox. 1995. Refiguring life. Metaphors of twentieth-century biology. Nova York:

Columbia University Press. KELLER, Evelyn Fox. 2001. Beyond the gene but beneath the skin. In: OYAMA, Susan;

GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 299-312.

KELLER, Evelyn Fox. 2002. O século do gene. Belo Horizonte: Editora Crisálida. Tradução:

Nelson Vaz. KEVLES, Daniel J.; HOOD, Leroy (Eds.). 1993. The code of codes. Scientific and social issues in

the Human Genome Project. Cambridge, EUA: Harvard University Press. KLOSE, Joachim et al. 2002. Genetic analysis of the mouse brain proteome. Nature Genetics.

Publicado online. DOI: <10.1038/ng861>. p. 1-9. 25.mar.2002. KÜPPERS, Bernd-Olaf. 1990. Information and the origin of life. Cambridge, Massachusetts: MIT Press. LACEY, Hugh. 1998. Valores e atividade científica. São Paulo: Discurso Editorial. LACEY, Hugh. 1999. Is science value free? Nova York: Routledge. LANDER, E.S. et al. (INTERNATIONAL HUMAN GENOME SEQUENCING CONSORTIUM). 2001. Initial sequencing and analysis of the human genome. Nature, v. 409, n. 6822, p. 860-921, 15.fev.2001. LASH, Scott. 2002. Critique of information. Londres: Sage. LATOUR, Bruno. 1994. Jamais fomos modernos. Ensaios de antropologia simétrica.

Tradução: Carlos Irineu da Costa. São Paulo: Editora 34. LATOUR, Bruno. 2001. A esperança de Pandora. Ensaios sobre a realidade ds estudos

científicos. Bauru, São Paulo: Edusc. Tradução: Gilson César Cardoso de Sousa. LEDERBERG, Joshua. 2001. The meaning of epigenetics. The Scientist, n. 18, v. 15, p. 6

(17.set.2001).

LÉVI-STRAUSS, Claude. 1982. As estruturas elementares do parentesco. Petrópolis: Vozes.

219

LÉVY, Pierre. 1999. O que é o virtual? Tradução: Paulo Neves. São Paulo: Editora 34. LEWONTIN, Richard C.; ROSE, Steven; KAMIN, Leon J. 1985. Not in our genes:Biology,

ideology, and human nature. Nova York: Pantheon Books. LEWONTIN, Richard C. 1993. The doctrine of DNA. Biology as ideology. Londres: Penguin

Books. LEWONTIN, Richard C. 2000a. It ain’t necessarily so: The dream of the human genome and

other illusions. Nova York: New York Review Books. LEWONTIN, Richard C. 2000b. The triple helix. Gene, organism, and environment. Cambridge,

EUA: Harvard University Press. LEWONTIN, Richard C. 2000c. Foreword. In: OYAMA, Susan. The ontogeny of information.

Developmental systems and Evolution. Durham, EUA: Duke University Press. p. viii-xv. LEWONTIN, Richard C. 2001a. Genes, organism and environment. In: OYAMA, Susan;

GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 59-66.

LEWONTIN, Richard C. 2001b. In the beginning was the word. Science, v. 291, n. 5507, pp. 1263- 1264, 16.fev.2001. LINDEE, M. Susan. 2003. Watson’s world. Science, v. 300, n. 5618, pp. 432-434, 18.abr.2003. LODISH, H. et al. 1999. Molecular cell biology. Nova York: W.H. Freeman and Company. [4a

edição] LYOTARD, Jean-François. 2000. A condição pós-moderna. Tradução: Ricardo Corrêa Barbosa. Rio de Janeiro: José Olympio. MALAKOFF, David; SERVICE, Robert F. 2001. Genomania meets the bottom line. Science, v.

291, n. 5507, p. 1193-1203, 16.fev.2001. MANIATIS, Tom; REED, Robin. 2002. An extensive network of coupling among gene expression

machines. Nature, v. 416, n. 6880, p. 499-506, 4.abr.2002. MARCUSE, Herbert. 1991. One-dimensional man. Boston: Beacon Press. MARCUSE, Herbert. 1999. Algumas implicações sociais da tecnologia moderna. In: Tecnologia,

guerra e fascismo. Tradução: Maria Cristina Vidal Borba. São Paulo: Editora da Universidade Estadual Paulista.

MARSHALL, Eliot. 2001. Sharing the glory, not the credit. Science, v. 291, n. 5507, p. 1189-

1193, 16.fev.2001. MARTINS, Hermínio. 1996a. Hegel, Texas e outros ensaios em teoria social. Lisboa: Século XX.

220

MARTINS, Hermínio. 1996b. Technology, the risk society and post-history. In: Instituto Superior de Ciências Sociais e Políticas – 90 Anos: 1906-1996. Lisboa: ISCSP, 1996. p. 221-240.

MARTINS, Hermínio. 1998. Risco, incerteza e escatologia – reflexão sobre o experimentum

mundi tecnológico em curso (I). Episteme (dez.1997/jan.1998). Lisboa: Universidade Técnica de Lisboa. Ano 1 – n. 1. p. 99-121.

MARX, Jean. 2000. Interfering with gene expression. Science, v. 288, n. 5470, p. 1370-1372,

26.mai.2000. MARX, Karl; ENGELS, Friedrich. 1977. A ideologia alemã. São Paulo: Grijalbo. MARX, Karl Marx. 1978. Prefácio. Para a crítica da economia política. In: Manuscritos econômico-

filosóficos e outros textos escolhidos. São Paulo: Abril Cultural (Os Pensadores). MARX, Leo. 1994. The idea of “technology” and postmodern pessimism. In: SMITH, Merritt Roe;

MARX, Leo. (Eds.). Does technology drive history? The dilemma of technological determinism. Cambridge, MA: The MIT Press. p. 237-257.

MAYNARD SMITH, John. 2000. The Cheshire cat’s DNA. The New York Review of Books,

21.dez.2000, p. 43-46. McGUFFIN, Peter; RILEY, Brian; PLOMIN, Robert. 2001 Toward behavioral genomics. Science,

v. 291, n. 5507, p. 1232-1249, 16.fev.2001. McLUHAN, Marshall. 1962. The Gutenberg galaxy. The making of typographical man. Toronto:

University of Toronto Press. MENDELSOHN, Everett. 1994. The politics of pessimism: Science and technology circa 1968. In:

EZRAHI, Yaron; MENDELSOHN, Everett; e SEGAL, Howard. (Eds.) Technology, pessimism and postmodernism. Dordrecht, Holanda: Kluwer, 1994. p. 151-173

MOL, Arthur P.J. 1997. Ecological modernization: industrial transformation and environmental

reform. In: REDCLIFT, Michael; WOODGATE, Graham. (Eds.) The International handbook of environmental sociology. Cheltenham, Reino Unido: Edward Elgar. p. 138- 149.

MOORE, David S. 2002. The dependent gene: The fallacy of “nature vs. nurture”. Nova York:

Times Books. MORANGE, Michel. 2001. The misunderstood gene. Cambridge, Mass.: Harvard University

Press. Tradução de Matthew Cobb. MOSS, Lenny. 2001. Deconstructing the gene and reconstructing molecular developmental

systems. In: OYAMA, Susan; GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 85-97.

MOSS, Lenny. 2003. What genes can’t do. Cambridge, Massachusetts: Bradford/MIT Press. MUMFORD, Lewis. 1963. Technics and civilization. San Diego: Harvest.

221

NATURE. 2001. Human genomes, public and private. [Editorial] Nature, v. 409, n. 6822, p.

745,15.fev.2001. NELKIN, Dorothy. 1995a. Selling science. How the press covers science and technology. Nova

York: W.H. Freeman. NELKIN, Dorothy; LINDEE, Susan. 1995b. The DNA mystique. The gene as a cultural icon. Nova

York: W.H. Freeman. NEUMANN-HELD, Eva. 2001. Let’s talk about genes: the process molecular gene and its context.

In: OYAMA, Susan; GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 69-84.

NIGHTINGALE, Paul; MARTIN, Paul. The myth of the biotech revolution. Trends in Biotechnology, v. 22, n. 11, p. 564-569, nov.2004. [doi:10.1016/j.tibtech.2004.09.010] OLSON, Maynard V. 2001. Clone by clone by clone. Nature, v. 409, n. 6822, p. 816-

818,15.fev.2001. OTERO, Gerardo. 1995. The coming revolution of biotechnology: A critique of Buttel. In:

FRANSMAN, Martin; JUNNE, Gerd; ROOBEEK, Annemieke (Eds.). The biotechnology revolution? Oxford: Blackwell. p. 46-61.

OYAMA, Susan. 2000a. The ontogeny of information. Developmental systems and Evolution.

Durham, EUA: Duke University Press. OYAMA, Susan. 2000b. Evolution’s eye: A systems view of the biology-culture divide. Durham,

NC: Duke University Press. OYAMA, Susan; GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). 2001. Cycles ofcontingency.

Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. PÄÄBO, Svante. 2001. The human genome and our view of ourselves. Science, v. 291, n. 5507, p.

11219-1220, 16.fev.2001. PELTONEN, Leena; McKUSICK, Victor A. 2001. Dissecting human disease in the postgenomic

era. 2001. Science, v. 291, n. 5507, p. 1224-1229, 16.fev.2001. PENNISI, Elizabeth. 2001a. The human genome. Science, v. 291, n. 5507, p. 1177-

1180,16.fev.2001. PENNISI, Elizabeth. 2001b. Behind the scenes of gene expression. Science, v. 293, n. 5532, p.

1064-1067, 10.ago.2001. PINKER, Steven. 2002. The blank slate. The modern denial of human nature. Londres:

Allen Lane/Penguin. PINTO-CORREIA, Clara. 1999. O ovário de Eva. A origem da vida. Tradução: Sonia Coutinho.

Rio de Janeiro: Campus.

222

POLLARD, Thomas D. 2001. Genomics, the cytoskeleton and motility. Nature, v. 409, n. 6822, p.

842-843, 15.fev.2001. PRIEST, Susanna H. 2000. US public opinion divided over biotechnology? Nature Biotechnology.

v. 18, n. 9, p. 939-942, set.2000. RABINOW, Paul. 1992. Artificiality and enlightenment: from sociobiology to biosociality. In:

CRARY, Jonathan; KWINTER, Sanford (Eds.). Incorporations – Zone. n. 6, Nova York. p. 234-252.

REDCLIFT, Michael; WOODGATE, Graham. (Eds.) 1997. The International handbook of

environmental sociology. Cheltenham, Reino Unido: Edward Elgar. RIBEIRO, Renato Janine. 2003. Novas fronteiras entre natureza e cultura. In: Adauto NOVAES

(Org.). O Homem-Máquina. São Paulo, Companhia das Letras. p. 15-36 RIDEOUT III, William M. et al. 2001. Nuclear cloning and epigenetic reprogramming of the

genome. Science, v. 293, n. 5532, p. 1093-1098, 10.ago.2001. RIFKIN, Jeremy. 1998. The biotech century. Harnessing the gene and remaking the world. Nova

York: Tarcher/Putnam. RIFKIN, Jeremy. 2001. The age of access. The new culture of hypercapitalism, where all life is a

paid-for experience. Nova York: Tarcher/Putnam. ROBERTS, Leslie. 2001. Controversial from the start. Science, v. 291, n. 5507, p. 1182-1188,

16.fev.2001. ROOBEEK, Annemieke J.M. 1995. Biotechnology: A core technology in a new techno-economic

paradigm. In: FRANSMAN, Martin; JUNNE, Gerd; ROOBEEK, Annemieke (Eds.). The biotechnology revolution? Oxford: Blackwell. p.62-84.

ROSA, Eugene A. 2000. Modern theories of society and the environment: The risk society. In:

SPAARGAREN, Gert; MOL, Arthur P.J.; BUTTEL, Frederick M. (Eds.) Environmental and global modernity. Londres: Sage.

ROSE, Steven. 1998. Lifelines: Biology beyond determinism. Nova York: Oxford University Press. ROSE, Hilary; ROSE, Steven (Eds.). 2000. Alas, poor Darwin: Arguments against evolutionary

psychology. Nova York: Harmony Books. RUBIN, Gerald M. et al. 2000. Comparative genomics of eukaryotes. Science,v. 287, n. 5461, p.

2204-2215, 24.mar.2000. RUBIN, Gerald M. 2001. Comparing species. Nature, v. 409, n. 6822, p. 820-821, 15.fev.2001. SANTOS, Laymert Garcia dos. 1998. Tecnologia, natureza e a ‘redescoberta’ do Brasil.

In: Hermetes Reis de ARAÚJO (Org.). Tecnociência e cultura. Ensaios sobre o tempo presente. São Paulo: Estação Liberdade. p. 23-46.

223

SANTOS, Laymert Garcia dos. 2000. Limites e rupturas na esfera da informação. São Paulo em Perspectiva. São Paulo, Fundação Seade, v. 14, n. 3, jul-set. (2000) p. 32-39.

SANTOS, Laymert Garcia dos. 2001a. A desordem da nova ordem. In: VIANA, Gilney; SILVA,

Marina; DINIZ, Nilo (orgs.). O desafio da sustentabilidade. Um debate socioambiental no Brasil. São Paulo: Editora Fundação Perseu Abramo. p. 27-41.

SANTOS, Laymert Garcia dos. 2001b. Informação, recursos genéticos e conhecimento tradicional

associado. In: AZEVEDO, Maria Cristina do Amaral; FURRIELA, Fernando Nabais. (Orgs.) Biodiversidade e propriedade intelectual. São Paulo: Secretaria do Meio Ambiente, pp. 33-49.

SANTOS, Laymert Garcia dos. 2003. Tecnologia, perda do humano e crise do sujeito de direito. In: Politizar as novas tecnologias. O impacto sócio-técnico da informaçõa digital e genética.

São Paulo: Editora 34. SANTOS, Laymert Garcia dos. 2005. Quando o conhecimento científico se torna predação high- tech: recursos genéticos e conhecimento tradicional no Brasil. In: SANTOS, Boaventura de Sousa. (Org.). Semear Outras Soluções. Os Caminhos da Biodiversidade e dos Conhecimento Rivais. Rio de Janeiro: Civilização Brasileira. pp. 125-165. SARKAR, Sahotra. 1999. Genetics and reductionism. Cambridge, Reino Unido: Cambridge

University Press. SCHRÖDINGER, Erwin. 1997. ¿Qué es la vida? Tradução: Ricardo Guerrero. Barcelona:

Tusquets. SIMONDON, Gilbert. 1992. The genesis of the individual. In: CRARY, Jonathan; WINTER,

Sanford (Eds.). Incorporations – Zone. n. 6, Nova York. p. 296-319. SMITH, Merritt Roe. 1994. Technological determinism in American culture. In: SMITH, Merritt

Roe; MARX, Leo. (Eds.). Does technology drive history? The dilemma of technological determinism. Cambridge, MA: The MIT Press. p. 1-35.

SMITH, Merritt Roe; MARX, Leo. (Eds.). 1994. Does technology drive history? The dilemma of

technological determinism. Cambridge, MA: The MIT Press. SPAARGAREN, Gert. 2000. Ecological modernization theory and the changing discourse on

environment and modernity. In: SPAARGAREN, Gert; MOL, Arthur P.J.; BUTTEL, Frederick M. (Eds.) Environmental and global modernity. Londres: Sage. p. 41-71.

SPAARGAREN, Gert; MOL, Arthur P.J.; BUTTEL, Frederick M. (Eds.) 2000. Environmental and

global modernity. Londres: Sage. STERELNY, Kim. 2001. Niche construction, developmental systems, and the extended replicator.

In: OYAMA, Susan; GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 331-349.

STEVENS, Raymond C. et al. 2001. Global efforts in structural genomics. Science, v. 294, n.5540,

p. 89-92, 5.out.2001.

224

STRAHL, Brian D.; ALLIS, C. David. 2000. The language of covalent histone modifications.

Nature, v. 403, n. 6765, p. 41-45, 6.jan.2000. STRATHERN, Marilyn. 1992. Reproducing the future. Essays on anthropology, kinship

and the new reproductive technologies. Nova York: Routledge. STRAUSBERG, Robert L.; RIGGINS, Gregory J. 2001. Navigating the human transcriptome.

Proceedings of the National Academy of Sciences, v. 98, n. 21, p. 11837-11838, (9.out.2001).

STROHMAN, Richard. 2002. Maneuvering in the complex path from genotype to phenotype. Science, v. 296, n. 5568, p. 701-703, 26.abr.2002. SURANI, M. Azim. 2001. Reprogramming of genome function through epigenetic inheritance.

Nature, v. 414, n. 6859, p. 122-128, 1.nov.2001. SURANI, M. Azim. 2002. Immaculate misconception. Nature, v. 416, n. 6880, p. 491-493,

4.abr.2002. SZATHMÁRY, Eörs; JORDÁN, Ferenc; PÁL, Csaba. 2001. Can genes explain biological complexity? Science, v. 292, n. 5520, p. 1315-1316, 18.mai.2001.

THE SEQUENCE of the human genome. Remarks by J. Craig Venter, Celera Genomics. 2001.

[Press release sobre a revista Science, v. 291, n. 5507, 16.fev.2001.] Disponível em <http://www.eurekalert.org/pub_jrnls/sci/public_releases/venter.html>.

TOOBY, John, e COSMIDES, Leda. 1992. The psychological foundations of culture. In:

Jerome H. BARKOW, Leda COSMIDES, John TOOBY (Orgs.). The adapted mind. Evolutionary psychology and the generation of culture. Nova York: Oxford University Press. p. 19-136.

TUMA, Rabiya S. 2002. Profile: Rudolf Jaenisch.. BioMedNet Conference Reporter, AACR 2002

(6.abr.2002). Disponível em <http://news.bmn.com/conferences/list/view?fileyear=2002&fileacronyn=AACR&fileday=day1&pagefile=profile_1.html>.

TUPLER, Rossella; PERINI, Giovanni; GREEN, Michael. 2001. Expressing the human

genome. 2001. Nature, v. 409, n. 6822, p. 832-833, 15.fev.2001. VENTER, J. Craig et al. 2001. The sequence of the human genome. Science, v. 291, n. 5507, p.

1304-1351, 16.fev.2001. VENTER, J. Craig et al. 2004. Environmental Genome Shotgun Sequencing of the Sargasso Sea.

Science, v. 304, n. 5667, p. 66-74, 02.abr.2004. VIVEIROS DE CASTRO, Eduardo. 2002. A inconstância da alma selvagem. E outros

ensaios de antropologia. São Paulo: Cosac & Naify. VOGEL, Gretchen. 2001. Watching genes build a body. Science, v. 291, n. 5507, p. 1181,

16.fev.2001.

225

WATSON, James D.; CRICK, Francis H.C. 1953. A structure for deoxyribose nucleic acid.

Nature. v. 171, n. 4356, p. 737-738, 25.abr.1953. WATSON, James D. 2000. A passion for DNA. Cold Spring Harbor, NY: CSHL Press. WATSON, James D., e BERRY, Andrew. 2003. DNA. The secret of life. Nova York: Alfred Knopf. WILLIAMS, Rosalynd. 1994. The political and feminist dimensions of technological determinism.

In: SMITH, Merritt Roe; MARX, Leo. (Eds.). Does technology drive history? The dilemma of technological determinism. Cambridge, MA: The MIT Press. p. 217-235.

WILSON, Edward O. 1978. On human nature. Cambridge, Mass.: Harvard University Press. WILSON, Edward O. 1999. A unidade do conhecimento. Consiliência. Rio de Janeiro: Campus.

Tradução de Ivo Korylowski. WILSON, Edward O. 2000. Sociobiology. The new synthesis. Cambridge, Mass.:

Belknap/Harvard (25th anniversary ed.). WOLFFE, Alan P.; MATZKE, Marjori A. 1999. Epigenetics: Regulation through repression.

Science, v. 286, n. 5439, p. 481-486, 15.out.1999. WRIGHT, F.A. et al. 2001. A draft annotation and overview of the human genome. Genome

Biology, n. 7, v. 2, p. 1-18. Disponível em <http://genomebiology.com/2001/2/3/preprint/0001/>.

ZHANG, Jianzhi; ROSENBERG, Helene F. 2002. Complementary advantageous substitutions in

the evolution of an antiviral Rnase of higher primates. PNAS, v. 99, n. 8, p. 5486-5491, 16.abr.2002.

ZIZEK, Slavoj. 2003. Science: cognitivism with Freud. In: Organs without bodies. Nova

York: Routledge. p. 111-147. ZWEIGER, Gary. 2001. Transducing the genome. Information, anarchy, and revolution in the

biomedical sciences. Nova York: McGraw-Hill.