Upload
magdalinaguerreiro
View
18
Download
7
Embed Size (px)
Citation preview
MENTE, HOMEM E MÁQUINA
Paul Sagal
Revisão científica de M. S. Lourenço
Faculdade de Letras da Universidade de Lisboa
Tradução de Desidério Murcho
Investigador da Sociedade Portuguesa de Filosofia
Gradiva, 1995
Colecção Filosofia Aberta, 3
ÍNDICE
PREFÁCIO À EDIÇÃO PORTUGUESA...............................................
PREFÁCIO....................................................................................
O PRIMEIRO DIA..........................................................................................
O SEGUNDO DIA..........................................................................................
O TERCEIRO DIA..........................................................................................
QUATRO HORAS DEPOIS..............................................................................
DEPOIS DE ALMOÇO....................................................................................
BIBLIOGRAFIA SELECCIONADA......................................................
PREFÁCIO
É um prazer, intelectual e não só, ter a oportunidade de rever
Mente, Homem e Máquina, ao fim de mais de dez anos. Esta
circunstância oferece-me a oportunidade de melhorar o diálogo, e de
fazer algumas correcções e clarificações, baseadas nos novos
desenvolvimentos entretanto ocorridos na vastíssima literatura filosófica
sobre os tópicos tratados em Mente, Homem e Máquina; nos comentários
dos leitores, professores e estudantes que leram o livro; e na minha
reapreciação do material tratado neste livro, de alguma forma esporádica
ao longo destes dez anos, durante os quais o usei nas minhas aulas de
introdução à filosofia. Parece ser consensual que Mente, Homem e
Máquina tem algumas coisas boas: é acessível a estudantes com
relativamente poucos conhecimentos de filosofia, ao mesmo tempo que
oferece uma leitura estimulante, por vezes até com algum humor; detém-
se sobre o argumento Gödel-Church-Lucas, procurando torná-lo tão
acessível quanto possível; e tratam-se, num «pequeno» livro, um
conjunto relativamente vasto de assuntos, desde o problema da
mente/corpo e da existência de outras mentes, até ao problema do livre
arbítrio. Nesta segunda edição tentei preservar estas características
supostamente boas. As modificações principais são as seguintes: 1)
Tentei tornar claro que o que chamo o argumento Gödel-Church contra o
mecanicismo é na verdade o conhecido e controverso argumento do
filósofo britânico J. R. Lucas. Daí que o refira em geral como o argumento
Gödel-Church-Lucas. 2) O importante argumento de John Searle do
Quarto Chinês, que é uma nova versão, muito útil pedagógica e
filosoficamente, do argumento do jogo da imitação de Turing, é agora
apresentado numa versão simplificada, e discutido de maneira a ter em
conta algumas das críticas importantes à conclusão de Searle que são
comuns na literatura filosófica. Veio a verificar-se que na verdade esta
2
discussão crítica seguiu de perto a discussão apresentada na primeira
edição deste livro. 3) Phil, um dos personagens do diálogo, oferece um
novo argumento, vagamente baseado no trabalho de Tarski sobre a
verdade e sobre o paradoxo do mentiroso, para mostrar que as pessoas
são na verdade inferiores às máquinas. O argumento é oferecido não
tanto pelo seu valor intrínseco, mas para oferecer ao leitor uma prática
acrescida no uso de alguns dos conceitos básicos da discussão anterior
do argumento Gödel-Church. 4) Acrescentei uma passagem sobre o
problema dos qualia, que são características qualitativas da experiência
(como a propriedade de ter uma cor), numa tentativa de me concentrar
no que é possivelmente o problema crucial do mecanicismo. Esta
discussão detém-se no famoso ensaio What Mary Didn’t Know, de Frank
Jackson, mas penso que a forma como ele é discutido é de alguma
maneira original, ou pelo menos pouco habitual. Tenho também em conta
a importante resposta recente de D. C. Dennett, que defende o
mecanicismo contra o argumento de Jackson. Fiz muitas outras
alterações além destas, mas a maioria são pequenas e têm o propósito
de clarificar e eliminar algumas passagens menos felizes. Tenho a
convicção razoável de que esta segunda edição é melhor do que a
primeira -- mas o juízo definitivo cabe ao leitor. Gostaria de agradecer
aos meus colegas Richard Ketchum e Timothy Cleveland pelas suas
participações em discussões sobre os tópicos cobertos pelo diálogo. É
claro que todos os erros, obscuridades e dificuldades são da minha
responsabilidade. Agradeço especialmente à equipa editorial da Hackett
as sugestões construtivas, as críticas e a ajuda em geral.
Agradeço ainda a Tina Lujan pela ajuda com o dactiloescrito.
3
Em memória de George Berry
Para a Karen
4
MENTE, HOMEM E MÁQUINA
Participantes:
Stu: estudante
Phil: filósofo
Matt: matemático
O PRIMEIRO DIA
Stu acabou de chegar, depois de mais uma sessão do torneio de
xadrez, onde perdeu, frente ao computador Fischkov III.
Stu: Detesto perder, especialmente com os computadores. Como
podem eles pensar melhor do que eu se na realidade nem sequer podem
pensar?
Phil: Tens assim tanta certeza que eles não podem pensar? Talvez
existam mais coisas que podem pensar do que pensas.
Stu: Deves estar a brincar. Os computadores pensam tanto quanto
um papagaio ou um disco. Os discos e os papagaios limitam-se a fazer
sons. Mas não há nenhum pensamento por detrás dos sons.
Phil: Mas como sabes que não há pensamento por detrás dos sons?
Como sabes quando há pensamento?
Stu: Sei pelo menos, com certeza, quando eu estou a pensar. É
como se ouvisse o som dos meus próprios pensamentos. Talvez o
pensamento seja uma espécie de conversa interior, mantida connosco
mesmos.
Phil: Como sabes que existe pensamento por detrás desses «sons»
que dizes ouvir? Como podes de todo dizer que eu estou a pensar? Não
5
podes ouvir a minha conversa interior, pois não? Como sabes sequer que
ela existe?
Stu: Posso perguntar-te.
Phil: Claro que podes, mas se o fizeres e eu responder «Sim», não
podes fazer nada para verificar se a minha resposta é verdadeira ou não.
Se perguntasses ao papagaio se ele está a conversar consigo mesmo, ele
diria talvez igualmente que sim.
Stu: Bom, o pensamento não é apenas a conversa interior. O
pensamento é o tipo de processo que acompanha a conversa, processos
como a conceptualização, o raciocínio e coisas desse género.
Phil: Em primeiro lugar deixa-me notar que, mesmo quando me
observo a pensar, existem com certeza mais coisas para além de uma
espécie de conversa, como é o caso da capacidade de formar imagens
mentais: posso pensar no último dia em que fui pescar e «ver» o lago
onde estive. Ao mesmo tempo, tenho uma espécie de conversa interior
sobre o lago. Mas acabaste de afirmar que o pensamento não é apenas
isto. Afirmas que existe o que algumas pessoas chamam «os processos
mentais superiores». Deixa-me perguntar-te o seguinte: alguma vez te
observaste a conceptualizar?
Stu: De facto não.
Phil: Mas então como sabes de todo que conceptualizas?
Stu: Como podia eu usar conceitos senão os formasse de alguma
maneira?
Phil: Portanto, inferes a existência desses actos mentais. Mas tens
de me explicar o que entendes por usar conceitos. Como é que usas os
conceitos?
Stu: Quando produzo juízos sobre cadeiras ou monstros, uso os
conceitos de cadeira e monstro.
Phil: Por que razão não dizes apenas que sabes usar os termos
«cadeira» e «monstro»? Não poderemos dispensar a referência aos
conceitos e à conceptualização e falar unicamente de aprender e usar
uma linguagem? Nesse caso, a questão interessante é a de saber se as
6
máquinas podem aprender e usar uma linguagem. Se podem, então
parece que a tua objecção principal contra a tese que defende que as
máquinas pensam se evapora.
Stu: Estou a ver onde estás a tentar chegar. Parece realmente mais
claro falar do uso de uma linguagem do que de conceitos. Se há uma
coisa que um jogador de xadrez como eu aprecia é a clareza. No entanto,
parece que não me disseste claramente o que é o pensamento. Defendes
que qualquer uso de uma linguagem implica a existência de
pensamento? Parece que os papagaios usam uma linguagem, mas eles
não pensam, pois não? Nem todos os usos de uma linguagem envolvem
pensamento -- ou será que apenas os usos de uma linguagem que
envolvem pensamento podem contar como usos de uma linguagem?
Parece que estamos a andar em círculos -- definimos pensamento em
termos do uso de uma linguagem, e explicamos o uso de uma linguagem
em termos de um uso de uma linguagem que envolva pensamento.
Admito que não comecei da melhor maneira, isto é, com uma definição
de pensamento ou raciocínio. Mas parece que tu também não ofereceste
uma tal definição.
Phil: É verdade que o ideal seria começar com uma definição. Mas
há diferentes tipos de definições. Os filósofos ocupam-se com definições
desde o tempo de Sócrates. Sócrates costumava fazer perguntas
ambiciosas, como «o que é a justiça?», «o que é a virtude?», «o que é o
conhecimento?» Será que nos podemos limitar a consultar o dicionário
para responder a Sócrates, ou para resolver o nosso problema?
Definições lexicais ou de dicionário não oferecem em geral a clarificação
que procuramos. O dicionário oferece-nos provavelmente qualquer coisa
mais ou menos semelhante a uma lista de sinónimos. Mas esses
sinónimos precisariam igualmente de ser definidos. É claro que não
podemos continuar a definir eternamente. Mas é verdade que precisamos
de chegar a algo mais inteligível do que o ponto de partida. Que
desejamos nós de uma definição de pensamento? Acho que precisamos
de uma definição útil que possa oferecer critérios, uma combinação de
7
condições necessárias e suficientes que identifiquem o pensamento.
Afinal, o que desejamos saber é se o Fischkov III e outras máquinas desse
género podem pensar, pelo que precisamos de um qualquer processo
que teste se existe pensamento ou não. Se usarmos termos como
«conceptualizar» e «raciocinar», temos de garantir que esses termos
estão ligados a critérios observacionais ou verificáveis. Sempre que
possível, é preferível referir coisas concretas, como falar, manter uma
conversa ou realizar cálculos.
Stu: Concordo que devemos tentar alcançar uma definição prática
ou praticável de pensamento. Estou no entanto convencido que as
máquinas não podem pensar. O Fischkov III ganhou-me, mas não pensa.
Eu não pensei o suficiente, mas o Fischkov não pensa nada.
Phil: Admites no entanto que precisamos de critérios para saber se
tens ou não razão. A tua ideia tem de ser reformulada assim: de acordo
com os critérios aceitáveis de pensamento a, b, c, o Fischkov não pensa.
Stu: Está bem, dá-me tu os critérios.
Phil: Não posso. Temos de concordar ambos com os critérios. Só
depois podemos avaliar a tua afirmação acerca do computador. Tens a
certeza que o Fischkov não pensa; logo, parece que para ti jogar bem
xadrez não é um critério suficiente para determinar a existência de
pensamento.
Stu: Estou tão disposto a conceder que o Fischkov pensa como
estou disposto a conceder que a minha máquina de calcular pensa. O
Fischkov limita-se a calcular as várias hipóteses dos movimentos das
peças com muita antecedência. Eu seria um jogador de xadrez muito
melhor se pudesse calcular com a mesma antecedência que o Fischkov.
Phil: Mas que fazes tu exactamente quando jogas que o Fischkov
não faz?
Stu: Eu jogo segundo planos e com objectivos estratégicos, usando
tácticas que me permitem alcançar os meus objectivos.
Phil: Mas como sabes que tens esses planos, objectivos e tácticas?
É outra vez um caso em que falas contigo mesmo sobre estas coisas?
8
Stu: É.
Phil: Mas então como sabes que o Fischkov não está a falar com ele
mesmo acerca dessas coisas? Podes ou não inferir que o computador
pensa, a partir do facto de jogar?
Stu: Agora apanhei-te! Eu já vi o programa do Fischkov, e tudo o
que ele faz é calcular: se o meu adversário fizer isto e eu fizer aquilo, e se
depois ele fizer assim e eu fizer assado, ele come-me a rainha. É assim
que o computador faz todos movimentos. É completamente mecânico.
Phil: O Fischkov tem de saber pelo menos que perder a rainha é
mau. Ele tem de fazer algo mais do que calcular -- tem de avaliar
situações. O Fischkov atribui portanto valores a situações.
Stu: Mas o Fischkov não decide fazer um ataque de minorias, ou um
ataque na ala de rei, ou uma medida profilática do tipo que Nimzowitch
fazia.
Phil: E se o Fischkov pudesse responder a perguntas acerca de
conceitos estratégicos como os que acabaste de mencionar? Admitirias
assim que o Fischkov pensa? Não defendes com certeza que pensar bem
em xadrez é um processo interior misterioso e milagroso?
Stu: Receio que continuo a acreditar nesses processos internos.
Tens tentado afastar-me cada vez mais do valor da introspecção, mas
talvez não deva deixar-te fazer isso.
Phil: Está bem, vamos então falar um pouco mais acerca da
introspecção. Supõe que são necessárias algumas condições internas, só
acessíveis introspectivamente, para que exista pensamento. Não tens
com certeza acesso a estes fenómenos com respeito a outros seres
pensantes. Mas apesar de não poderes entrar na minha cabeça, suponho
que acreditas que penso. Além disso, com base em critérios
behavioristas, negas certamente que as roseiras pensam. Por isso, por
que razão havemos de entrar nesta questão dos processos internos? É
claro que admito que nos resta ainda o problema difícil sobre a relação
entre os processos internos e os critérios behavioristas.
9
Stu: Por agora admitirei que se o Fischkov pudesse manipular com
êxito conceitos estratégicos...
Phil: Quer dizer, se o seu programa contivesse termos estratégicos,
ou se com base no seu programa e na maneira como ele joga lhe
pudéssemos atribuir certos conceitos estratégicos.
Stu: Está bem, como queiras. Se o que afirmas é verdade, admitirei
que em certo sentido máquinas como o Fischkov podem pensar. Mas
repara: nós somos pensadores versáteis, somos mais do que jogadores
de xadrez. O nosso pensamento no xadrez está relacionado com o nosso
pensamento noutras áreas. O tipo especial de pensamento necessário
para jogar xadrez pode ser simulado por um computador, mas não é pura
e simplesmente suficiente para caracterizar o pensamento em geral.
Jogar xadrez, ou poder jogar xadrez, pode ser uma condição necessária
para a existência do pensamento, mas não é uma condição suficiente. O
pensamento humano tem de ser versátil, tem de poder ser aplicado a
situações muito diferentes. Planear antecipadamente jogadas de xadrez é
uma coisa, mas planear em geral é outra coisa muito diferente. Lá
porque uma máquina pode jogar xadrez -- e mesmo que possa responder
adequadamente a perguntas sobre a forma como o faz -- não se segue
que possa pensar, pelo menos como nós pensamos. A capacidade para
pensar exige um comportamento mais complexo do que a capacidade
para jogar xadrez.
Phil: Se jogar xadrez não é uma condição suficiente, temos de
encontrar outra maneira de estabelecer critérios que possam fornecer as
condições necessárias e suficientes do pensamento. Parece que já
admitimos que se um agente qualquer X joga xadrez, com um certo grau
de complexidade, então X pensa, num grau idêntico de complexidade.
Um matemático chamado Turing sugeriu um jogo mais ambicioso que, se
fosse ganho por uma máquina, confirmaria o facto de a máquina pensar.
Segundo Turing, ser capaz de ganhar neste jogo é uma condição
necessária e suficiente para que uma máquina pense. Turing chama-lhe o
10
jogo da imitação.1 Vejamos se estarias disposto a participar neste jogo. O
jogo da imitação é uma competição entre um ser humano, A, e um
computador, B. Fazem-se perguntas a A e a B, e o objectivo de A ao
responder a essas perguntas é convencer um juiz, C, que ele, A, é o ser
humano; e o objectivo de B é fazer C identificá-lo erradamente como
humano, ou pelo menos não conseguir identificar nenhum dos dois como
uma máquina. Seria injusto e desnecessário deixar C ver A ou B. Afinal de
contas, a aparência exterior não tem qualquer relação com as respostas
às nossas perguntas. Não queremos que B seja discriminado só porque é
uma máquina «feia». Por isso, escondemos A e B, que imprimem as suas
respostas num ecrã ou em papel, para que a aparência da resposta não
denuncie quem é quem. Repara que este jogo exige muito mais à
máquina do que o xadrez; ela vai ter de enfrentar um conjunto muito
vasto de perguntas. Não concordas que, se pudesses ter uma conversa
inteligente com uma máquina, seria uma tolice negar que ela podia
pensar?
Stu: Existem algumas máquinas que consigam ganhar o jogo da
imitação?
Phil: Não é esse o ponto. Mesmo que não existam de facto, hoje em
dia, quaisquer máquinas que possam ganhar o jogo, a simples
possibilidade de poderem existir no futuro força-te a concluir que as
máquinas podem pensar. Nesse caso, já não tens razão para ficar
horrorizado quando se defende que as máquinas podem pensar.
Stu: Parece que tenho de conceder que existe a possibilidade de
fazer um tipo qualquer de experiência crucial para decidir se as máquinas
podem pensar. Mas continuo a pensar que o jogo da imitação é um
bocado suspeito. Não tenho a certeza se conseguir ganhar o jogo é um
critério aceitável para a existência de pensamento. Deixa-me ver se
consigo explicar-me melhor. Que se prova realmente se um computador
ganhar o jogo da imitação? Prova-se apenas que um computador pode
ser programado de maneira a conseguir imitar-nos. Mas quando nós 1 A. N. Turing, «The Imitation Game», in A.R. Anderson, org., Minds and Machines (Englewood Cliffs, N.J.: Prentice Hall, 1964).
11
pensamos, quando existe verdadeiro pensamento, não estamos a imitar
seja o que for. Tal como no que diz respeito ao Fischkov, o pensamento
envolve algo mais do que aquilo que está presente neste caso. Um
gravador imita muito bem a voz humana; o resultado final é o mesmo,
mas não podemos com certeza afirmar que um gravador canta da
mesma maneira que nós. Por mais complexa que seja a imitação, não
passa de uma imitação. Talvez se possa formular esta ideia assim: a
máquina só pode imitar o produto final do nosso pensamento -- imprime
respostas que são semelhantes às respostas que nós, humanos,
imprimimos. Mas a máquina não pode imitar o pensamento que está por
detrás dessas respostas.
Phil: Bom, parece que voltámos ao mesmo. Afirmas outra vez que
não se trata apenas do que as máquinas podem fazer (como jogar
xadrez, por exemplo); trata-se antes da maneira como o fazem. Como
deves recordar-te já lidámos antes com este problema. Notámos quão
difícil é explicar noções como «o pensamento que está por detrás» de
uma acção, a não ser que esse pensamento seja qualquer coisa como
falar ou escrever para nós mesmos; mas por que razão não pode uma
máquina fazer isso? E afinal como pensam exactamente os seres
humanos? Que sabemos nós acerca disso? Os psicólogos concordam
todos com alguma teoria? Afinal, há muitas teorias diferentes sobre a
maneira como os seres humanos pensam. Sabes o suficiente sobre o
pensamento humano para que o teu argumento seja defensável?
Stu: Continuo a pensar que as máquinas têm de fazer mais do que
conseguir ganhar o jogo da imitação, para podermos afirmar que
pensam. Afinal de contas, por mais complexo que seja o jogo da imitação,
não passa de um jogo.
Phil: Isso não é verdade. O jogo da imitação é o jogo dos jogos.
Qualquer jogo pode ser considerado parte do jogo da imitação. Podes
pedir a B para jogar às damas, ao galo, e até mesmo à batalha naval.
Stu: Mas o pensamento é mais do que jogar todos esses jogos.
Phil: É o quê?
12
Stu: O pensamento tem sempre um objectivo. Nós não nos
limitamos a pensar; pensamos com objectivos...
Phil: Estás a dizer que as máquinas não têm objectivos, fins,
intenções e assim por diante?
Stu: Exactamente. Talvez as máquinas possam jogar xadrez, mas
não podemos dizer que pensam a não ser que joguem com um objectivo
qualquer, como ganhar, ou divertir-se, ou outro objectivo humano
qualquer.
Phil: Não quero aborrecer nem irritar-te, mas vou adoptar uma vez
mais a minha estratégia do costume: como sabes que tens objectivos?
Não é como se dissesses por vezes a ti mesmo «o meu objectivo é este»,
ou «é isto que quero», ou ainda «agora gostava de jogar xadrez»? Por
vezes acontece teres gostado de praticar certas actividades no passado;
e assim, se nada de relevante mudou, queres fazer essas coisas outra
vez.
Stu: Posso aceitar a tua formulação. Mas não faz com certeza
sentido afirmar que uma máquina gosta de fazer o que quer que seja. É
verdade que a máquina pode «dizer» que gosta de qualquer coisa, mas
não pode realmente gostar. Não pode gostar de seja o que for porque
não sente nada. Provavelmente já devia ter dito isto antes.
Phil: Diz-me que coisas sentiste da última vez que jogaste um bom
jogo de xadrez -- ou ténis, tanto faz. Onde estava exactamente o teu
sentimento de contentamento? No estômago, na cabeça, nos cotovelos?
Penso que damos muita importância ao que sentimos. É claro que
sentimos coisas, como cócegas, dores, sensações de conforto e calor;
mas o nosso pensamento não parece envolver nada disso de forma
essencial. E depois, é claro, temos o velho problema de determinar como
sabes que as outras pessoas sentem coisas. Com certeza que admites
que sabes, ou pelo menos que acreditas, baseado em dados fidedignos,
que as pessoas sentem coisas. Inferes ou não que as pessoas sentem
coisas baseado no comportamento delas? Se adoptas esta posição
behaviorista com respeito às pessoas, por que não aceitas o
13
behaviorismo com respeito às máquinas? Espero que não sejas um
fanático anti-máquinas!
Stu: O behaviorismo só parece fazer sentido em relação às pessoas.
Se não tenho a certeza de estar a lidar com pessoas, então não tenho a
certeza de estar a lidar com um comportamento, ou pelo menos com um
comportamento humano. O que me preocupa é parecer que só posso
usar critérios behavioristas se já souber quem é o ser humano -- ou pelo
menos o candidato a ser humano -- e quem é a máquina. Para distinguir
as máquinas das pessoas eu devia ter outra maneira qualquer que fosse
independente do argumento behaviorista que determina que os agentes
sentem.
Phil: Era o que ia dizer...
Stu: Mas espera, ainda não desisti. Que dizes a este outro
argumento? Um -- só os seres vivos podem sentir coisas. Dois -- um
computador não é um ser vivo. Três -- logo, um computador não pode
sentir nada. Logo, um computador não é um ser humano.
Phil: Há um conjunto de coisas a dizer sobre este argumento. Em
primeiro lugar, fico sempre impressionado com o apelo a argumentos.
Mas por que razão hei-de aceitar a premissa um do argumento? A noção
de ser vivo não é suficientemente clara. Onde traçamos a linha entre a
vida e a ausência de vida? Por exemplo, os vírus são seres vivos? Será
evidente que os seres inanimados não podem sentir coisas? Ou talvez os
computadores possam ser considerados seres vivos, segundo algumas
definições razoáveis de ser vivo.
Stu: Deves estar a brincar. Se uma máquina é um ser vivo, desisto.
As máquinas são exemplos claros de seres inanimados. Isto é verdade
por mais vago que seja o conceito de ser vivo.
Phil: Mesmo que conceda o que afirmas, ainda não mostraste que
os seres inanimados não podem pensar. Não me parece que tenhas feito
um grande progresso.
Stu: Estou a ver que te sentes confiante, o que é óptimo. Admito
que não fui muito longe; mas, afinal de contas, sou apenas um estudante
14
-- é verdade que sou um estudante de matemática, mas ainda assim sou
apenas um estudante. Por outro lado, és um professor de filosofia. Este
não tem sido por isso um debate justo. Conheço um professor de
matemática que tenho a certeza que pode lidar contigo mais em pé de
igualdade. Já discuti com ele este problema da mente/máquina e posso
assegurar-te que ele não é nenhum simpatizante do mecanicismo. Na
verdade, ele disse-me várias vezes que conhece uma refutação
matemática do mecanicismo. Estás disposto a encontrares-te amanhã
connosco, para ver se podes refutar a refutação dele? Ou só discutes com
estudantes?
Phil: Tal como deves saber, nós filósofos investigamos a verdade
até onde essa investigação nos conduzir -- mesmo que nos conduza a um
professor de matemática. Traz-me lá então o teu professor de
matemática.
O SEGUNDO DIA
Matt: Stu disse-me que lhe dava jeito uma ajuda, por isso cá estou.
Sei que vocês, os filósofos, são por vezes bastante rudes. E até aposto
que muitos filósofos discordam de ti. Tenho a certeza que o argumento
que vou apresentar não é tão simples como os outros que vocês
discutiram. O meu argumento exige, entre outras coisas, uma
compreensão de um resultado lógico-matemático conhecido por teorema
de Gödel, umas das grandes descobertas científicas do século vinte.
Aliás, não é apenas uma grande descoberta científica, mas também uma
grande descoberta filosófica, uma vez que este teorema, explicado e
interpretado de maneira conveniente, prova de uma vez por todas que o
homem não é uma máquina, e que as máquinas não pensam. Ouvi dizer
que sabes algumas coisas sobre máquinas de Turing e sistemas
matemáticos formais; por isso, não deves ter muita dificuldade em seguir
o argumento.
Phil: Sou todo ouvidos.
15
Matt: Parece que nós temos, de facto, uma ideia intuitiva de
máquina. O termo português «máquina» vem da palavra grega que
significa «invenção engenhosa». Parece que apresentaste exemplos do
tipo de máquinas que estamos a discutir, como o Fischkov, por exemplo.
Mas qual é a essência de uma máquina? Não é com certeza o facto de ter
engrenagens, válvulas, transístores ou microchips. Para poder aplicar o
resultado lógico-matemático de Gödel ao problema homem/máquina,
precisamos de ter uma maneira de relacionar a nossa noção intuitiva de
máquina com a noção de Gödel de sistemas ou teorias formais.
Precisamos de uma propriedade lógica ou matemática que represente a
nossa noção intuitiva ou filosófica de «mecânico». Por outras palavras,
precisamos de um princípio de ligação. Repara que o princípio de ligação
tem de ter um pé na lógica matemática e outro na filosofia ou na
psicologia. Felizmente, temos um princípio desse género à nossa
disposição. Não é um teorema lógico-matemático, mas antes uma tese --
ou até uma hipótese; uma explicação de uma noção intuitiva em termos
matemáticos. Esta tese é conhecida como «a tese de Church». Antes de
apresentá-la, quero tornar precisa a nossa noção intuitiva de máquina.
Precisamos de fazer isto para poder dar o devido valor ao que a tese de
Church afirma.
Primeiro de tudo, faço uma distinção entre dispositivos físicos e
mecânicos. Nem todos os dispositivos físicos são mecânicos, e os
dispositivos mecânicos não têm de ser físicos. As máquinas têm de ter
estados discretos, e as suas operações têm de poder ser descritas em
termos discretos.* Isto é mais ou menos o mesmo que dizer que as
máquinas são computadores digitais, ou computadores que têm estados
discretos. Podemos agora supor que o comportamento de qualquer
máquina pode ser descrita pelo input e pela sucessão dos seus estados. A
tese de Church, o nosso princípio de ligação, pode exprimir-se como se
* Para que uma quantidade seja discreta tem de poder ser colocada numa relação um-um com o conjunto dos números naturais. Intuitivamente: as maçãs são uma quantidade discreta (são contáveis), mas a água não é uma quantidade discreta (não é contável). (N. do T.)
16
segue: O que pode ser calculado por uma máquina é computável.2
Precisamos agora de explicar o termo «computável». Podemos usar o
termo simplesmente para denotar «computável por uma máquina de
Turing». Há muitas noções equivalentes de computável, uma das quais é
a representabilidade num sistema formal. Vou usar indiscriminadamente
a expressão «computável por uma máquina de Turing» e a interpretação
de computável num sistema formal. Um sistema formal pode ser visto
com vantagem como um conjunto de instruções dadas a um pateta
(perdoa-me esta expressão grosseira). As sucessões de símbolos podem
ser examinadas unicamente a partir da sua configuração, e algumas
podem ser identificadas como axiomas e outras como regras dadas; estas
últimas permitem também que se gerem teoremas a partir dos axiomas.
Nada precisa de ser compreendido; o único requisito é as configurações
ou formas serem reconhecidas. Estamos agora em condições de dar o
devido valor ao poder da tese de Church, e de ver como nos oferece, em
conjunção com o teorema de Gödel, uma refutação hábil do
mecanicismo.
Dada a tese de Church, é fácil de ver que todas as máquinas são
equivalentes a máquinas de Turing ou sistemas formais. Como espero
que te recordes, estas máquinas de Turing ou máquinas idealizadas têm
um número finito de configurações internas. Cada uma destas
configurações representa um estado da máquina. Em cada um destes
estados a máquina lê uma fita magnética na qual surgem certos
símbolos. A fita está dividida em unidades discretas em cada uma das
quais um símbolo de um certo alfabeto pode ser gravado. A máquina
pode ler uma dessas unidades discretas de cada vez, e tem capacidade
para gravar e apagar a fita. Uma máquina de Turing pode ser
inteiramente descrita por uma tabela mecânica que mostra passo a
passo como a máquina opera. Graças à tese de Church e outras tese
relacionadas com esta que não irei explicar, podemos assim falar
2 «O que pode ser calculado por uma máquina» é a nossa formulação da expressão «efectivamente calculável» de Church.
17
indiferentemente de máquinas, máquinas de Turing, e sistemas formais.
Mas já falei muito. Ainda estás aí?
Phil: Ainda cá estou, e penso que segui a maior parte do que
disseste, apesar de não fazer ideia de onde queres chegar com tudo isto.
Realmente, concordo que precisamos de uma boa definição de máquina,
mas a tese de Church, que te parece tão óbvia, não conseguiu
convencer-me. Parece realmente captar o que há de mecânico nas
máquinas. (Não há aqui uma distinção que pode ser relevante entre
analógico e digital?) Talvez precise de pensar um pouco mais sobre isto.
Não vejo que tenhas de facto argumentado a favor da tese de Church.
Não mencionaste o teorema de Gödel há bocado? Onde entra ele no teu
argumento contra o mecanicismo?
Matt: Era aí que eu ia chegar. Gödel, ou talvez tenha sido Gödel e o
próprio Church, mostraram -- quer dizer, provaram -- que todos os
sistemas formais têm certas limitações. (Não te esqueças que se os
sistemas formais têm limitações, as máquinas que lhes correspondem
também têm limitações.) Tomemos um sistema formal para a aritmética,
um sistema que possa exprimir as operações de adição e multiplicação.
Se este sistema formal contiver todas as verdades desta aritmética como
consequências lógicas dos axiomas do sistema, então diz-se que o
sistema é completo, o que é um conceito muito importante. Há uma
maneira de garantir que um sistema é completo. Sabes como é?
Phil: Sei. Mas podes responder à tua pergunta em atenção a Stu.
Matt: Uma maneira de tornar um sistema completo é fazê-lo ser
inconsistente: todas as frases da aritmética se seguem de um conjunto
inconsistente de premissas. É por isso que é tão importante evitar as
contradições: das contradições segue-se seja o que for. Só nos
interessam sistemas formais completos e consistentes. A propósito,
supõe que existe uma só frase da aritmética que não é um teorema (isto
é, que não é derivável) no sistema formal; o que se segue daí?
Phil: Dado o que já disseste, mesmo que exista apenas uma frase
da aritmética que não é derivável, isso significa que o sistema é
18
consistente. A propósito, consegues provar que de uma contradição se
segue seja o que for? Podes demonstrar isso a uma pessoa que não sabe
lógica, como Stu?
Matt: Claro. Que queres que deduza? Escolhe o que quiseres.
Phil: Prova-nos que 2 + 2 = 5.
Matt: Deixa-me começar por escrever as frases inconsistentes ou
contraditórias. Vamos chamar-lhes «P» e «não P». Elas são as premissas
do argumento. Vamos chamar «Q» à frase «2 + 2 = 5». Vou agora
deduzir «Q» a partir de «P» e «não P». Primeiro posso escrever «P». A
justificação é o facto de se tratar de uma premissa. Depois escrevo «P ou
Q». «P ou Q» segue-se de «P». Se uma frase é verdadeira, então essa
mesma frase, conectada através de «ou» com qualquer outra frase,
forma uma frase maior que é também verdadeira. Se é verdade que
«hoje é quinta-feira», então «hoje é quinta-feira ou a lua é feita de
queijo» é também verdadeira.
Phil: Acho que compreendo.
Matt: Agora posso escrever «não P». Afinal, trata-se de outra
premissa. Mas se «P ou Q» é verdadeira e «não P» é verdadeira, então é
óbvio que «Q» tem de ser verdadeira. Estás portanto a ver que deduzi
que «2 + 2 = 5». Estás a ver por que razão as pessoas com uma
educação lógica e matemática odeiam as contradições. As contradições
estragam o pensamento racional.
Phil: Está bem, estou a ver por que desejamos sistemas que sejam
simultaneamente consistentes e completos. Não podemos tê-los?
Matt: Não, nem sempre. Gödel mostrou que qualquer sistema
formal que inclua a aritmética da adição e da multiplicação tem de ser
inconsistente ou incompleto -- ou, o que é o mesmo, que se o sistema é
consistente, então é incompleto. Esta é a conclusão de Gödel. Vejamos
como ele chegou lá.
Consideremos um sistema formal axiomático para a aritmética. Tais
sistemas têm por objectivo sistematizar as verdades da aritmética. O que
se procura é um sistema que seja simultaneamente completo -- isto é,
19
em que todas as verdades sejam teoremas (ou seja, consequências
lógicas dos axiomas; e os axiomas são, é claro, consequências lógicas
deles mesmos) -- e consistente (tem de haver pelo menos uma frase da
aritmética que não é um teorema, pois se o sistema fosse inconsistente,
todas as frases da aritmética, tanto as verdadeiras como as falsas,
seriam teoremas). A linguagem para o nosso sistema aritmético contém
símbolos como «1», «13», «+», «=», tal como símbolos lógicos. A maior
parte das frases será da forma «1 + 1 = 2», ou «8 ´ 3 = 24». Uma
demonstração é unicamente uma sucessão destas frases, começa com
axiomas e termina com uma consequência lógica desses axiomas. Não te
esqueças que o que é ou não uma demonstração é unicamente uma
questão mecânica, algo que o nosso pateta ou a máquina de Turing pode
manipular. É tudo uma questão de ter a forma ou a configuração certa.
No sistema aritmético falamos de números e de relações numéricas. O
que Gödel mostrou foi que há uma maneira de usar as frases aritméticas
do sistema para falar não apenas de números, mas também das frases
do sistema. As frases aritméticas podem ser codificadas de forma a
poderem receber uma interpretação de acordo com a qual essas frases
dizem qualquer coisa acerca de si próprias. Não temos de nos preocupar
com os detalhes da técnica de Gödel, chamada numeração de Gödel, mas
penso que posso dar-te um esboço da ideia. Listamos o vocabulário
empregue no sistema, e atribuímos um numeral a cada símbolo. As
combinações de símbolos, em particular as frases, terão numerais que
resultam da combinação dos seus símbolos constituintes. Cada frase
recebe assim um número de Gödel único por meio do seu numeral de
Gödel único. As propriedades das frases são representadas por
propriedades aritméticas; por exemplo, «é um axioma» e «é um
teorema» serão representadas por propriedades aritméticas. O nosso
código permite-nos dizer exclusivamente na linguagem aritmética que,
por exemplo, a frase «7 ´ 6 = 42» é um teorema. Podemos pôr as coisas
de maneira menos vaga. Chamemos S ao sistema formal de aritmética. A
cada fórmula de S, incluindo as frases, atribui-se um numeral e um
20
número únicos. Este processo permite-nos codificar derivações lógicas e
até nos fornece uma versão codificada da relação de demonstração, que
será unicamente um functor aritmético complicado (ou uma função
aritmética, se passarmos da referência aos numerais para a referência
aos números).* Por outras palavras, se [m] tem a versão aritmética da
relação de demonstração com [n] (ou se [m] é uma demonstração de [n],
em que as letras entre parênteses são números ou variáveis de
números), então pode dizer-se que a frase codificada por [n] é um
teorema de S. É assim que através da codificação, em S, podemos falar
de demonstrabilidade ou teoremicidade e de não demonstrabilidade ou
não teoremicidade. Mas se estamos a falar de teoremicidade, a nossa
linguagem é gramatical, sintáctica, metalinguística, metamatemática.
O que Gödel conseguiu foi a aritmetização da sintaxe da aritmética.
Gödel mostrou que podemos usar a matemática para falar acerca da
matemática, que podemos usar a matemática para fazer
metamatemática. Entre as frases que podemos exprimir no nosso código
aritmético está a frase «‘F’ não é um teorema», em que «F» é ela própria
a frase «‘F’ não é um teorema». «F» diz assim de ela própria que não é
um teorema. Há uma frase do nosso sistema aritmético, chamemos-lhe
«F», que diz, segundo o nosso código, que ela própria não é um teorema.
O que Gödel concluiu foi que, se o sistema aritmético em causa é
consistente, então «F» tem de ser indecidível nesse sistema, porque «F»
diz de si própria que não é um teorema. Isto porque se o sistema
contivesse «F», seguir-se-ía que «F» seria um teorema, mas «F» diz
(segundo o código) que «F» não é um teorema. Assim, «F» seria um
teorema, porque o sistema contê-la-ía, e «F» não seria um teorema
porque «F» diz que «F» não é um teorema. Logo, «F» seria e não seria
um teorema. Bom, se considerarmos por outro lado que «F» não é um
teorema, então talvez «não-F», a frase que afirma que «‘F’ é um
teorema», seja um teorema. Mas se «não-F» é um teorema, então «F» é
um teorema; mas «F» é a frase «‘F’ não é um teorema». Logo, temos
* «2» e «II», são numerais (ou nomes) diferentes do mesmo número: dois. (N. do T.)
21
outra vez a contradição: «F» é um teorema e «F» não é um teorema. «F»
é assim uma frase aritmética indecidível do nosso sistema. Diz-se por isso
que «F» é uma frase indecidível. Qualquer sistema axiomático formal
para a aritmética que inclua a adição e a multiplicação terá uma frase
indecidível. O que temos aqui é, pois, uma limitação que todos os
sistemas formais com um certo âmbito têm: se são consistentes, então
são incompletos. Este é o famoso resultado da incompletude de Gödel.
Aplica-se a sistemas formais, ou às máquinas de Turing -- e, se
aceitarmos a tese de Church de que uma máquina é unicamente uma
realização de um sistema formal ou de uma máquina de Turing, então
Gödel demonstrou uma limitação das máquinas em geral, ou pelo menos
de qualquer máquina modesta que possa fazer aritmética. Dado este
resultado, suponho que já estás a ver qual vai ser o próximo passo do
argumento.
Phil: Já estou realmente a ver, mas gostava muito de ter algum
tempo para rever o argumento de Gödel. Sabes que nós filósofos não
vemos muitas vezes argumentos apresentados desta forma. Dá-me
algum tempo para pensar um bocado, e talvez até para ler qualquer
coisa. Depois terei muito prazer em ver-te dar os últimos retoques no teu
argumento. O argumento de Gödel como uma refutação do mecanicismo
-- estou espantado.
O TERCEIRO DIA
Phil: Estou pronto para te deixar concluir a tua «refutação» do
mecanicismo (homem = máquina). Tenho no entanto algumas perguntas
já prontas para ti.
Matt: Está bem. Gödel provou que os sistemas formais
suficientemente ricos para conter a aritmética da adição e da
multiplicação ou são inconsistentes ou incompletos. Se são consistentes,
então são incompletos; isto é, há algumas frases verdadeiras que não são
demonstráveis no sistema. As máquinas de Turing, ao imitar estes
22
sistemas formais exibirão uma limitação paralela; serão incapazes de
imprimir todas as verdades da aritmética. A frase «F», em que «F» = «‘F’
não é demonstrável» -- a frase de Gödel --, indecidível para as máquinas,
representa o que um autor chamou «o calcanhar de Aquiles do
mecanicismo». Nós somos diferentes das máquinas; somos superiores em
pelo menos um aspecto: podemos identificar algumas verdades que as
máquinas não podem. De facto, sabemos que a frase de Gödel é
verdadeira. Deixa-me reformular isto: qualquer simulação mecânica da
mente tem de incluir uma máquina que possa gerar as verdades da
aritmética. Afinal, a aritmética é algo que a mente humana consegue
dominar. Mas há um aspecto no qual a simulação da mente tem de
falhar: a componente aritmética não será capaz de exibir a verdade de
certa frase, que nós podemos. Isto mostra que uma simulação mecânica
da mente é impossível; a mente não é uma máquina. Lá se vai também o
Fischkov III! Foi um filósofo inglês chamado Lucas que surgiu com este
argumento, mas orgulho-me, como matemático, de o ter adoptado.
Phil: Parece-me que tens uma espécie de argumento do jogo da
imitação, em que a pessoa que faz as perguntas consegue distinguir o
homem da máquina fazendo perguntas de natureza metamatemática. Se
a pessoa que faz as perguntas conhecer os resultados de Gödel e Church,
o ser humano consegue ganhar o jogo. O meu argumento da máquina de
Turing ressuscitou para me vir assombrar.
Matt: Acho que se quiseres podes ver o meu argumento dessa
maneira.
Phil: Pergunta-se à máquina: «Podes demonstrar ‘F’, a frase de
Gödel?» E ela responde: «Não posso demonstrar ‘F’ e não posso
demonstrar ‘não F’. ‘F’ é para mim uma frase indecidível.» É claro que
esta frase «F» é de facto uma frase da aritmética. Codificada, «F» afirma
que «F» não é demonstrável. Quando um ser humano responde à mesma
questão, a resposta é: «Apesar de a frase ser indemonstrável no sistema,
vejo que é verdadeira.» (Para «afirmar» que uma frase é verdadeira, as
máquinas imprimem-nas, enquanto os sistemas formais as incluem como
23
teoremas.) Concedo-te que a máquina não consegue decidir se «F» é
verdadeira ou não. Mas que te faz ter a certeza que o ser humano
consegue decidir?
Matt: Não se trata de ver a sua verdade como uma frase da
aritmética. Afinal, é provável que a máquina seja melhor em aritmética
do que nós. Trata-se da interpretação codificada; i.e., é «F» enquanto
uma frase metamatemática ou sintáctica que nos permite reconhecer a
sua verdade. Sabemos que «F» é verdadeira, em que «F» = «‘F’ não é
um teorema», porque se «F» fosse falsa, o sistema seria inconsistente;
mas nós sabemos que o sistema é consistente; logo, «F» tem de ser
verdadeira. «[...] qualquer ser racional poderia seguir o argumento de
Gödel, e ficar convencido que apesar de a fórmula de Gödel ser
indemonstrável no sistema dado, ela é no entanto, por essa mesma
razão, realmente verdadeira.»3
Phil: Não vejo por que razão não pode a própria máquina seguir o
argumento de Gödel. Afinal, a máquina que participa no jogo da imitação
é mais do que uma máquina de aritmética; não há coisa alguma no
argumento de Gödel que uma máquina não possa dominar.
Matt: Não percebeste o ponto. A componente aritmética da
máquina tem a sua frase de Gödel, mas a máquina mais inclusiva, que
contém a componente aritmética, tem a sua própria frase de Gödel. É
esta frase que a máquina mais inclusiva não pode dominar, mas que nós
podemos. Repara, nenhuma máquina, por mais inclusiva que seja,
conseguirá evitar a frase de Gödel; logo, será incapaz de defender a sua
própria consistência -- mas nós, humanos, podemos ver que a máquina é
consistente.
Phil: Mas como podes ter assim tanta certeza que o sistema mais
compreensivo é consistente, e que portanto a sua «F» é verdadeira? Só
porque apelas para a consistência do sistema aritmético que codifica até
mesmo o sistema mais inclusivo? Mas então por que razão não poderia a
máquina fazer uma coisa análoga? Afinal, a máquina pode demonstrar 3 J. R. Lucas, «Minds, Machines and Gödel», in A.R. Anderson, org., Minds and Machines, p. 47.
24
que se M (a máquina) é consistente, então «F». («F» não é
demonstrável.) Continuas a ter de mostrar a consistência de M, o que
concedo que M não pode demonstrar.
Matt: Estás a ficar muito bom nestes argumentos. Posso mostrar
que M é consistente porque eu, incluindo a minha componente
aritmética, sou consistente, e se supõe que M me representa.
Phil: Muito bem, mostra-me como consegues defender a tua própria
consistência. Estou a ver que poderás ter de assumir a tua consistência.
Mas não consigo ver como conseguirás demonstrá-la.
Matt: Bom, deixa-me recordar-te que o segundo teorema de Gödel
mostrou que uma máquina não pode provar a sua própria consistência,
mas
parece próprio e razoável que uma mente afirme a sua própria consistência:
próprio, porque apesar de as máquinas, tal como poderíamos esperar, serem
incapazes de reflectir completamente sobre o seu próprio desempenho e
sobre os seus próprios poderes, a capacidade para ter este tipo de auto-
consciência é no entanto precisamente o que esperamos das mentes; e
razoável, pelas razões justamente dadas. Não só podemos dizer
simplesmente que sabemos que somos consistentes, à parte os nossos
erros, como assumimos em qualquer caso que o somos, se é que o
pensamento é de todo possível. Além disso, nós somos selectivos: ao
contrário das máquinas consistentes, não diremos indiscriminadamente tudo
e mais alguma coisa; e finalmente, nós podemos de certa maneira decidir
ser consistentes, no sentido em que podemos resolver não tolerar
inconsistências no nosso pensamento e no nosso discurso, e eliminar as
inconsistências se alguma vez aparecerem, retirando e cancelando um dos
lados da contradição.4
Phil: As coisas estão a ficar cada vez mais curiosas. Começaste com
um argumento baseado no teorema de Gödel e na tese de Church, e
acabaste com o que me parecem ser afirmações vagas e metafísicas
sobre a auto-consciência humana e a consistência da mente humana.
4 Ibid., p. 56.
25
Não tenho sequer a certeza se faz sentido dizer que os seres humanos
são consistentes ou inconsistentes. Mas, se faz sentido, tenho um
argumento interessante na manga. Penso que devias olhar outra vez
para a estratégia do teu argumento. Tentaste usar o primeiro teorema de
Gödel para refutar o mecanicismo; mas depois reparaste na exigência de
consistência do segundo teorema. Tiveste de mostrar que apesar de a
máquina não poder lidar com o problema da consistência, (segundo
teorema de Gödel), um ser humano poderia fazê-lo. Argumentaste que o
sistema era consistente porque as mentes humanas são consistentes; e
as mentes humanas podem estabelecer a sua consistência porque são
pela sua própria natureza auto-conscientes.
Matt: Espera aí. Não vês que isso é o âmago do meu argumento? As
máquinas são objectos inanimados, que não podem consequentemente
reconhecer a sua própria consistência.
Phil: Mas que é exactamente um objecto inanimado -- ou um ser
vivo, tanto faz? E como passas de ser vivo para auto-consciente? Parece
que as coisas vão de mal a pior. Pensava que ias usar um argumento
matemático.
Matt: Admito que o meu argumento parece ser mais uma questão
de análise conceptual do que de demonstração matemática. A chave é o
conceito de (auto-)consciência. Tens de ver que, por exemplo,
o conceito de um ser consciente é, implicitamente, diferente de um objecto
não consciente. Quando dizemos que um ser consciente sabe algo, não
estamos apenas a dizer que ele o sabe, mas também que ele sabe que o
sabe, e que ele sabe que sabe que o sabe, e assim por diante, até onde
quisermos ir; há aqui, reconhecemos, um infinito, mas não é uma regressão
ao infinito no mau sentido, uma vez que são as perguntas que ficam de fora,
e não as respostas.5
5 Ibid., p. 57.
26
Phil: A tua fuga para a análise conceptual parece-me uma completa
derrota. Por que precisaste afinal do teorema de Gödel? Por causa da
natureza especial das frases de Gödel, que são auto-referenciais?
Matt: Acertaste mesmo em cheio. Nós, humanos, temos a auto-
reflexão necessária para responder às perguntas de Gödel, mas uma
máquina não pode fazer nada com as frases de Gödel.
Phil: Talvez sejas mais esperto do que eu, mas não vejo que a auto-
referência seja uma propriedade inerente das frases de Gödel. A auto-
referência não se deve simplesmente à sua codificação particular? A frase
aritmética «F = ela mesma» não precisa de envolver qualquer auto-
referência. Em qualquer caso, estás disposto a aceitar que todo o teu
argumento intricado, a tua «refutação» do mecanicismo, se apoia neste
ponto?
Matt: Tenho impressão que neste caso tenho de evocar o meu
direito a ficar calado. Confiava tanto neste argumento até à nossa
discussão, que agora não sei como reagir. Os filósofos têm uma
reputação bem merecida de confundir as pessoas.
Phil: Não te parece que apesar de toda a tua confusão estás agora
melhor? Agora, pelo menos, sabes que não sabias. Tenho mais algumas
perguntas para te fazer sobre o teu argumento. Mas, antes de te fazer
essas perguntas, e como fiz o meu trabalho de casa, tenho um contra-
argumento semi-original para te confundir ainda mais.
O argumento original tentava mostrar que todas as máquinas
teriam de ser ou inconsistentes ou incompletas. Esta era a limitação das
máquinas que nos tornava a nós, humanos, superiores. Nós éramos
completos sem ser inconsistentes. Mas não estaremos nós, falantes do
português, numa situação ainda pior do que as máquinas? As máquinas
não podem codificar a noção comum de verdade da língua portuguesa
(estão limitadas à demonstrabilidade) porque têm a limitação de Gödel; a
suposição de que a aritmética poderia codificar completamente o
português e a noção de verdade, uma suposição que Gödel não fez, tem
de ser falsa. O máximo a que as máquinas podem chegar, como vimos, é
27
à demonstrabilidade. As máquinas afirmam verdades provando
teoremas. Mas nós podemos (justificadamente) afirmar verdades sem
demonstrar seja o que for. Só precisamos de uma certa justificação.
Demonstrabilidade é o mais próximo que as máquinas conseguem chegar
à verdade. A suposição de que a codificação aritmética do português
pode ser expressivamente completa é, como indicámos acima, um erro.
Isto parece ser apenas outra maneira de mostrar a nossa superioridade
sobre a aritmética e as suas realizações mecânicas. Nós podemos
distinguir a verdade da demonstrabilidade, mas as máquinas não podem.
A frase de Gödel, como te lembras, era tal que a máquina não podia
demonstrá-la; no entanto, nós podíamos «ver» a sua verdade. Se não
fosse verdadeira, a aritmética e aquela parte do português que inclui a
aritmética seria inconsistente, e portanto todo o nosso português seria
inconsistente; mas nós «sabemos», ou «vemos» que isto não é o caso.
Mas não é antes uma vantagem que a máquina não possa exprimir a
verdade da maneira como nós o fazemos em português? E isto porquê?
Bom, porque infelizmente podemos muito bem produzir o que parece
uma frase perfeitamente correcta em português que diz de si própria não
que não é demonstrável, mas que não é verdadeira; e.g., «F não é
verdadeira», em que «F» designa «‘F’ não é verdadeira» («F» é uma
abreviatura de «‘F’ não é verdadeira».) Uma vez que demos à outra frase
(a frase da demonstrabilidade) o nome de Gödel, vamos chamar a esta
outra a frase de Tarski, em nome do grande lógico polaco que
desenvolveu a teoria semântica da verdade, Alfred Tarski. O português,
ao contrário da aritmética, contém frases de Tarski. Mas qualquer
linguagem que contenha uma frase de Tarski tem de ser inconsistente,
pois as frases de Tarski são verdadeiras se e só se são falsas (e são falsas
se e só se são verdadeiras). Logo, o português é inconsistente; logo,
quem fala português (inglês, ou francês, tanto faz) é inconsistente. Mas
as máquinas que usam uma linguagem aritmética não são
necessariamente inconsistentes; Gödel mostrou apenas que elas são ou
inconsistentes ou incompletas; mas não é melhor ser ou inconsistente ou
28
incompleto do que ser inconsistente? Não é a incompletude, por exemplo,
um vício ou uma fraqueza menor? Por isso, não acaba o argumento de
Gödel-Church-Lucas por demonstrar a nossa inferioridade em relação aos
robôs, em vez de demonstrar a nossa superioridade em relação a eles?
Matt: Tem piedade de mim e deixa-me ir para casa tomar umas
aspirinas. Quando a minha cabeça ficar mais clara, voltarei para voltar a
ser castigado. Talvez nessa altura consiga virar o feitiço contra o
feiticeiro. Em qualquer caso, é um belo sonho.
QUATRO HORAS DEPOIS
Matt: Estou de volta, e já me sinto melhor. A minha confiança
voltou. Até te deixo começar!
Phil: Quero falar mais um bocadinho da tese de Church, que é, em
termos gerais, a tese que identifica uma máquina com uma realização de
um sistema formal ou máquina de Turing. Não tenho a certeza se
devemos aceitar esta definição; afinal, é uma definição ou explicação, e
não um resultado matemático ou lógico. É claro que sem a tese de
Church todo o teu argumento (assim como a minha réplica) se
desmorona logo desde o início, uma vez que não poderias argumentar a
partir das limitações dos sistemas formais (do sistema de Gödel) para
chegar às limitações das máquinas em geral.
Matt: Mas quase toda a gente aceita a tese de Church.
Phil: Achas que isso é um argumento?
Matt: A sério, a tese de Church fornece-nos uma explicação precisa
do conceito intuitivo de processo mecânico. A tese de Church explica os
processos mecânicos em termos de noções matemáticas, tais como
sistemas formais e máquinas de Turing. Além disso, o facto de diferentes
explicações dos processos mecânicos -- quer em termos de sistemas
formais, quer em termos de máquinas de Turing -- acabarem por ser
equivalentes, oferece-nos mais uma confirmação indirecta da tese de
Church. Por outras palavras, a tese de Church (recursividade), a tese de
29
Turing (máquina de Turing), e a tese de Kleene-Post (sistemas formais),
acabam por ser equivalentes. Admito no entanto que não se pode nunca
demonstrar que uma noção intuitiva como a de um processo mecânico é
equivalente a uma expressão matemática precisa, expressa em termos
de máquinas de Turing ou de sistemas formais. Se achas que nada disto
é persuasivo, desafio-te a arranjar uma explicação melhor, ou pelo menos
a arranjar uma alternativa à tese de Church. Aliás, nem sequer me deste
ainda uma só razão para duvidar da tese de Church. Achas que as
máquinas podem fazer mais do que a tese de Church afirma?
Phil: Bom, quero primeiro recordar-te que o teu argumento, mau
como é, apoia-se completamente na aceitação da tese de Church.
Concedo-te que a aceitação da tese de Church nos permite falar de uma
maneira precisa sobre máquinas. Aprecio o que ganhamos em clareza,
mas exige-se mais de uma boa explicação do que a clareza e a precisão
da expressão que a explica (explicans); é também necessário que a
expressão explicans capture adequadamente a noção intuitiva que
pretende explicar. Ainda me sinto perturbado, por exemplo, com a
distinção analógico/digital…
Matt: Ainda não me deste nenhuma alternativa clara à tese de
Church. Parece-me que, a menos que o faças, as nossas possibilidades de
lidar com o problema mente/máquina estão seriamente limitadas. A tese
de Church dá-nos uma maneira de compreender o conceito de máquina,
e fá-lo de maneira matematicamente elegante.
Phil: Talvez exista uma maneira alternativa, matematicamente
elegante, de representar as máquinas, ou talvez não exista sequer uma
tal explicação matematicamente elegante. Afinal, não temos de ficar
desesperados por não conseguirmos explicar isto de uma maneira
elegante. A clareza e a precisão não querem necessariamente dizer
clareza e precisão matemáticas.
Matt: Bom, é melhor pensar duas vezes antes de abandonar a via
da matemática. Lembra-te que vocês não estavam a sair-se muito bem
antes de termos examinado a minha «refutação» do mecanicismo.
30
Phil: Apesar de não estar preparado para aceitar a tese de Church
sem mais argumentos, é claro que não penso ser esta a parte mais fraca
do teu argumento. Essa honra cabe à tua conversa vaga sobre a
consciência, a auto-consciência, e a consistência humana.6 Há com
certeza vantagens em aceitar a tese de Church. Tal como notaste, a tese
de Church dá-nos uma maneira precisa de falar sobre máquinas.
Acontece que acredito que se pode argumentar que a tese de Church se
aplica também a nós. Os seres humanos podem ser vistos como
realizações de máquinas de Turing (ou, claro, realizações de sistemas
formais). Temos de nos recordar que as máquinas de Turing são objectos
matemáticos e não objectos físicos. Se uma máquina pode desempenhar
uma certa acção, esta pode ser representada como uma acção de uma
máquina de Turing.
Matt: Claro, concedo-te o último ponto. Aliás, como te deves
recordar, eu usei a noção de máquina de Turing para ajudar o meu ponto
contra o mecanicismo.
Phil: Pois, mas agora eu quero dar a volta às coisas e argumentar
que tu e eu somos MT’s (máquinas de Turing), ou melhor, realizações em
carne e osso de MT’s. Falámos imenso sobre máquinas, mas muito pouco
sobre seres humanos. Tem sido quase como se tivéssemos assumido
possuir uma explicação clara de ser humano, como se tivéssemos algo
como uma tese de Church para o ser humano. Que é um ser humano?
Temos a famosa resposta que afirma ser um animal racional; mas é claro
que estes termos carecem eles mesmos de explicação. Em termos
estruturais, tem sido afirmado que o homem tem um corpo e uma mente,
sendo a mente responsável pelo pensamento e pela consciência. É claro
que o homem tem também um cérebro, que faz parte do seu corpo.
Quanto às relações precisas entre a mente e o corpo, entre a mente e o
cérebro, entre estados mentais e estados físicos, existem muitas
respostas, mas não há consenso quanto a uma única resposta
6 A melhor tentativa que conheço de dar sentido ao apelo de Lucas à auto-consciência e temas semelhantes está em D. Hofstadter, Metamagical Themes, «On the Seeming Paradox of Mechanizing Creativity».
31
defensável. Acho que não conseguiremos resolver o problema da
mente/corpo, nem o problema de saber se o homem é uma máquina, a
não ser que desenvolvamos respostas melhores a estas questões.
Matt: Nunca achei que o que vocês, os filósofos, chamam o
problema da mente/corpo fosse assim tão difícil. É só uma questão de
prestar atenção a alguns factos óbvios e ao significado da identidade --
um termo, a propósito, com o qual nós matemáticos estamos bastante
familiarizados. Os estados mentais não podem ser idênticos a estados
físicos porque estamos directamente conscientes de muitos dos nossos
próprios estados mentais, e não obtemos ou inferimos este conhecimento
a partir da observação, ou a partir do nosso próprio comportamento, ou a
partir da observação do nosso cérebro. Logo, os estados mentais têm
pelo menos uma propriedade que os estados físicos não têm; portanto, os
estados mentais não são idênticos a estados físicos. Em qualquer caso,
estes problemas da mente/corpo não se levantam, pura e simplesmente,
em relação às máquinas. E isto porque as máquinas não têm estados
mentais. Mas por que não continuas com o teu argumento? Vem aí um
argumento, ou não?
Phil: Claro! Quero argumentar que a mesma dificuldade e as
perguntas que levantei atrás (e que penso estarem por responder)
podem ser levantadas também em relação às máquinas de Turing.7 Por
exemplo, o problema mente/corpo tem um análogo no caso das MT’s. Por
outras palavras, os problemas que habitualmente se pensa serem
distintivos dos seres humanos não são afinal nada distintivos. E se isto é
verdade, não há razão para não classificar os seres humanos juntamente
com as MT’s.
Matt: O que pretendes fazer -- desculpa-me que o diga -- parece-me
um argumento tortuoso e nada prometedor. Mas vou deixar-te prosseguir
com a tua analogia.
Phil: Uma MT é idêntica ao seu programa, e o seu programa ou
tabela de instruções é unicamente uma sucessão de instruções que 7 O argumento que se segue é o de Hilary Putnam. Ver «Mentes e Máquinas» in A. R. Anderson’s Mind’s and Machines.
32
especificam em cada caso o que fazer dado um certo input; por exemplo,
apagar o símbolo do input, imprimir um símbolo, mover para a esquerda,
e entrar no próximo estado (seguir o próximo conjunto de instruções).
Quando uma MT está a seguir um certo conjunto de instruções tais como
a, podemos dizer que está num estado a. Dados o input e o estado,
podemos prever o que a MT vai fazer a seguir. A estes estados da MT
podemos chamar estados lógicos ou de programação -- que
correspondem aos nossos estados mentais.
Os filósofos fazem desde há muito perguntas sobre o nosso
conhecimento de estados mentais; alguns parecem ser estados nos quais
podemos estar sem o saber. Podemos, por exemplo, ter ciúmes sem o
saber. Como sabemos quando temos ciúmes? Limitamo-nos pura e
simplesmente a observar o nosso próprio comportamento. Para que uma
MT tivesse ciúmes, teria de dar corpo ao seu estado mental de uma
maneira adequada, através de dispositivos perceptivos ou sensoriais.
Existem contudo alguns dos nossos estados mentais que são diferentes.
Estar nestes estados mentais é saber que estamos a ter uma certa
experiência. «Como é que sabes que tens uma dor de cabeça? Sei,
porque tenho uma dor de cabeça.» A MT pode imitar isto se for
programada para imprimir que está num certo estado se e só se estiver
nesse estado. (Programamo-la assim, tal como nós fomos programados
para dizer «ai» quando temos dores.) Neste segundo tipo de estado
mental, não temos de saber nada sobre o nosso estado corpóreo para
saber que estamos num determinado estado mental. Analogamente,
também em relação aos estados lógicos ou de programação da MT não é
necessário qualquer conhecimento de estados corpóreos. Em relação aos
estados corpóreos, quer o homem quer a MT precisam de sensores
especiais, ou dispositivos observacionais. Quer para o homem quer para
a máquina, as leis que relacionam estados mentais (lógicos) com estados
corpóreos ou cerebrais têm de ser baseadas na experiência. Qualquer
afirmação de identidade entre um estado lógico e um estado físico -- por
exemplo, sempre que estou no estado 236 as luzes 73 e 227 estão
33
acesas -- requer uma interpretação especial da identidade; isto é, requer
o «é» da identificação teórica: por exemplo, o «é» de «a luz é radiação
electromagnética», ou «a água é H2O». O que é importante notar é que
há um análogo exacto do problema da identificação mente/corpo
(cérebro) para as MT’s: o problema de identificar estados lógicos e físicos.
E há até um análogo para as MT’s de outro problema filosófico
importante: o problema das outras mentes, o problema de como
podemos conhecer os pensamentos ou estados mentais dos outros
apesar de não podermos «estar dentro» das mentes das outras pessoas,
nem de sentir os seus sentimentos, ou pensar os seus pensamentos, e
assim por diante. Este «conhecimento» é claramente uma questão de
inferência a partir do comportamento, incluindo o comportamento verbal,
dos outros. O problema das outras mentes para uma MT é o problema de
identificar os estados lógicos de outra MT. Para nós, outras MT’s, isto é
também uma questão de inferência.
Matt: Está bem, concordo que esses problemas das MT’s são
semelhantes a muitos problemas tradicionais sobre a natureza do
homem e do conhecimento humano. Mas tudo isso são analogias,
semelhanças; que poderá isso mostrar? Não pode com certeza mostrar
que o homem é uma máquina, uma MT com corpo. No máximo,
mostraste que há um certo número de aspectos em que o homem e as
MT’s são similares. Como pode esse argumento filosófico fantasioso ser
usado para sustentar o mecanicismo?
Phil: Para começar, porque o meu argumento mostra que o homem
não é afinal assim tão especial; isto é, as MT’s partilham todos esses
problemas com os seres humanos. Se vais responder ao problema
mente/corpo afirmando que a mente é uma coisa diferente do corpo,
terás de dizer que os estados lógicos de uma MT são distintos dos seus
estados estruturais ou físicos. Se o teu argumento da mente/corpo te
conduzisse, generosamente, a conceder que os seres humanos têm
almas, serias obrigado, por um raciocínio paralelo, a conceder que as
MT’s têm almas. O meu argumento é deveras subtil e indirecto. Ao
34
sublinhar as semelhanças entre os seres humanos e as MT’s, estou a
mostrar-te quão difícil te será encontrar argumentos contra a tese
homem = máquina. Defendo que sempre que produzires um argumento
que exiba uma qualquer propriedade «especial» do homem, eu serei
capaz de produzir um argumento paralelo que te mostra que também as
MT’s exibem essa propriedade «especial». De facto, esta tem sido
sempre a minha estratégia.
Matt: Bem, continua a parecer-me que o que disseste é mais uma
promessa do que um argumento. Além disso, é claro que se o meu
argumento «matemático» a partir das limitações dos sistemas formais (o
argumento de Lucas) é bom, então não serás capaz de cumprir a tua
promessa. Haverá pelo menos uma área em que há qualquer coisa
«especial» (que é afinal ver a verdade das frases de Gödel) que nos
distingue das máquinas.
Phil: Se o teu argumento for bom! Esse «se» é uma grande
palavrinha, uma vez que vimos que o teu argumento tinha vários
problemas. Mas isso agora já se sabe.
Matt: Continuo a acreditar no valor do meu argumento -- um ser
humano não pode ser representado por um qualquer sistema formal. Nós
podemos manipular símbolos de uma maneira que os sistemas formais
não podem. O que preciso fazer é clarificar esta ideia de maneira tal que
impeça a tua objecção à minha tentativa anterior. Talvez me tenha
baseado excessivamente no teorema de Gödel. Talvez haja algum
argumento mais geral. Se não puder encontrar um, desisto
completamente desta linha de argumentação, e ataco-te com um outro
argumento menos «matemático».
Phil: Por que não fazemos um intervalo? Eu pago-vos um Big Mac, a
ti e ao Stu, e depois voltamos a atacar o problema.
35
DEPOIS DE ALMOÇO
Matt: Cá estou eu outra vez, para continuar a ser castigado.
Phil: Não achas que me tens castigado tanto quanto eu a ti?
Matt: Não sei ao certo, mas talvez o meu Big Mac me tenha trazido
um novo vigor intelectual. Parece-me que o pensamento humano não é
formal, não é finito e definido. O pensamento humano é intuitivo,
informal e auto-consciente. Podemos ver coisas de maneira intuitiva,
compreendemos totalidades. Nenhuma máquina poderá jamais reflectir
completamente sobre si mesma. Tal reflexão exigiria que se
adicionassem componentes indefinidamente.
Phil: Até agora, parece-me que estás apenas a repetir algumas das
tuas afirmações prévias.
Matt: Está bem, vê lá então isto: os sistemas formais abstraem do
significado. Só se preocupam com formas simbólicas, ou com símbolos no
papel. Qualquer sistema formal, um sistema de símbolos no papel, é
susceptível de mais do que uma interpretação. Sem uma mente que
forneça um único significado intencionado, as máquinas são
necessariamente incompletas. Nunca podemos propriamente dizer que as
máquinas, enquanto realizações de sistemas formais, compreendem seja
o que for. Um escritor -- um cientista e filósofo, a propósito -- colocou a
questão nestes termos:
[...] um sistema dedutivo formalizado é um instrumento que precisa de uma
mente que o use, de uma maneira não completamente determinada pelo
próprio instrumento, para que possa atingir o seu propósito lógico; mas a
mente da pessoa que usa esse instrumento não precisa de um propósito
lógico [...] Aqui repousa a diferença entre mente e máquina.8
E eu até encontrei um argumento arrasador contra a tua posição.
Vou apresentar-te o Polícia de Trânsito Robô.
8 Michael Polanyi, «Note on the Hypothesis of Cybernetics», The British Journal for the Philosophy of Science 2, 1951, p. 314.
36
O Polícia de Trânsito Robô, construído em Toledo e programado no
Cal Tech, está numa plataforma no centro da Times Square, na baixa de
Manhattan. Os automóveis passam por ele... em trânsito lento, se isso é
de todo possível na baixa de Manhattan, e perguntam-lhe onde fica isto e
aquilo, e.g., como é que se vai para a Grant’s Tomb? O Polícia de Trânsito
Robô recita apressadamente as respostas certas, e por vezes até aponta
para o caminho certo. Por vezes admite que não sabe, ou acrescenta
«Essa é difícil!». Por vezes até faz comentários sobre o estado do tempo.
Além disso, o Polícia de Trânsito Robô é muito bem-parecido: 1,80m,
ruivo, por vezes alcunhado de «Ruço» ou «O’Hara». Bom, parece-me que
já disse o suficiente para que vejas quão idiota é o teu próprio jogo da
imitação enquanto estratégia para determinar a inteligência humana.
Com certeza que não acreditas que o Polícia de Trânsito Robô
compreende realmente seja o que for que lhe digam, e nem o que ele diz;
no entanto, o seu comportamento é perfeitamente apropriado. De acordo
com John Searle -- um filósofo que tanto eu como Stu temos em alta
consideração -- o Polícia de Trânsito Robô não compreende seja o que for
porque carece de intencionalidade, «essa característica de certos estados
mentais pela qual eles são direccionados para objectos e estados de
coisas no mundo».9
Phil: É verdade que encontraste um argumento diferente, mas se é
melhor ou não... Para conseguires o teu ponto precisas de uma teoria ou
uma explicação do significado. Como é que os seres os humanos
compreendem? Podes responder a esta pergunta? Se não, como podes
insultar a máquina? O problema do significado, da semântica, parece
todo ele bastante obscuro. Se pudéssemos fornecer regras de significado
para uma linguagem -- e isso é afinal o que se espera que os dicionários
façam --, não vejo por que não poderíamos acrescentá-las ao programa
do computador. Seria como adicionar um dicionário ao programa. É claro
que admito que o uso correcto do dicionário não é por si só a
compreensão da linguagem. Podias pegar num dicionário de Romeno-9 Ver John Searle, «Minds, Brains and Programs» (o Argumento do Quarto Chinês), in Hofstadter and Dennett.
37
Romeno na livraria esotérica da esquina e aprender todas as
equivalências romenas. Mas a menos que pudesses compreender alguns
dos termos através de uma ligação directa com a experiência,
independente do dicionário, não se poderia dizer que compreendias
romeno. Num certo sentido, saberias o que cada palavra romena queria
dizer, mas não serias capaz de ligar qualquer palavra romena ao mundo.
Logo, tem de existir uma maneira qualquer de sair do círculo das
definições de dicionário para uma outra explicação qualquer do
significado, que ligue as palavras ao mundo. Por que não poderia uma
MT, ou melhor, uma MT com um corpo, aprender a dizer «gato» quando
está perante um gato? E esta parece ser uma característica do Polícia de
Trânsito Robô. Se dizemos que estas regras são ostensivas (porque
exibem, ou apontam), então as regras ostensivas e um dicionário
forneceriam à nossa MT a capacidade suficiente para lidar com a nossa
objecção. Só causas alguma dificuldade à máquina quando tratas os
significados como entidades de um tipo especial, e a compreensão dos
significados como certos processos misteriosos. Mas a obscuridade é um
preço demasiado elevado para pagar pela vitória de uma disputa.
Recentemente, alguns filósofos meus amigos explicaram como
certas características de programas de software e afins podem ser
factores cruciais para a explicação da compreensão. Pensas que é óbvio
que o Polícia de Trânsito Robô carece de compreensão porque tens sem
dúvida uma ideia muito simplista do seu programa -- pensas que é
apenas um conjunto de regras para transformar símbolos. Sem dúvida
que pensas também que por mais complexo que seja um programa desse
tipo, por mais níveis que tenha, continua a ser formal, ou sintáctico, e isto
não é o tipo de coisa que possa contribuir para a compreensão, ou para
qualquer outra propriedade mental. Mas como podes ter tanta certeza
que «conceitos de software de nível intermédio» não fazem a diferença?10
Matt: Desculpa, mas continuas a fazer ilusionismo; tens uma teoria
do mental imaculado. Surpreendentemente, parece que tiveste pouca
10 A citação é de Dennett, Consciousness Explained.
38
dificuldade em enfrentar o meu último desafio; mas se lidar com o
significado é assim tão fácil, por que não lidaste com ele antes?
Phil: Em primeiro lugar, sublinhei que a questão do significado é
bastante obscura. Em segundo lugar, introduziste qualquer coisa nova na
nossa conversa: o significado e a sua conexão com a compreensão. Uma
máquina não compreende aritmética porque é apenas uma realização de
um sistema formal para a aritmética, porque só pode produzir teoremas
aritméticos. Compreender a aritmética exige mais do que isto. (A
gramática ou a sintaxe tem de ser complementada com a semântica --
talvez até com a pragmática, que dá conta dos usos da linguagem e dos
seus utentes). Saber apenas como se podem combinar séries de
símbolos, saber apenas que séries são gramaticais, não nos dá a
possibilidade de saber o que significam as séries de símbolos gramaticais.
Uma máquina devia ser capaz de fazer somas, multiplicações, etc.; devia
ser capaz de contar objectos; talvez até de resolver problemas. Algumas
destas capacidades vão para além dos sistemas formais. Mas não há
razão para pensar que uma máquina não poderá fazer também estas
coisas. Para contar objectos precisaria de ter sensores; para resolver
problemas teria talvez de ter algumas regras adicionais de tradução,
assim como regras para resolver problemas -- a menos, é claro, que
exista algo nestas regras que impossibilite a sua representação num
programa de computador. A menos que exista uma espécie de limite de
Gödel para estas regras, uma máquina pode em princípio manipular o
significado -- isto é, compreender. Não nos devemos esquecer que há
também o hardware.
Matt: Falemos um pouco mais da compreensão. Repito, as
máquinas podem ser capazes de computar, mas não são capazes de
compreender.
Phil: Está bem; mas nesse caso desafio-te uma vez mais a explicar-
me exactamente o que achas que é a compreensão.
Matt: Receio não poder dizer-te exactamente o que é. A
compreensão é algo que a mente faz. É um acto mental.
39
Phil: É o acto no qual os significados são apreendidos? Vai ser difícil
explicar este acto de apreensão mental. Não podes oferecer-nos uma
definição de compreensão que tenha algum valor? Uma definição que nos
ofereça uma maneira de dizer se «algo» compreende ou não? O meu
ponto é este: não precisamos de nos envolver na questão dos
significados e das interpretações. Só precisamos de falar do sistema
formal e do seu uso; da máquina e da maneira através da qual ela
interage com os objectos do mundo.
Matt: Cá está outra vez o teu behaviorismo. Insistes em interpretar
todos os conceitos mentais em termos de comportamento. O que queres
é um teste behaviorista ou um critério para a compreensão. Talvez
descubras um, mas nunca serás capaz de capturar a essência da
compreensão.
Phil: Nada sei sobre a essência da compreensão. Mas parece-me
que se desejamos que um termo tenha sentido, temos de olhar para a
maneira como é usado. Como diz Wittgenstein: não perguntes pelo
significado, pergunta pelo uso. Debaixo de que circunstâncias dizemos
que alguém compreende algo? Quando compreende um estudante ou
uma estudante de matemática, digamos, o teorema de Pitágoras (a2+b2
= c2)? É quando ele ou ela consegue relacionar o teorema com outras
frases da geometria, quando ela aplica o teorema para resolver
problemas…Compreender a teoria de Newton envolve a capacidade de
responder a perguntas sobre as suas componentes, de a relacionar com
outras teorias; e, é claro, ser capaz de usar a teoria para resolver
problemas.
Matt: As máquinas podem computar, podem produzir teoremas,
mas não podem compreender. Na verdade, mesmo que as máquinas
pudessem estabelecer o género de relações de que acabaste de falar,
continuaria a negar que elas pudessem compreender. Receio que o
obstáculo seja outra vez o teu behaviorismo, a tua ênfase no
desempenho de tarefas. Uma coisa é poder ser verificado; outra coisa é a
verdade.
40
Phil: Que raio! Diz-me que mais pode ser a compreensão do que a
capacidade de desempenhar o tipo de coisas que mencionei. Acreditas
realmente que a compreensão envolve alguma experiência ou sensação
especial? Talvez penses que a compreensão pode ser explicada em
termos do fenómeno «Aha!», uma espécie de iluminação mental (a
lâmpada acesa da banda desenhada).
Matt: Deves estar a ler o meu pensamento; mas o que há de errado
em identificar a compreensão com a experiência do «Aha!»? Quer dizer,
com a experiência do «Aha! Agora estou a ver! Agora compreendo!»?
Phil: O «Aha!» está sempre presente quando compreendes?
Matt: Não, nem sempre.
Phil: Está o «Aha!» presente quando não compreendes, mas apenas
pensavas ter compreendido?
Matt: Sim, acho que sim.
Phil: Então como podes identificar a compreensão com esta
experiência? Além disso, é duvidoso que exista uma experiência única
que esteja presente sempre que compreendes algo. Também aqui estou
a seguir Wittgenstein: se calhar deves ler o seu Livro Azul ou as
Investigações Filosóficas. Mas não quero que fiques com a ideia que o
meu argumento é unicamente um argumento de autoridade. Por isso diz-
me: que deixei eu de fora na minha explicação da compreensão?
Matt: Mas a compreensão é basicamente um processo informal, que
não pode ser explicado num conjunto de regras explícitas. Há uma
dimensão tácita na compreensão. Pensa uma vez mais na compreensão
envolvida no domínio de uma língua. Nenhum formalismo pode capturar
este processo. Como disse Polanyi,
Falar uma língua é comprometermo-nos com a dupla indeterminação que
resulta de nos apoiarmos simultaneamente no formalismo e na nossa
reapreciação contínua deste formalismo em função da sua relação com a
experiência. Pois não só permanecemos incapazes de dizer tudo o que
sabemos, em ultima análise devido ao carácter tácito de todo o nosso
41
conhecimento, como também nunca podemos saber exactamente o que
implica o que dizemos, em virtude do carácter tácito do significado.11
Phil: É difícil responder a isto. Não sei se compreendo
completamente o que tu e Polanyi afirmam. Se conseguires mostrar-me
que compreendes esta caracterização da compreensão, então penso que
posso mostrar-te que uma máquina pode compreender no sentido que
introduziste. Se não consegues mostrar-me que compreendes, que
queres que faça? Parece haver um toque de misticismo nos teus
comentários. Não podes esperar que seja quem for, homem ou máquina,
possa dizer o indizível.
Matt: Por vezes soas como se estivesses a falar por todos os
filósofos; como se o behaviorismo, ou qualquer coisa desse género, se
tivesse tornado a filosofia oficial da mente e do homem. O teu
Wittgenstein fala por todos? Afastaste alguns dos meus argumentos
ainda antes de eu os oferecer. Pareces estar especialmente à vontade no
que respeita ao significado e à compreensão. Também reparei que não
apelas muitas vezes à tradição filosófica na apresentação dos teus
argumentos. Quase não ouvi falar de Platão, Aristóteles, Descartes ou
Kant.
Phil: Tens razão. É verdade que não citei muitos nomes. Mas por
que haveria de apelar para a autoridade, quando os argumentos valem
por si mesmos? É claro que podia ter mencionado Wittgenstein e Ryle
mais frequentemente, assim como outros filósofos contemporâneos. A
propósito, tu e o Stu têm-se revelado grandes seguidores de Descartes,
que realçava a distinção entre a mente e o corpo. Pareces ser simpático
ao que Gilbert Ryle chamou a teoria da mente do «fantasma na
máquina». Ryle «refuta» esta concepção no seu The Concept of Mind.12
Penso que afinal de contas o problema da mente/máquina só se tornou
realmente agudo nesta época, com os computadores digitais sofisticados;
11 Michael Polanyi, Personal Knowledge (Londres: Routledge & Kegan Paul, 1958)12 Gilbert Ryle, The Concept of Mind (Nova Iorque: Barnes and Noble, 1949)
42
não é por isso de espantar que me fique pelos filósofos e pela filosofia
contemporâneos.
Matt: Bom, o filósofo és tu; mas, da maneira como vejo as coisas,
estás a vender um produto muito velho (o materialismo), e tenho a
certeza que houve muitas discussões do materialismo na tradição
filosófica. Apesar de não ter o hábito de ler os filósofos, pelo menos os
profissionais, li alguns que afastarias sem dúvida como filósofos
populares -- «populares» porque o público em geral consegue
compreendê-los, o que parece ser um crime grave. Mortimer Adler é um
desses filósofos, com o qual aprendi o seguinte argumento, baseado no
trabalho de Aristóteles e de São Tomás. Com base na nossa discussão até
agora, duvido mesmo que o argumento te seja familiar; provavelmente
não é suficientemente contemporâneo para o teu gosto. O argumento
pretende mostrar que a compreensão exige uma componente imaterial, e
portanto que uma concepção materialista do homem, uma concepção
como a tua, não pode ser adequada. Tal como o vejo, o teu tipo de
behaviorismo é materialista -- e eu acho que consigo refutar o
materialismo.
Phil: Vamos lá atacar então o argumento -- mas lembra-te que não
me intimidas com grandes nomes como Aristóteles, Aquino e Adler. E a
propósito, nego que o meu behaviorismo filosófico (a minha insistência
em fornecer uma análise dos termos mentais em termos de
comportamento e programas mecânicos) me comprometa com o
materialismo. Mas continua.
Matt: Quando compreendemos qualquer coisa -- por exemplo, o que
é ser um homem --, compreendêmo-lo através de um conceito. Sem
conceitos não poderíamos compreender. Mas os conceitos não são coisas
materiais, porque todas as coisas materiais são indivíduos, tais como
homens individuais ou palitos; no entanto, o conceito de homem não é
idêntico a indivíduo algum: é uma coisa universal. As coisas materiais não
podem lidar com conceitos, mas a compreensão exige esta capacidade
para lidar com conceitos. Logo, a compreensão exige algo mais do que o
43
cérebro, uma vez que o cérebro é uma coisa material. Tem de haver uma
parte imaterial no homem, uma mente, um intelecto, de maneira a que o
homem possa compreender. E se o pensamento exige a compreensão,
então as máquinas, que são coisas materiais, não podem pensar. Por
outro lado, se os seres humanos são necessariamente seres pensantes,
então as máquinas não podem ser humanas. Apesar de não ser uma
demonstração matemática, este argumento parece-me bastante bom.
Phil: No teu argumento usaste uma certa teoria psicológica, ou
filosófico-psicológica. Essa teoria tenta explicar como a compreensão é
possível. De acordo com esta teoria, se o João compreende o que é uma
porta é porque formou ou apreendeu o conceito porta. Por que razão
devemos aceitar esta teoria? Tudo o que sabemos é que o João sabe
reagir apropriadamente às portas e às perguntas sobre portas, etc. Ele
aprendeu a fazer as discriminações apropriadas, tal como um pombo
pode aprender a discriminar objectos vermelhos de objectos de outra cor.
Estás disposto a dizer que os pombos são parcialmente imateriais?
Matt: Mas há uma diferença entre discriminação perceptiva e
compreensão intelectual. Ao contrário dos pombos, nós podemos
compreender a vermelhidão, ou a triangularidade. Podemos responder a
perguntas sobre os próprios objectos abstractos.
Phil: Quando dizes que podemos compreender a própria
vermelhidão pareces querer dizer que sabemos como usar o termo
«vermelhidão». Mas que este uso pressuponha um conceito imaterial de
vermelhidão é uma questão ainda em aberto. Para mim, é apenas uma
questão de estar apropriadamente condicionado. Neste caso, o processo
de condicionamento é mais complexo do que o necessário para que o
pombo distinga os objectos vermelhos; mas é ainda um caso de
condicionamento. Como Guilherme de Occam disse (estás a ver, acabei
de apelar para uma autoridade) as entidades não devem ser
multiplicadas sem necessidade. Quem precisa por isso de conceitos,
especialmente de conceitos que são coisas imateriais? Por que não
considerar os conceitos unicamente como uma classe de símbolos? Por
44
exemplo, o conceito homem seria uma classe de expressões sinónimas:
«ser racional», por exemplo, seria um membro desta classe.
Matt: Acabaste de falar da classe de expressões sinónimas. Mas
não são as classes objectos abstractos, ou imateriais? A classe dos cães
não ladra, pois não?
Phil: Bom ponto! Mas neste caso podemos tratar as classes como
predicados, expressões linguísticas de um certo tipo. Admito que há
questões controversas. Estamos mergulhados no problema dos
universais. Contudo, parece que nada disto serve os teus propósitos.
Arriscas-te a acabar por mostrar que os computadores sofisticados não
são coisas materiais, e que têm alguns elementos espirituais. Se eles
puderem passar performance tests reconhecidos sobre a compreensão,
como podes evitar atribuir a compreensão aos computadores?
Matt: Recuso-me simplesmente a admitir que seja o que for que
possua uma parte imaterial possa ser uma máquina. As máquinas são
materiais por definição.
Phil: Pensava que as máquinas eram por definição realizações de
sistemas formais, ou máquinas de Turing. Era o que defendias antes.
Lembra-te do teu argumento matemático de Gödel e Church. Não há
razão para afirmar que as realizações de sistemas formais de MT’s têm
de ser materiais. Pode ser uma suposição natural, mas não é necessária.
Parece que abandonaste a tua definição abstracta e matemática de
máquina.
Matt: Bom. Vamos directos à questão! Vou pôr as minhas cartas na
mesa. Há um exemplo na literatura filosófica, a tua literatura, um
exemplo do qual não te deves ter apercebido e que eu e as pessoas com
as quais o discuti achamos absolutamente irresistível. É a refutação do
mecanicismo tal como o definimos, em termos de software ou programa.
Tal como o interpreto, o exemplo usa uma distinção que remonta ao
princípio deste século, e ao trabalho de Bertrand Russell (que por seu
turno pode ter tido alguma ajuda de G. E. Moore). Distingue-se o
conhecimento por contacto, que é o conhecimento directo pela
45
experiência, do conhecimento por descrição, que é o conhecimento
indirecto através do conhecimento da verdade de frases declarativas
acerca de um qualquer assunto, que pode ou não ser matéria de
conhecimento por contacto. O exemplo, que é uma experiência mental,
parece que vem de um filósofo chamado «Jackson», e é mais ou menos
isto: trata-se da Mary, uma neurocientista que está trancada num quarto
todo decorado a preto e branco, e que só percepciona o resto do mundo
através de uma televisão a preto e branco. Ela sabe tudo o que há para
saber; tem um conhecimento completo da neurofisiologia da visão: toda
a neurofisiologia, física, etc., sobre a aparência de um pôr-do-sol a cores,
por exemplo. Mas todo o conhecimento que tem, todo o seu programa
admiravelmente completo, não pode prepará-la para a maneira como as
coisas parecerão quando ela deixar finalmente o quarto. Ela terá de
aprender isto pela experiência, por contacto. Apesar de completo, o
conhecimento por descrição não é suficiente. E é precisamente aqui que
nós humanos diferimos de qualquer máquina possível. Espero que
percebas que esta é a razão pela qual as tuas respostas ao meu Polícia
de Trânsito Robô, ou as respostas de outros filósofos à experiência
mental do quarto chinês de John Searle, nunca poderão ser convincentes.
Phil: Bom, devo dizer-te que conheço a história da Mary. Na
verdade, tenho pensado bastante sobre ela. Até dei um seminário de pós-
graduação que foi em grande parte dedicado a ela…
Matt: E se fosses directo à questão? Tens uma resposta ou não?
Phil: A experiência mental não é tão simples como parece.
«Conhecimento neurofisiológico completo». Que cobre esta expressão?
Talvez o conhecimento actual não permita que a Mary reconheça as
cores quando sair do quarto, mas como podemos ter a certeza de que o
conhecimento completo não o permitirá? Talvez exista qualquer facto da
sua estrutura neurológica cujo conhecimento lhe permita reconhecer que
a relva é verde e o sangue vermelho.
Matt: Bom, ela poderia reconhecer essas coisas, identificá-las
correctamente. Mas o ponto não é esse. Quando ela sair do quarto irá
46
pela primeira vez poder ver as cores. Acrescentou-se qualquer coisa nova
ao que a Mary já sabia, um conhecimento por contacto que nenhum
conhecimento por descrição, nenhum programa, pode cobrir. Tu e os teus
exemplos estão sempre a tentar cobrir um hiato que não pode ser
coberto. A humanidade não pode resultar dos programas mecânicos. Por
mais complexo, convoluto ou completo que seja o software, nunca
conseguirá esse resultado. Por isso, continuo a dizer em relação a este
exemplo o que disse em relação aos teus outros exemplos e argumentos
-- é uma espécie de magia!13
Uma vez que todos estes argumentos «matemáticos» e «tipo
Turing» não parecem ter-nos conduzido muito longe, por que não rejeitar
algumas das suas premissas? A definição abstracta de máquina era
talvez demasiado abstracta (até tu deves conceder isso). Nós, os
matemáticos, gostamos realmente do tipo de clareza e precisão que
conseguimos com esse tipo de caracterizações abstractas. Na verdade,
parece que ambos admiramos a elegância da explicação de máquina
conseguida pela tese de Church. Mas parece-me que será mais profícua
uma concepção de máquina mais terra-a-terra. Dada essa concepção,
acho que posso oferecer argumentos adicionais para defender que as
máquinas não podem compreender, nem pensar, nem ser humanas.
Phil: É claro que já levantei problemas suficientes à tua teoria da
compreensão e ao seu conceito peculiar de conceito para dar conta desse
argumento; mas gostava que falasses mais sobre a tua nova concepção
terra-a-terra de máquina, uma concepção que parece garantir que as
máquinas são materiais e que nós não somos máquinas.
Matt: Não há muito a dizer acerca dela; é apenas uma questão de
senso comum educado. As máquinas, pelos menos para os nossos
propósitos, são unicamente computadores digitais de alta tecnologia com
equipamento robô adicional. O equipamento robô adicional permite a
imitação das características físicas humanas. Mas a mente ou o cérebro
13 Para uma tentativa mais detalhada, mas em última análise não completamente convincente, de refutar o «exemplo de Mary», ver D. Dennett, Consciousness Explained, especialmente pp. 398-406.
47
do robô é o computador. Era provavelmente isto que Turing queria dizer
com «máquina» quando levantou a questão de saber se as máquinas
podem pensar, e eu penso que devemos regressar a esta ideia. Quando
aceitei a caracterização mais abstracta de máquina feita por Turing (em
termos de máquina de Turing), procurava uma refutação rápida do
mecanicismo. Mas tu pegaste então na minha caracterização abstracta e
tentaste convencer-me que nós, humanos, somos afinal máquinas.
Phil: Não estamos a voltar para trás outra vez? Parece que
desistimos do teste de Turing, o jogo da imitação; ou tens outro teste em
mente? Talvez queiras que a tua posição seja completamente imune a
quaisquer testes, caso em que só aceitas uma definição de máquina que
torne logicamente impossível que uma máquina possa pensar, tão
impossível como é a um solteiro ser casado. Essa seria uma maneira de
conseguires «ganhar» a disputa, mas por um preço muitíssimo elevado.
Há ou não um aspecto empírico no teu problema? Na verdade, terias de
persuadir-nos a falar segundo a tua maneira, na qual máquina e
pensamento são logicamente incompatíveis. Como poderias fazer isto?
Será que, de alguma maneira, achas que seria muito perigoso não o
fazer?
Matt: Ui! Puseste muitas palavras na minha boca. Na verdade,
penso que de facto seria muito perigoso deixar as máquinas pensar, ou
melhor, falar como se as máquinas pudessem pensar. Isto tornaria os
homens em máquinas; destruiria a concepção de homem como uma
pessoa, como um animal racional com livre arbítrio; e isso é o próprio
núcleo da nossa cultura e civilização. Estaríamos, nas palavras do teu
professor e amigo behaviorista, B. F. Skinner, para além da liberdade e
da dignidade. Não seríamos livres de escolher por nós mesmos a nossa
vida, de procurar a felicidade à nossa maneira, pelo uso da nossa razão
autónoma. Como máquinas, seríamos uns bonecos -- talvez uns bonecos
um pouco melhores do que os outros animais, mas mesmo assim
bonecos. Todo o nosso comportamento seria, em princípio, previsível a
partir dos estímulos de entrada e dos estados do nosso programa. (E
48
mesmo que houvesse espaço para algum elemento aleatório, isso
dificilmente seria o livre arbítrio da capacidade humana de agir.) A nossa
moral seria, é claro, reduzida a cinzas. Não poderia existir
responsabilidade para bonecos. É claro que a religião acabaria
juntamente com moral. Acho por isso muitíssimo perigosa a tese que
afirma que o homem é uma máquina.
Phil: Pode ser perigosa, mas o nosso objectivo é a verdade, ou pelo
menos a crença justificada, ou não?
Matt: Não há maneira de podermos pensar em nós como máquinas.
Falamos das máquinas em termos de programas e estados, de input e
output. Muitas vezes conhecemos o programa da máquina porque
construímos a máquina. Temos um registo do input. É razoável falar do
que a máquina fará. Mas não é razoável falar do que a máquina devia
fazer, ou do que a máquina está moralmente obrigada a fazer. Admito
que por vezes falamos das outras pessoas como se fossem máquinas:
«Avisei-te que o Jorge ia partir a raquete de ténis; isso é mesmo dele.» É
como se soubéssemos o suficiente sobre o seu programa, ou o seu
carácter, e a história dos seus inputs, ou a história do seu
condicionamento, para podermos prever e explicar de maneira bastante
precisa o comportamento do Jorge. Mas nunca podemos olhar para nós
mesmos desta maneira. Podemos tratar o Jorge como se não fosse
moralmente responsável, mas sabemos que nós somos responsáveis. Nós
agimos; escolhemos o que devemos fazer. Não andamos a prever o nosso
próprio comportamento. Muitas vezes não sabemos o que faremos até o
fazermos, e não o fazemos até o termos escolhido.
Phil: Muito interessante. Mas não poderiam existir máquinas que
tivessem dificuldade em pensar sobre elas próprias como máquinas, isto
é, que tivessem dificuldade em descrever-se a si mesmas na linguagem
que usamos para falar dos computadores digitais sofisticados? Além
disso, conforme aumenta o nosso conhecimento da genética, psicologia e
tecnologia, como sabemos que um dia não será bastante natural pensar
em nós mesmos como máquinas? Podemos, por exemplo, vir a achar
49
natural falar do estímulo de certas fibras no cérebro, em vez de falar de
dor.14 Não estou a dizer que poderemos vir a abandonar totalmente, ou
de uma só vez, a nossa maneira quotidiana de falar, mas apenas que
esta linguagem alternativa pode tomar gradualmente o lugar da outra. É
possível, não é?
Matt: Estás a tratar o problema da mente/máquina como se ele
fosse empírico, como se os factos científicos pudessem um dia levar-nos
a modificar as nossas mais profundas convicções acerca dele. Um
triângulo euclidiano nunca terá quatro lados. E, num certo sentido, não
podemos permitir que esta tese seja verdadeira. Além disso, afirmas que
a minha atitude é intelectualmente irresponsável. Não é. Mesmo na
ciência se retêm algumas hipóteses, se elas forem suficientemente
básicas, apesar de surgirem dados contrários ou experiências
recalcitrantes. Deves recordar que este tipo de conservadorismo nos
ofereceu a descoberta do planeta Neptuno. Bom, as hipóteses ou
princípios sobre o estatuto especial dos seres humanos são pura e
simplesmente os mais básicos que temos. É com certeza natural que não
estejamos dispostos a testar tais princípios. A própria natureza da
actividade intelectual, tanto científica como filosófica, pressupõe as
noções de liberdade e responsabilidade. O progresso numa simples
ciência, tal como a informática, não pode jamais ser mais importante do
que o compromisso para com o carácter único do homem e da
personalidade humanas. Estás portanto a ver que nenhum teste ou
conjunto de testes empíricos, nem mesmo um tão engenhoso como o
jogo da imitação de Turing, ou o «progresso» na investigação em
inteligência artificial, podem forçar-nos a desistir dos nossos princípios
morais fundamentais. Quando temos de escolher entre a ciência e a
moral, a moral tem de prevalecer. Acho que Immanuel Kant (repara que
me apoio noutros filósofos para além de Mortimer Adler) chamou a isto a
primazia da razão prática (moral).
14 Penso que este ponto foi pela primeira vez defendido por Feyarabend.
50
Phil: Realmente, estás a usar as armas mais pesadas -- nada mais,
nada menos, do que Immanuel Kant. Levantaste tantas questões novas e
importantes no teu pequeno discurso, que nem sei por onde começar.
Mostraste, pelo menos, que algumas questões da filosofia da ciência e da
filosofia moral têm algum impacto no nosso problema da mente/máquina.
É interessante como os grandes problemas da filosofia parecem misturar-
se uns com os outros. O que fizeste foi assumir como verdadeiras certas
posições em relação a essas questões, e, uma vez concedida a
razoabilidade dessas posições, concluíste que as máquinas não podem
pensar, que é logicamente ou conceptualmente impossível que as
máquinas pensem. Suponho que o que temos de fazer é examinar
criticamente algumas das posições que assumiste. Não faço isto sem um
certo medo. Conduziste-nos para a mais profunda controvérsia filosófica.
Até admito ter alguma simpatia pelo que defendeste.
Tomemos a filosofia da ciência em primeiro lugar. Afirmas que os
princípios fundamentais da ciência são tratados como se fossem imunes
a argumentos ou refutações da experiência. Podemos sempre fazer
ajustamentos apropriados algures nas nossas teorias, de maneira a
salvar as hipóteses. Admito que por vezes a história da ciência reflecte
realmente esta atitude, tal como no tratamento da evolução, ou de
princípios fundamentais da economia, ou da lei do efeito na psicologia
operativa, ou até mesmo no tratamento da física de Newton, pelo menos
até certo ponto. Mas se esta aproximação conservadora fosse verdadeira
tornaria o progresso na ciência impossível. Como poderia a tua
perspectiva dar conta, por exemplo, da vitória de Einstein sobre Newton?
A teoria de Newton foi testada e verificou-se que deixava muito a desejar;
foi testada e refutada, não foi?
Matt: Os resultados dos testes nunca nos obrigaram a desistir de
Newton. Poderíamos ter feito ajustes em certas partes da teoria para
salvar Newton. Os ajustes não foram feitos porque a comunidade
científica julgou que o custo de salvar Newton era demasiado elevado.
Acho que a simplicidade e a elegância da teoria de Einstein foram as
51
razões desse juízo. Existem ainda cientistas e filósofos que se mantêm ao
lado de Newton. Eles não são irracionais nem loucos; pensam unicamente
que os conceitos de Newton são demasiado básicos para que os
abandonemos. O meu argumento é que os princípios morais
fundamentais, os princípios da liberdade e da responsabilidade, são pura
e simplesmente demasiado básicos para permitir que possam ser
derrubados pelo argumento de Turing, ou por qualquer outro. Nenhum
argumento pode jamais forçar-nos a admitir que o homem é uma
máquina, porque aceitar tal argumento exigiria que desistíssemos de
princípios morais fundamentais. A atitude racional a tomar é preferir a
dignidade do homem aos argumentos mecanicistas.
Phil: Precisas de uma teoria da racionalidade que fundamente esse
argumento. Estamos perante problemas cada vez maiores. Na verdade,
alguns filósofos caracterizariam essa tua última abordagem como
irracional. Pareces permitir que os juízos valorativos se sobreponham aos
factos objectivos. Se um princípio é importante, se estás profundamente
comprometido com um princípio, recusas-te a permitir que os factos
interfiram. Mas não será verdade, por outro lado, que a racionalidade nos
obriga a submeter tantas frases declarativas quanto possível aos testes
mais severos, especialmente as mais importantes? Sir Karl Popper
defende que a ciência progride através de um processo de conjecturas
(palpites) e refutações. Nesta perspectiva, a racionalidade não permite
que coisa alguma seja por princípio imune à refutação. Parece-me que o
nosso problema consiste em escolher entre diferentes conceitos de
racionalidade, ou talvez descobrir uma combinação apropriada. Seria
dogmático insistires na superioridade da tua própria ideia de
racionalidade.15
Matt: Pela primeira vez, pareces um pouco inseguro. A filosofia da
ciência é uma área que conheço relativamente bem. Deixa-me esboçar
um argumento que te vai fazer ficar ainda mais desconfortável. A ciência
supõe o estudo livre e racional. Se o estudo livre e racional fosse 15 Para um tratamento de algumas das complexidades deste conceito, ver Robert Nozick, Rationality.
52
impossível, a ciência também o seria. Se o homem é uma máquina, não
pode existir estudo livre e racional. Se o mecanicismo for um resultado
científico, tem de ser um resultado do estudo livre e racional, logo o
mecanicismo não pode ser um resultado científico. Logo, podemos
afastar o mecanicismo como inconsistente com a própria ideia de ciência
e de estudo científico.
Phil: Estou a ver que não há maneira de evitar o confronto directo
com o famoso, ou infame, problema do livre arbítrio. Argumentaste que
se o homem é uma máquina, não pode ter livre arbítrio. Apesar de
surpreendente, há filósofos, como eu próprio, que não aceitam isto. O
comportamento das máquinas é reconhecidamente determinado: dado o
input, o programa determina o output. (Um dispositivo que gere
aleatoriedade não afecta o tema do livre arbítrio. Acontecimentos
aleatórios não se confundem com o livre arbítrio.) No entanto, podemos
considerar que algumas das acções das máquinas são livres. Se estás ao
pé de uma máquina (robô) e eu a empurro contra ti, o empurrão não é
um acto livre da máquina. Se cair um braço da máquina porque foi
injectado com uma certa substância, a queda do braço não é um acto
livre. Mas as coisas seriam diferentes se a máquina fosse programada
para cortar o seu próprio braço; nesse caso, o acto seria voluntário. Nesta
perspectiva, as acções humanas são livres quando são o resultado do
nosso carácter, quando se pode dizer com propriedade que as acções são
nossas. Acções forçadas ou compelidas não são livres. Considerações
análogas fazem com que se possa afirmar que uma máquina só age
livremente quando age a partir do seu programa. Nesta perspectiva --
uma perspectiva que, a propósito, tem sido defendida por filósofos
notáveis (Hobbes, Hume, Schlick e muitos contemporâneos) -- o
determinismo é compatível com a liberdade. Na verdade, chama-se por
vezes compatibilismo a esta perspectiva. Um outro nome para esta
perspectiva é determinismo moderado. Esta é a perspectiva que está
mais de acordo com a maneira como comummente falamos, não
devendo por isso ser rejeitada de ânimo leve. Por outro lado, o
53
determinista duro defende que o determinismo é verdadeiro e que o livre
arbítrio é incompatível com o determinismo. Em contrapartida, os
libertários aceitam, como os deterministas duros, que o livre arbítrio e o
determinismo são incompatíveis, mas sustentam que a opção aceitável é
a do livre arbítrio. Tu, meu amigo, és claramente um libertário.
Matt: Aceito o rótulo de boa vontade. Mas tenho no entanto
dificuldade em compreender como pode existir um filósofo, e ainda
menos um bom filósofo, que leve a sério o determinismo moderado. A
questão central, tal como eu a vejo, é a de saber se o carácter de um
homem ou o programa de uma máquina podem ser livremente
escolhidos. Se não podem ser livremente escolhidos, como podem as
acções que são consequência do carácter ou do programa ser
considerados livres?
Phil: Tenho colegas no departamento de filosofia que também têm
dificuldade em digerir o determinismo moderado. Estes colegas
caracterizam a noção de liberdade do determinista moderado como
excessivamente «anémica». «Como poderemos ser livres», perguntam
eles, «quando não temos nenhum controlo último sobre o que fazemos?»
É claro que quando lhes peço para explicarem o que querem dizer com
«controlo último», não se saem muito bem. Se pensares sobre isso, acho
que concordarás que quando falamos de acções livres, queremos referir
aquelas acções que não são compelidas nem resultam da coerção. A
causalidade não é, afinal de contas, a compulsão. Admito que o problema
do livre arbítrio é difícil; mas por que havemos de mexer onde não nos
dói, por que havemos de levantar problemas sobre a liberdade última e a
responsabilidade, quando na vida quotidiana não vemos qualquer
necessidade de levantar tais problemas?16 Em qualquer caso, prefiro mil
vezes David Hume a Espinosa e a B. F. Skinner.
Matt: Estou desapontado. Pensei que os filósofos tinham a
obrigação de enfrentar estes problemas profundos.
16 Para uma discussão do problema do livre arbítrio, ver o diálogo dedicado a este assunto de Clifford Williams, Free Will and Determinism (Indianapolis: Hackett Publishing Co., 1980).
54
Phil: Não me parece que seja justo exigir neste momento que
resolvamos um problema tão notável como o do livre arbítrio. Teríamos
de falar pelo menos mais um dia para o resolver.
Matt: Parece então que também não podemos resolver o nosso
problema da mente/máquina. Parece que chegámos a um beco sem
saída. Portanto, Stu e eu podemos ter afinal razão acerca do desgraçado
Fischkov.
Phil: Não sejas assim tão apressado a desistir. Tenho mais uma
linha de argumentação que gostaria de tentar contigo.
Matt: Força.
Phil: Esta nova linha de argumentação é semelhante em alguns
aspectos ao jogo da imitação; envolve uma espécie de experiência.17
Construímos um robô tão sofisticado quanto possível. Tentamos
programar o robô para usar o português da maneira como nós o usamos.
Isto pode revelar-se difícil, pois podemos não saber o português
suficiente para formular regras adequadas que conduzam ao domínio da
língua. A alternativa seria construir uma espécie de máquina de Turing
bebé, para que ela pudesse aprender a língua não através de regras
explícitas, mas pela experiência, pela exposição às contingências, com
diria B. F. Skinner. (É aliás assim que as pessoas aprendem a sua língua
materna.) Assumindo que este esforço seria bem sucedido, programamos
o robô de maneira a dizer sempre a verdade, e a nunca mentir. É claro
que ele poderia enganar-se. Feito isto, fazemos então ao nosso robô
perguntas como «Pensas?», «Tens sentimentos?», «És consciente?». Com
base nas suas respostas podemos determinar precisamente a relação
entre a mente e a máquina.
Matt: Claro que o teu robô poderia ser incapaz de responder às
perguntas. Que farias nesse caso?
Phil: Tinha de tentar comprar um robô melhor.
Matt: Mas talvez as perguntas não possam pura e simplesmente ser
respondidas por qualquer robô.
17 Que deriva de uma sugestão de Michael Scriven.
55
Phil: Se for esse o caso, talvez isto seja suficiente para distinguir o
homem da máquina.
Matt: E que farias se as máquinas respondessem «Não» a todas
essas perguntas? Não terias a tentação de ver a resposta negativa como
um sinal de que não tinhas o robô que desejavas, e que precisavas de um
modelo melhor? Não consigo ver como poderias chegar a satisfazer-te
com uma resposta negativa. E mesmo que ele respondesse «Sim»…
Phil: Que achas da minha experiência decisiva?
Matt: Acho que há muitos «ses» em relação à tua experiência, tais
como o domínio da língua portuguesa e a dificuldade em distinguir
respostas negativas de respostas não comprometedoras, e respostas
positivas. É no entanto uma ideia intrigante -- ser uma máquina a
resolver o problema da mente/máquina. Se isto é o melhor que
consegues apresentar neste momento, então é óbvio que estás a ficar
sem ideias. Eu já estou sem ideias desde há um bom bocado.
Neste momento estou um pouco confuso. Quando começámos a
nossa discussão tinha a certeza que existia um hiato insuperável entre o
homem e a máquina. Já tinha discutido o assunto com alguns
matemáticos e informáticos meus amigos, e todos concordámos que o
homem é inimitável. Admito que alguns de nós acreditávamos nisto de
maneira religiosa, mas a maior parte fomos especialmente convencidos
pelo argumento de Gödel-Church-Lucas. Agora todos os meus
argumentos foram esvaziados, pelo menos até um certo grau, e chegaste
mesmo a usar alguns dos meus conceitos técnicos. No entanto, não
demonstraste a verdade da posição mecanicista. Por outras palavras, não
sei agora que a minha posição está errada e a tua certa. O que agora sei
é que não sabia afinal o que pensava saber. O que me confunde de
alguma maneira é o facto de me teres conduzido a este estado sem que
tu próprio saibas qual é a posição correcta sobre o problema
homem/máquina.
Phil: Tens sem dúvida razão quando dizes que não sei qual é a
posição correcta. Isto é um resultado claro da nossa discussão. Se sei
56
alguma coisa -- e é claro que não afirmo ser o único a sabê-lo -- é como
fazer perguntas e como argumentar; como aduzir razões a favor e contra
diversas posições. E todos sabemos agora muito mais sobre o problema
do que sabíamos antes. Isto mostra que podemos saber muito sobre um
problema sem saber qual é a solução. Ficámos melhor depois da nossa
discussão? Tens de ser tu próprio a responder a esta pergunta. Agora
compreendemos pelo menos alguns dos problemas envolvidos na
tentativa de relacionar o homem e a máquina. Isto é mais do que a maior
parte das pessoas pode afirmar. Quanto à questão de saber por que
razão essa compreensão é tão importante... Não é a possibilidade de
compreender o que faz o homem (e talvez algumas máquinas) tão
importante?
Stu: Por mais agradável que fosse ouvir-vos falar sobre a
compreensão, tenho de me ir embora. Vou jogar esta noite com outra
máquina, a Capaspassky. Dava-me jeito uma vitória; espero que Capa
esteja aborrecida, que não consiga concentrar-se no jogo, e que faça
jogadas estúpidas…
BIBLIOGRAFIA SELECCIONADA
I
Anderson, Alan Ross, org., Minds and Machines. Englewood Cliffs, Nova
Jérsia: Prentice-Hall, Inc., 1964. Continua a ser uma excelente
antologia de ensaios fundamentais. É o texto auxiliar que melhor
complementa o presente diálogo. Os ensaios de Turing, Scriven,
Lucas e Putnam são especialmente valiosos.
57
II
Adler, Mortimer, The Difference of Man and the Difference It Makes.
Cleveland: World Publishing Company, 1968.
Delong, Howard, A Profile of Mathematical Logic. Boston: Addison Wesley,
1970.
Dennett, Daniel C., Consciousness Explained. Boston: Little, Brown, 1991.
Hofstadter, Douglas, Gödel, Escher, Bach. Nova Iorque: Basic Books,
1979.
Hofstadter, Douglas, e Dennett, Daniel C., The Mind’s I. Nova Iorque:
Basic Books, 1981. (Uma colecção de ensaios importante, com
respostas dos autores. Inclui o ensaio do quarto chinês de Searle.)
Polanyi, Michael, Personal Knowledge. Nova Iorque: Harper & Row, 1964.
Ryle, Gilbert, The Concept of Mind. Londres: Hutchinson, 1949.
Sagal, Paul T., Skinner’s Philosophy. Washington, D.C.: University Press of
America, 1981.
Searle, John R., «Minds, Brains, and Programs», in The Mind’s I, org.
Hofstadter e Dennett, p. 3 e ss. (Originalmente publicado com o
mesmo título em The Behavioral and Brain Sciences, vol. 3, 1980.
Cambridge University Press.)
Skinner, B. F., Contingencies of Reinforcement. Nova Iorque: Appleton-
Century-Crofts, 1969.
Smullyan, Raymond, Forever Undecided. Nova Iorque: Random House,
1990. (Não foi muito usado neste diálogo, mas é uma leitura
complementar fascinante.)
Webb, Judson, «Metamathematics and the Philosophy of Mind.» in
Philosophy of Science, 1967. (Serviu de inspiração para grande
parte dos argumentos usados neste diálogo.)
Wittgenstein, Ludwig, O Livro Azul. Lisboa: Edições 70, 1991.
Wittgenstein, Ludwig, O Livro Castanho. Lisboa: Edições 70, 1990.
58
Wittgenstein, Ludwig, Investigações Filosóficas. Lisboa: Fundação
Calouste Gulbenkian, 1994 (2.a edição).
59