Buscar

Inteligencia Artifical Joao de Fernandes Teixeira

Prévia do material em texto

Índice
Agradecimentos
Três modos de jogar xadrez
Entre o passado e o futuro
O teste de Turing
Dos símbolos à parabiose
O que dizem os filósofos
Epílogo
Sugestões de leitura
Bibliografia
Agradecimentos
Aos meus amigos Gustavo Leal Toledo e Paulo Henrique Fernandes
Silveira, que leram a primeira versão deste livro.
Aos meus alunos André Sathler Guimarães e Alessandro Bender
Verrone.
A Marco Carlucci, pela sugestão do título.
À minha esposa Malu.
À Lizilda, minha assistente.
À Suely Molina, pela ajuda com a última versão e com as correções
finais.
O homem criou o homem à sua imagem e semelhança.
Agora o problema é seu.
Autor desconhecido
1.
Três modos de jogar xadrez
A inteligência artificial é uma tecnologia que fica a meio caminho
entre a ciência e a arte. Seu objetivo é construir máquinas que, ao
resolver problemas, pareçam pensar. Um bom exemplo é a máquina de
jogar xadrez.
Jogo de xadrez
Há três modos de construir um dispositivo que jogue xadrez: fazer
com que um ser humano imite uma máquina, construir uma máquina
que imite um ser humano ou conseguir que uma máquina ultrapasse a
mente humana. Esses três modos correspondem a máquinas que foram
construídas nos séculos XIX, XX e XXI.
O primeiro modo tem a ver com uma história que já andei
contando por aí, de um certo barão von Kempelen, que tinha
inventado uma máquina de jogar xadrez no século XIX. Esse tal de
Kempelen – que não se sabe exatamente se era um barão ou se o título
era uma fraude – construiu uma grande caixa e nela escondeu um anão
enxadrista. No topo desta, havia um tabuleiro construído com
disponibilidade tal que o anão poderia, olhando-o por baixo, ver toda
a movimentação das peças. O anão podia arrastá-las pelo tabuleiro
sem ser visto fazendo as jogadas necessárias. Quem olhasse para a
máquina nunca suspeitaria do que estava acontecendo de fato. Tudo se
passava realmente como se Kempelen tivesse criado, pela primeira vez
na história da humanidade, uma máquina que pudesse jogar xadrez –
uma máquina, como ele proclamava, que imitava o pensamento
humano. Ninguém jamais imaginaria que, dentro da caixa, ocultava-se
um ser humano.
Kempelen e seus auxiliares exploraram muito sua invenção.
Levaram-na para circos, percorreram toda a Europa, ganhando
fortunas com aquilo que deixava todo mundo espantado. A notícia da
existência da máquina de jogar xadrez chegou aos ouvidos de
Napoleão, que imediatamente quis conhecê-la e, de fato, ela foi levada
até ele. Mas o anão cometeu um erro fatal: começou a ganhar a
partida, deixando o imperador para trás. Este, de temperamento
irritadiço, desferiu um forte chute contra a máquina. As portinholas se
abriram e o anão apareceu. Kempelen foi desmascarado!
A máquina de von Kempelen era uma forma primitiva (e talvez
patética!) de inteligência artificial e não apenas um truque, afinal, não
deixava de ser uma tentativa de construir uma máquina pensante.
Mas, que coisa curiosa! Um dos primeiros dispositivos para jogar
xadrez de que se tem notícia foi um humano que imitava uma
máquina, quando se esperava justamente o inverso...
Só nos séculos seguintes é que começaram a aparecer máquinas de
jogar xadrez que tentavam imitar os humanos, ou seja, o segundo
modo. Na metade do século XX – quando surgiram os computadores
digitais e, com eles, a inteligência artificial propriamente dita –
apareceram os primeiros programas de computador capazes de
“raciocinar”.
Nas décadas de 1950 e 1960, havia três grandes pesquisadores
envolvidos na construção de um enxadrista artificial: Newell, Shaw e
Simon. O programa que eles inventaram tentava imitar a mente
humana, simulando seus raciocínios e desenvolvendo estratégias de
jogo. Era um programa baseado numa estratégia chamada
“heurística”.
Suponha que você queira descobrir a senha bancária do seu vizinho
e tudo o que sabe é que ela tem quatro dígitos. Há duas maneiras de
fazer isso. Uma é a chamada “força bruta”: percorrer todas as
possibilidades, todas as combinações possíveis. Será um trabalho
imenso, poderá levar sua vida inteira. Mas algum dia você chegará,
com certeza, no resultado desejado. (Se não morrer antes, é claro...)
A outra maneira é tentar encontrar algum tipo de atalho para
adivinhar essa senha. Você começa a perguntar ao seu vizinho o dia
em que ele nasceu, casou etc., e tenta números próximos a esses. Em
seguida pergunta a ele o nome de seu cachorro, e assim por diante.
Nesse caso, você tenta diminuir as possibilidades: isso é a heurística.
Heurística é uma busca através de raciocínio seletivo.
No caso do xadrez, para se responder corretamente a uma jogada
do oponente, seria necessário percorrer todas as possibilidades que se
seguiriam dela – se você estivesse usando força bruta, é claro. Isso
poderia levar centenas de anos! Mas com a heurística, você tenta
reduzir essas consequências desenvolvendo algum tipo de estratégia. É
assim que nós, humanos, jogamos xadrez – e foi baseando-se na mente
humana que Newell, Shaw e Simon desenvolveram seu programa para
jogar xadrez. Infelizmente, os primeiros programas de jogar xadrez,
que apareceram na década de 1960, perdiam para crianças de dez
anos.
O terceiro modo de fazer uma máquina jogar xadrez aparece quase
no final do século XX. Em 1997, ocorreu um evento marcante na
história da inteligência artificial: Deep Blue, um computador
construído pela IBM, venceu o então campeão mundial de xadrez Gary
Kasparov. Esse fato mostrava que uma nova era na inteligência
artificial (que chamarei, daqui para frente, também de IA) estava para
começar. Deep Blue em nada se parecia com a mente humana, pois
não raciocinava nem desenvolvia estratégias. Seu princípio de
funcionamento é a “força bruta”. A ideia era que, usando a força
bruta, Deep Blue não poderia perder a partida de xadrez, pois esse
método sempre levaria aos resultados desejados. O que se precisava
era de um supercomputador, com uma enorme capacidade de realizar
bilhões de computações por segundo, que escolhesse a melhor jogada,
percorrendo o maior número de caminhos possíveis e auxiliado por
um imenso banco de memória onde estivessem contidas as jogadas dos
grandes mestres enxadristas das últimas décadas. Para escolher uma
delas, também seria necessário usar a força bruta. O Deep Blue não é
uma máquina que pensa, pois o que causa suas jogadas nada tem a ver
com o cérebro ou com a mente humana. Mas seu poder computacional
é tamanho que, para quem o observa, ele parece pensar. Aliás, esse é o
ponto em comum entre as três máquinas que descrevemos aqui. As três
são simuladores. Inteligência humana e inteligência mecânica resultam
no mesmo, pois não se distingue entre original e imitação perfeita.
Basta que a simulação aparente o mesmo que o original. Não há uma
diferença entre ser e parecer. Uma imitação pode ser tão perfeita que
não mais possamos distingui-la do original e pode até tornar-se mais
perfeita que o próprio original. Isso é o que aconteceria se a BMW
usasse imitações chinesas de peças de carro e as instalasse nos seus
modelos originais de fábrica. Não há limites para a imitação. Esse é
um dos princípios filosóficos fundamentais da IA.
Isso também ocorre com a IA do século XXI. Não se busca
construir uma máquina que pense, basta que ela pareça pensar. A
imitação do comportamento humano torna-se cada vez mais uma
camuflagem sob a qual se abriga uma máquina totalmente diferente de
nós. Queremos máquinas cujo comportamento seja igual ao de um ser
humano, mas, se elas chegarão a isso da mesma forma que os
humanos, já não importa mais. As duas primeiras máquinas de que
falamos baseavam-se na imitação da inteligência humana. Já a
máquina que se busca construir agora, pouco ou nada precisa ter de
humano. Ela produzirá inteligência de maneira completamente
diferente de como nós produzimos. O raciocínio humano não é mais o
modelo para construir máquinas que reproduzama inteligência do
homem. Podemos até acoplá-las a um corpo com uma forma humana
– aquilo que habitualmente chamamos de robô –, mas isso pouco
importa. Uma máquina pensante poderá ser como uma máquina de
hemodiálise, que faz as funções do rim, mas que em nada se parece
com ele.
Máquina de calcular antiga
Antes se achava que inteligência era a capacidade de raciocinar.
Agora, inteligência é poder computacional. A hipótese é que nosso
cérebro tem um tremendo poder computacional que lhe permite
resolver muitos problemas através da força bruta. No final do século
passado, a força bruta era encarada com desdém, pois ela era
sinônimo de processos muito lentos. Por causa da lentidão, construir
máquinas pensantes obrigava a imitar o raciocínio humano como
única estratégia possível.
Mas isso vem se alterando neste início do século XXI à medida que
supercomputadores estão superando o problema da lentidão e
aumentando sua capacidade de processamento de dados. Vários tipos
de estratégia para superar o problema da lentidão começam a ser
usados. Um deles é usar a arquitetura paralela, supostamente utilizada
por nosso cérebro em algumas tarefas. É como se, ao resolver um
problema, ele fosse dividido em várias partes e cada uma delas
resolvida simultaneamente por vários dispositivos trabalhando ao
mesmo tempo. Nesse caso, imitamos parcialmente nosso cérebro e
teríamos máquinas mistas, parcialmente inspiradas na natureza. Seria
uma situação parecida com a que temos na aviação, na qual aeronaves
têm asas como os pássaros, mas voam com turbinas, ou seja, são
apenas parcialmente inspiradas no design natural.
Queremos alcançar o poder computacional do cérebro humano,
usando máquinas. Em seguida, num futuro próximo, tentaremos
ultrapassar nosso próprio cérebro, através de nossa mistura com as
máquinas. Nas próximas décadas, não haverá uma linha divisória
nítida entre robôs e humanos. Seremos nós mesmos os robôs que
inventarmos, o que permitirá à inteligência artificial superar a natural.
A busca por igualar-se ao cérebro humano, usando máquinas,
significa aumentar o poder computacional – velocidade e memória –
dos computadores que temos hoje. O poder computacional do cérebro
humano será ultrapassado quando existir uma máquina capaz de
efetuar mais de 200 computações por segundo. Novos materiais, além
do silício, com o qual são construídos os computadores atuais,
precisarão ser desenvolvidos para que possamos ter máquinas mais
potentes. Disso depende a IA do século XXI, que aposta cada vez mais
na “força bruta”.
Novas tecnologias para a construção de hardwares e para o
aumento da velocidade dos computadores estão sendo desenvolvidas.
Uma delas é o computador de DNA, o material com o qual nossos
genes são feitos, ou seja, moléculas que podem transportar uma
imensa quantidade de informação genética. Essa informação é
necessária para a organização e o funcionamento das células vivas e
para o controle da forma pela qual as características genéticas são
herdadas de uma geração para a outra. O inventor desse tipo de
computador, Gerald Adelman, partiu da ideia de que o DNA é muito
semelhante ao HD de um computador, pois ele estoca muita
informação permanente acerca de nossos genes. Além disso, o DNA,
além de transportar enorme quantidade de informação, pode realizar
cálculos muito mais rapidamente do que qualquer supercomputador
que temos hoje.
Imagem DNA
Outra alternativa é o computador quântico. A computação quântica
é um novo campo da ciência da computação que surge da mecânica
quântica. Nos computadores que temos hoje, a unidade básica de
informação é o bit ou “dígito binário”. Um dígito binário é um “0” ou
um “1”, e todos os números são feitos a partir de cadeias de zeros e
uns. O bit usado nos computadores de hoje só pode estar em um
desses estados.
Nos computadores quânticos, a unidade de informação será o bit
quântico ou o qubit, que poderá estar em ambos os estados ao mesmo
tempo. Uma partícula subatômica pode estar em vários estados
diferentes simultaneamente para vários observadores dependendo de
quando se mede seu “momento” (o produto de sua massa pela sua
aceleração). Como a partícula subatômica pode estar em estados
diferentes simultaneamente, uma combinação de qubits transporta
muito mais informação do que a mesma quantidade de bits. Na
medida em que muitas computações ocorrem simulta​neamente, o
computador quântico pode executar uma vasta quantidade de
operações em paralelo, o que aumenta muito sua velocidade.
O computador quântico poderá ser utilizado sempre que for
necessário processar grande quantidade de informação, como é o caso,
por exemplo, de reconhecimento de imagens ou de voz. Mas esse
projeto ainda caminha lentamente, pois oferece um grande perigo:
uma grande facilidade para decifrar senhas – o que apavora os
banqueiros.
Outro tipo de máquina que tem sido estudada é o computador
ótico. Esse parece ser o mais promissor. Ele usa luz ou feixes de raios
laser, em vez de sinais elétricos, para transportar informação. Nos
computadores atuais, a velocidade de transmissão de informação é
metade da velocidade da luz. O computador ótico não será apenas
muito mais rápido do que os atuais; espera-se que, em poucas décadas,
ele se torne também muito barato.
Porém, por menor que seja a área de um chip, e por maior que seja
a velocidade de um computador, há um limite fundamental: a
velocidade da luz, que a física nos ensina ser a maior velocidade
possível em nosso universo. Essa é a velocidade do computador ótico.
Não poderemos construir supercomputadores mais velozes do que
isso. Esse é também o limite da força bruta.
A força bruta, que tinha sido praticamente abandonada no final do
século XX, é agora uma das mais fortes tendências da IA. O Deep
Blue é um exemplo de sua aplicação. Ele mostra também que a
heurística pode errar. A força bruta não. Será que foi por causa disso
que Kasparov perdeu para ele?
CONTINUAR A PENSAR
Será que o Deep Blue representa uma das primeiras vitórias de um
computador sobre a razão humana? Ou uma vitória da própria razão
sobre si mesma – pois, afinal, não foi ela própria que construiu esse
computador? Ou teria o Deep Blue, ao usar sua força bruta, superado
o poder computacional do cérebro humano?
2.
Entre o passado e o futuro
O sonho de construir máquinas pensantes é muito antigo. Os
primeiros registros de criaturas artificiais com habilidades humanas
têm uma forma mítica ou por vezes lendária, tornando difícil uma
separação nítida entre imaginação e realidade. Isso faz com que a IA
seja uma disciplina com um extenso passado, mas com uma história
relativamente curta.
Um dos episódios mais interessantes do passado mítico da IA é a
lenda do Golém. Joseph Golém era um homem artificial que teria sido
criado no fim do século XVI por um rabino de Praga, na
Tchecoslováquia (hoje República Tcheca). Esse rabino resolvera
construir uma criatura inteligente, capaz de espionar os inimigos dos
judeus, que, na época, estavam confinados no gueto de Praga. Diz o
mito que Golém era, de fato, um ser inteligente, mas um dia se
revoltou contra seu criador, que então lhe tirou a inteligência e o
devolveu ao mundo inanimado.
Alguns registros mais recentes mostram que, nos séculos XVII e
XVIII, proliferaram mais mitos e relatos acerca de criaturas artificiais.
Falou-se de um flautista mecânico que teria sido capaz de tocar seu
instrumento com grande per ​feição, e que teria sido construído lá pelos
fins do século XVII. Há registros também do célebre “pato de
Vaucanson”, que teria sido construído por um artífice homônimo. A
grande novidade dessa criatura teria sido sua capacidade de bater as
asas, andar, grasnar, comer grãos e expeli-los após a digestão – uma
perfeita imitação das funções biológicas.
A existência passada dessas criaturas artificiais até hoje não está
definitivamente comprovada. Sabe-se apenasque seus projetos estão
registrados em alguns museus da Europa e que sua arquitetura interna
teria sido extremamente complexa. Sua possível construção sempre
deu margem a muitas discussões filosóficas acerca da possibilidade de
as máquinas se igualarem aos seres humanos.
No século XIX, o tema reaparece na literatura. Nessa época, é
publicado o famoso romance Frankenstein, que explora o mito de um
ser criado a partir de membros e órgãos de outras criaturas
artificialmente reunidos. Mas Frankenstein era um monstro. Um
monstro que, como costuma acontecer nesse tipo de ficção, logo em
seguida se revoltou contra seu criador.
A inteligência artificial propriamente dita só aparecerá no século
XX, a partir de projetos militares. A Segunda Guerra Mundial (1939-
1945) trouxe pressões decisivas para a comunidade científica dos
países aliados. Os bombardeios aéreos feitos pelos nazistas sobre as
cidades europeias pressionaram o desenvolvimento de canhões
antiaéreos dotados de um sistema de pontaria que corrigisse os
eventuais desvios causados pelo deslocamento do alvo e do próprio
canhão no momento do disparo. Esse tipo de mecanismo de
autocorreção começou a ser visto como uma incipiente imitação de um
comportamento humano. Para um observador leigo, tudo se passava
como se o comportamento do canhão, ao perseguir seu alvo com
precisão, estivesse sendo guiado por propósitos ou intenções
semelhantes aos de um ser humano. Essa era a cibernética, uma das
precursoras da inteligência artificial.
No fim da Segunda Guerra Mundial, os cientistas já tinham
registrado importantes invenções na área eletrônica, além de pesquisas
sobre mecanismos que imitavam ações humanas e estudos sobre o
cérebro desenvolvidos por médicos e por psicólogos. Isso os levou a
programar um encontro nos Estados Unidos, onde pesquisadores
dessas áreas apresentaram suas descobertas, numa primeira tentativa
de reuni-las e compor algo parecido com uma ciência geral do
funcionamento da mente humana. Esse encontro ficou conhecido como
o Simpósio de Hixon, e aconteceu em 1948.
Os resultados do Simpósio de Hixon não teriam sido tão
surpreendentes se não levassem, através de uma intuição
verdadeiramente criadora, a estabelecer uma analogia entre o cérebro
humano e os computadores. Essa analogia certamente foi produto do
encontro entre psicólogos, neurofisiólogos e engenheiros eletrônicos
que perceberam que o modo como estão dispostas as células do nosso
cérebro (neurônios), ligadas através de fios nervosos minúsculos, é
semelhante ao circuito elétrico de um computador. Isso abriu o
caminho para se dizer que a mente humana poderia ser imitada por
um compu​tador.
As décadas seguintes foram marcadas por novas invenções e
descobertas surpreendentes. Na década de 1950, dois cientistas
americanos desenvolveram um programa de computador capaz de
demonstrar teoremas matemáticos. Esse programa foi chamado de “O
Teórico da Lógica” (Logical Theorist ou simplesmente LT) e sua
inovação estava no fato de ele poder realmente gerar demonstrações de
teoremas, e não simplesmente apresentá-las através de um artifício de
memória.
Os dois cientistas, Newell e Simon, estavam convencidos de que sua
máquina era uma autêntica simulação do pensamento humano.
Quando o programa de computador, o LT, demonstrou um teorema
que estava em aberto, os cientistas escreveram um texto e o enviaram
para publicação em uma importante revista de matemática da época,
como se o artigo fosse de autoria do próprio LT. O conselho editorial
da revista recusou-se a publicá-lo, alegando que isso era um insulto
contra a espécie humana.
No final da década de 1960, apareceu um programa de computador
capaz de imitar um psicanalista. Esse psicanalista mecânico, que foi
chamado “Doctor”, era na verdade uma variação de outro programa,
batizado de “Eliza”. Eliza foi um programa originalmente
desenvolvido para simular diálogos.
O princípio de funcionamento desse tipo de programa era simples: a
sentença enviada pelo parceiro humano era decomposta, e suas partes
enviadas para um script armazenado no interior do computador. O
script era um conjunto de regras semelhantes àquelas que são dadas
para um ator quando se requer que ele improvise acerca de um tema
qualquer. Eliza podia receber vários tipos de script e, dependendo do
conteúdo deles, desenvolver conversas acerca de vários temas.
Quando Eliza trabalhava com um script especial chamado Doctor,
ele se transformava num psicanalista mecânico. O script era
cuidadosamente elaborado para que as respostas simulassem o
comportamento verbal de um psicanalista ao receber um paciente pela
primeira vez.
Hoje em dia, programas como o Eliza são considerados obsoletos,
apesar de terem sido de grande importância histórica. As contribuições
da IA para a psicologia e para a psiquiatria estão agora centradas no
estudo do comportamento de robôs com múltiplas personalidades, ou
psicoses, que servem de ponto de partida para a observação da
evolução desses tipos de transtornos. A robopsiquiatria e a
robopsicologia ampliarão o conhecimento da doença mental humana.
O final dos anos 1970 foi marcado por algum desânimo nas
tentativas de simular a mente humana através do computador. O
grande problema eram as máquinas de tradução, que não estavam
tendo sucesso. Na verdade, até hoje ainda não temos um software
satisfatório para realizar traduções. A tecnologia de tradução
telefônica – em que você fala em português e seu amigo chinês escuta
em chinês e vice-versa – ainda não está desenvolvida, provavelmente
por razões militares. (Você já imaginou que tipo de ameaça isso
poderia representar para um país como, por exemplo, os Estados
Unidos? Já imaginou o quanto isto poderia facilitar o terrorismo
internacional?)
Nas décadas de 1980 e parte da década de 1990, a inteligência
artificial seria ofuscada pela neurociência, que estava tomando a
dianteira nos estudos da mente. Computadores não seriam modelos da
mente humana, mas apenas ferramentas a partir das quais a
neurociência podia cada vez mais investigar o cérebro.
Mas, no fim do século XX e no começo do novo século, a
inteligência artificial reaparece com nova força. Pesquisas na área de
robótica começam a ganhar destaque, rapidamente superando esse
insucesso temporário.
O laboratório de inteligência artificial do MIT, nos Estados Unidos,
inicia o projeto COG. Esse projeto, que ainda não está concluído, traz
grandes inovações. A ideia é construir um robô com forma humana,
pois isso facilitará sua convivência conosco. Os engenheiros do COG
não apostam na possibilidade de prever todos os eventos e situações
pelos quais ele vai passar e que serviriam de base para elaborar um
programa que estaria no seu “cérebro” como algo “inato”. Eles
apostam na ideia de que o COG adquirirá conhecimento à medida que
for interagindo com seu ambiente e com seres humanos, da mesma
maneira que uma criança vai aprendendo aos poucos.
O robô COG não será, desde o início, um adulto; ele foi projetado
para passar por um período de infância artificial, na qual aprenderá
com a experiência e se ambientará com o mundo. Ele “nascerá” com
um software de reconhecimento facial − e isso será fundamental para o
seu desenvolvimento. O COG terá uma “mãe”, a ser escolhida entre as
estudantes que trabalham no projeto. Ele reconhecerá a sua mãe e fará
de tudo para que ela não saia de seu lado, como faz uma criança. Tudo
o que não for desde o início estabelecido como inato, mas for
aprendido com a experiência, será programado como inato na sua
segunda versão, o COG-2. Assim, as várias versões do COG
percorrerão os milhões de anos de evolução do homem em poucos
anos de laboratório.
Outro grande projeto da IA do século XXI é o Blue Brain. Esse é
um projeto que começou em 2005 e que está sendo realizado em
conjunto pela IBM e pelo Brain Mind Institute, na Suíça. A ideia desse
projeto é construir uma simulaçãocompleta do cérebro humano. O
Blue Brain começará com a simulação computacional dos neurônios e
suas conexões – as sinapses –, para depois passar para a simulação do
cérebro em nível molecular.
Como outros projetos da IA do século XXI, esse também segue o
estilo da “força bruta”. Nesse caso, busca-se a simulação da totalidade
do cérebro, neurônio por neurônio, conexão por conexão, para saber
se, com isso, serão reproduzidas também a mente e a consciência. É
um projeto que tem previsão para durar em torno de 15 anos.
Paralelamente ao Blue Brain, há o programa Jini, em
desenvolvimento pela empresa Sun Microsystems. A ideia é aproveitar
a computação não utilizada na internet. É possível imaginar que, a
qualquer momento em que acessamos a internet, há uma quantidade
imensa de computadores que não está sendo usada. E que, dentre os
que estão em uso, pouco mais de 1% de sua capacidade de
computação está sendo utilizada. Se for possível coordenar esse
potencial ocioso, verificaremos que a quantidade de computação não
utilizada na internet já é maior que a capacidade computacional do
cérebro humano. Ou, em outras palavras, já teríamos uma simulação
potencial de um cérebro humano na internet. A replicação do cérebro
humano estaria muito mais ao nosso alcance do que podemos
imaginar...
Quando o cérebro humano estiver totalmente replicado num
supercomputador, teremos respostas para muitas perguntas.
Saberemos, por exemplo, as causas de muitos transtornos mentais.
Poderemos conversar com ele, seja através de um teclado ou de algum
outro periférico. Essa conversa nos dará pistas para sabermos se essa
simulação será consciente ou não. Responder a essa pergunta será
muito importante para os filósofos e psicólogos do século XXI.
Os filósofos têm tentado, por séculos a fio, dizer o que é o
pensamento sem conseguir chegar a uma conclusão final. No século
XX, apareceu uma disciplina filosófica específica que busca uma
resposta para essa questão: a filosofia da mente. Ela investiga se o
pensamento é produto do cérebro ou se este é só o hospedeiro
biológico da mente. Esse é o problema mente-cérebro, que divide os
filósofos entre materialistas e dualistas. Para os materialistas só existe
matéria, e a mente é, na verdade, apenas um efeito colateral do
metabolismo do cérebro. O dualista diz que mente e cérebro são coisas
distintas, apesar de se comunicarem. Só saberemos quem tem razão
nessa discussão milenar depois que o projeto Blue Brain estiver
concluído. Nesse dia, grande parte da filosofia da mente desaparecerá,
pois a IA tomará seu lugar. Se o cérebro do Blue Brain pensar e for
consciente, os materialistas terão razão, pois pensamento e consciência
só dependerão da matéria, e nenhum espírito, ou alma, será
necessário. Teremos, entretanto, de “pagar para ver” para saber se isso
é verdadeiro...
Um dos maiores impactos da IA recairá sobre o modo como nos
concebemos: criar uma máquina pensante significa desafiar uma velha
tradição que coloca o homem e sua capacidade racional como algo
único e original no universo. A IA acaba sendo uma forma de sugerir
que é possível a existência de vida consciente além da que se instala
sobre os seres vivos.
CONTINUAR A PENSAR
Você acredita que a replicação artificial do cérebro humano em
projetos como o Blue Brain levará à replicação da consciência? Será a
consciência do Blue Brain (se ela surgir) igual à consciência humana?
3.
O teste de Turing
A inteligência artificial no século XX começou com as descobertas
do genial matemático inglês Alan Turing (1912-1954). Há mais de 50
anos, ele formulou a seguinte pergunta: “Pode uma máquina pensar?”.
A pergunta é estarrecedora. Melhor seria, talvez, questionar: o que
impediria a construção de uma máquina que pensa? Uma máquina que
tivesse consciência de seus pensamentos? Ela poderia ser algo como o
célebre Hal do filme “2001: uma odisseia no espaço” ou a rede Skynet
do filme “O exterminador do futuro”, que se tornou autoconsciente
no dia 15 de agosto de 1997.
Turing sabia os desafios que essa pergunta colocava. Se um dia
pudermos construir uma máquina que pense e seja consciente, como
poderíamos saber isso? Haveria algum teste que pudesse nos revelar se
uma máquina é consciente? Uma máquina pode chegar à sofisticação
de fazer tudo o que um ser humano faz, mas nem por isso seria
possível dizer que ela é consciente. Se um papagaio fosse treinado para
imitar o longo discurso de um político, seria isso suficiente para
concluir que essa ave é consciente? Haveria, enfim, algum teste que
pudesse nos revelar se uma máquina é consciente?
Turing imaginou um teste formidável para descobrir se máquinas
são conscientes. Ficou conhecido como teste de Turing. Eis o princípio
geral de seu teste: “Uma máquina se iguala a um humano se seu
comportamento for indistinguível deste”. Ou seja, uma máquina
torna-se humana quando não podemos mais distinguir seu
comportamento do de um ser humano.
Hoje em dia, temos várias máquinas que passam no teste de Turing
nesse sentido amplo. No campo da música, por exemplo, já foi feito
um teste no qual se pediu para que uma plateia determinasse, entre
três peças, qual havia sido escrita por um computador e qual havia
sido escrita, há dois séculos, por Johann Sebastian Bach. Num desses
testes, realizado na Universidade de Oregon, em 1997, a plateia
escolheu a peça escrita pelo computador como sendo a composta pelo
ser humano. A máquina passou no teste de Turing.
Mas o teste de Turing, no sentido amplo, pode ser impreciso.
Suponhamos que você tenha um vizinho que toca piano
esplendidamente. Um dia você passa pela sua rua e ouve sons de um
piano, magnificamente executados. Você quer entrar para
cumprimentá-lo, bate à porta e verifica que não havia ninguém
tocando piano: era um aparelho de CD ligado. Contudo, a imitação
era perfeita, produziu-se um comportamento indistinguível daquele de
um ser humano que sabe tocar piano. Ora, se Turing estiver certo,
então seria legítimo atribuir pensamento ao aparelho de CD. Mas terá
isso sentido? Certamente não.
Contudo, há uma aplicação específica do teste de Turing que não
deixa dúvidas. Ela, ainda hoje, desafia nossas máquinas digitais. É o
teste de Turing aplicado à linguagem. Para saber se um computador
pensa, bastaria conversar com ele por longo tempo, através de um
teclado, e se, ao final da conversa, não for possível concluir se o
interlocutor era uma máquina ou um ser humano, poder-se-ia concluir
que ele pensa. Para Turing, pensar seria passar nesse teste, pois,
supostamente, todos os seres humanos pensam e todos os seres
humanos passam no teste, ou seja, são capazes de conversar.
Turing imaginou uma ilustração de seu teste, que ele chamou de
Jogo da Imitação. No Jogo da Imitação, há três jogadores: uma
mulher (A), um homem (B) e um interrogador (C), que pode ser de
qualquer sexo. O interrogador fica num quarto separado do homem e
da mulher, e seu objetivo é determinar o sexo dos outros dois. Como o
interrogador fica num quarto separado, ele conhece seus parceiros
apenas por X ou Y e, no final do jogo, tem de dizer que X é A (uma
mulher) e que Y é B (um homem), ou vice-versa. Para determinar o
sexo de X e de Y, o interrogador deve formular uma bateria de
questões bastante capciosas, uma vez que X e Y podem mentir.
Por exemplo, C pode começar perguntando: “O senhor ou a senhora
poderia me dizer o comprimento de seu cabelo?”. Se Y for de fato um
homem, ele pode dar uma resposta evasiva e dizer: “Meu cabelo é
ondulado, o fio mais comprido deve ter uns 20 centímetros”. X
também pode tentar tumultuar o jogo, despistando o interrogador com
sentenças do tipo: “Ouça, eu sou o homem! Não ouça Y, ele está
tentando criar confusão”.
Para jogar, é preciso que seus participantes fiquem isolados uns dos
outros, isto é, nenhum contato que permita a identificação do sexo de
X ou de Y deve ser permitido. Ou seja,C não poderá vê-los, tampouco
ouvir suas vozes. A comunicação entre C, X e Y deve ser feita por
meio de um teclado de computador e das perguntas e respostas que
aparecem numa tela.
Suponhamos que, em vez de um homem (B, ou, no caso, Y), o jogo
esteja sendo jogado por uma máquina. É possível que C nunca venha a
descobrir o sexo convencionado de Y, tampouco perceber que não
estava jogando com um ser humano, e sim com uma máquina. Se essa
situação ocorrer, podemos dizer que essa máquina passou no teste de
Turing, pois seu comportamento, na conversa, foi indistinguível
daquele exibido por um ser humano. Não há razão para deixar de
atribuir a essa máquina a capacidade de pensar.
Se uma máquina puder conversar, ela deverá ser consciente (e ter
uma mente), pois não é possível conversar sem a consciência do que se
fala. O ser humano é uma matraca consciente. Pense um pouco nisso e
verá que Turing tem razão. Conversas são indícios de mente e de
consciência. Mesmo que conversemos dormindo, inconscientes, é
preciso que pelo menos nosso interlocutor esteja consciente.
Isso responde nossa questão inicial: o papagaio pode recitar o
discurso inteiro de um político, mas ele não pode conversar. Até hoje
somente seres humanos passaram nessa versão forte do teste de
Turing.
O prêmio Loebner, no valor de cem mil dólares (hoje em dia é
pouco!), foi instituído para quem construísse uma máquina que
passasse nesse teste. Todos os anos há uma grande competição em
Boston, mas ninguém levou o prêmio ainda. Estima-se que somente em
torno de 2029 seremos capazes de construir uma máquina que possa
conversar como um ser humano. Será uma máquina muito diferente
daquelas que temos hoje. Provavelmente será um computador híbrido,
ou seja, metade orgânico e metade de silício, ou de algum outro
material que o suceda, como, por exemplo, o arseniato de bário.
CONTINUAR A PENSAR
Pesquise na internet o que é um chatterbot. Alguns deles, como Eliza
e Alice, só falam inglês. Mesmo assim, vale a pena tentar conversar
com eles. Se você não conseguir, tente o brasileiro Ed. Será que
algum dia esses robôs passarão no teste de Turing?
4.
Dos símbolos à parabiose
Desde seu início, há mais ou menos cinco décadas, a IA assumiu
diversas formas, dependendo do modo como se concebeu a inteligência
e a mente humanas. Elas determinaram diferentes etapas pelas quais a
IA passou nas últimas décadas. Podemos dizer que cada uma dessas
etapas corresponde a uma diferente tentativa de simular a mente
humana. Nenhuma delas foi superada ou desapareceu. Nesses
episódios, a história da tecnologia assemelha-se à história da evolução:
espécies passadas e presentes convivem, e às vezes algumas delas
demoram muito para desaparecer. Outras parecem que nunca serão
extintas.
Imagem da obra
O homem, de Descartes
Entre os anos 1960 e 1990, predominaram duas espécies de IA: a
inteligência artificial simbólica e a inteligência artificial conexionista.
A primeira sonhava em construir grandes solucionadores de problemas
(máquinas de jogar xadrez, de fazer cálculos de engenharia, de fazer
demonstrações matemáticas etc.); e a segunda, em construir imitações
do cérebro.
Nas décadas de 1960 e 1970, predominou a inteligência artificial
simbólica, a primeira onda da IA. Naquela época, achava-se que a
inteligência humana estava ligada a duas características: a capacidade
de manipular símbolos e a memória. O homem produz símbolos e tem
uma poderosa memória. Os outros animais não. É aí que reside a
inteligência humana. Portanto, um dispositivo qualquer, para simular
símbolos e ter memória, não precisava ter a mesma composição
biológica e química do cérebro humano. Uma máquina poderia fazer
isso se apenas emulasse as funções do cérebro. Essa foi a hipótese com
a qual os pesquisadores da IA dessas duas décadas trabalharam.
Nós pensamos com linguagem (você já tentou pensar sem ela?), ou
seja, com símbolos sonoros ou escritos que são manipulados pela
nossa mente. Essa operação de manipulação simbólica pode ser
descrita através de um programa de computador. A mente é um
programa computacional: sua replicação depende da descoberta de um
programa adequado que permita simulá-la. Se entendermos como esse
programa funciona, compreende ​remos como funcionam a mente e a
inteligência. Foi a partir dessas ideias que os pesquisadores da IA, nos
anos 1970, concentraram seus esforços no aperfeiçoamento de
softwares inteligentes.
Para eles, a mente era distinta do cérebro da mesma maneira que o
aparelho de rádio é diferente da música que ele toca. Não se pode
reduzir a música às peças do rádio. Mente e cérebro são diferentes –
embora ambos pertençam ao mundo material (sons e peças) – da
mesma maneira que software é diferente de hardware. A mente é o
software do cérebro. Essa era a filosofia dos pesquisadores da IA nas
décadas de 1960 e 1970.
Um dos grandes produtos da IA simbólica foram os sistemas
especialistas. Eles são solucionadores de problemas acoplados a
imensos bancos de memória, nos quais o conhecimento humano acerca
de determinada área ou disciplina encontra-se estocado. Esse
acoplamento permite ao sistema especialista responder a consultas,
fornecer conselhos para leigos (sobre determinado assunto), ajudar os
especialistas humanos e até mesmo auxiliar no ensino de uma
disciplina ou área de conhecimento específica.
Alguns sistemas especialistas ficaram famosos na década de 1970,
como foi o caso do Mycin e do Prospector. O Mycin foi um sistema
especialista desenvolvido para receitar medicação para pacientes com
infecções bacterianas. O Prospector foi um sistema especialista
construído para auxiliar os geólogos. Ele foi muito bem-sucedido: em
1980, possibilitou a descoberta de uma reserva de um metal raro num
local próximo a Washington, que até então tinha sido apenas
parcialmente explorado.
Mesmo assim o interesse pela IA simbólica não durou muito. Foi
até meados da década de 1980, quando, como já dissemos, começaram
os problemas com as máquinas de tradução. Muitos teimam em dizer
que essa espécie de IA está superada, mas isso é errado. Convivemos
com ela no nosso dia a dia. Ela deixou muitas heranças das quais
usufruímos: programas computacionais para efetuar cálculos de
engenha​ria, para jogar xadrez (os enxadristas de Newell e Simon
foram uma grande realização da IA simbólica) etc. Muitas dessas
aplicações tornaram-se tão cotidianas que sequer sabemos que elas se
originaram de estudos de inteligência artificial iniciados na década de
1960 e 1970. Todas elas incorporavam – e ainda incorporam – a
estratégia da força bruta, que, como dissemos, está ressurgindo neste
início de século.
Passando também a ser saudosamente chamada de GOFAI (Good
and Old Fashioned Artificial Intelligence, ou Velha e Boa Inteligência
Artificial, em tom às vezes pejorativo ou às vezes carinhoso), a IA
simbólica foi, no final dos anos 1980, duramente criticada. Achava-se
que esse modelo de inteligência, baseado na manipulação de símbolos
e na memória, estava incorreto. Muitos pesquisadores – que
identificavam a GOFAI com a totalidade da IA – chegaram a acreditar
que qualquer pesquisa visando a simulação da inteligência humana
estaria fadada ao fracasso. Mas a história prosseguiu.
Se primeiro veio a máquina de manipular símbolos, depois veio a
tentativa de imitar o cérebro humano. O segredo da nossa inteligência
estaria na fisiologia de nosso cérebro. Nele predominam neurônios e
ligações entre eles, as conexões sinápticas. É no número delas que está
a chave da inteligência. O cérebro do elefante pode ser muito maior do
que o nosso, mas tem muito menos conexões sinápticas. Essa é a
explicação de por que somos muito mais inteligentes do que esses
animais.
Dessa ideia surgiu, no começo dos anos 1980, a inteligência
artificial conexionista, a segunda onda da IA. Não mais se pensava em
imitar a mente por meio de símbolos. Tratava-seagora de criar um
modelo simplificado de cérebro, construindo redes neurais a partir de
neurônios artificiais ou neuron-like units.
Tanto computadores quanto cérebros são sistemas cuja função
principal é processar informação; portanto, a utilização de redes
artificialmente construídas para simular o processamento cerebral
possibilitaria a criação artificial de um modelo bastante aproximado
do cérebro humano. Esse tipo de rede constitui um intrincado conjunto
de conexões entre esses neurônios artificiais, os quais são dispostos em
camadas. Os neurônios artificiais estão conectados entre si, podendo
ser ativados ou inibidos através das conexões. A rede funciona como
um sistema dinâmico, ou seja, o estímulo inicial espalha excitações e
inibições entre os neurônios artificiais. Dado determinado estímulo,
diferentes estados podem ocorrer como consequência de mudanças nas
conexões, variando de acordo com a interação do sistema com o meio
ambiente e com seus outros estados internos. Em alguns tipos de rede,
esse processo não para até que um estado estável seja atingido.
Os conexionistas têm uma visão de mente, inteligência e memória
muito diferente da dos partidários da IA simbólica. Para eles, não há
distinção entre mente e cérebro, pois o mental emerge do cerebral; a
inteligência surge do aumento da conectividade entre os neurônios, e a
memória é algo distribuído na rede artificialmente construída.
Uma analogia que nos ajuda a entender como a mente pode emergir
do cérebro vem da observação do que ocorre com a água. Sabemos que
a água, se refrigerada a uma temperatura inferior a 0 grau centígrado,
torna-se gelo. Passa do estado líquido para o sólido. As propriedades
da água no estado sólido são diferentes das da água em estado líquido.
A solidez e a impenetrabilidade são exemplos de propriedades que
ocorrem quando ela se encontra em estado sólido – propriedades que
não são comuns ao estado líquido. Será “ser sólido” o resultado da
alteração de cada um dos átomos da água? É bem provável que, para
produzir a solidez, cada um dos átomos da água tenha de sofrer uma
alteração. Entretanto, “ser sólido” não parece ser uma propriedade
que poderia ser aplicada individualmente a cada um dos átomos da
água, pois não parece fazer sentido dizer que “um átomo é sólido”,
embora cada um deles concorra para a produção da propriedade “ser
sólido”. Neste sentido específico, solidez é uma propriedade emergente
da água quando esta é transformada em gelo.
Outra inovação introduzida pelos conexionistas é sua concepção de
memória distribuída. Uma lembrança consiste de vários elementos que
estão espalhados numa rede. Quando se invoca um, vários elementos
da rede também são invocados, até a lembrança completa se formar. A
plausibilidade da memória distribuída torna-se evidente no célebre
caso da “memória da vovó”: se todas as minhas memórias acerca de
minha avó estivessem estocadas localmente, ou seja, em apenas um
neurônio no meu cérebro, e se por acaso esse neurônio desaparecesse
ou se degenerasse, no dia seguinte eu seria incapaz de reconhecer
minha avó. Tal fato não ocorreria se minhas memórias acerca de
minha avó estivessem distribuídas numa rede; no máximo, eu me
tornaria incapaz de me lembrar de alguma característica específica de
minha avó ou de algum evento relacionado com a sua vida.
A terceira onda da IA, ainda no século XX, foi a robótica. Ela teve
um grande desenvolvimento a partir dos anos 1990 no laboratório de
inteligência artificial do MIT. Havia um grupo de pesquisadores que
estava preocupado em criar máquinas que se locomovessem e
interagissem com o meio ambiente, sem que fossem inteiramente pré-
programadas, algo bem diferente do que se dispunha na época. Eles
desenvolveram toda uma geração de minúsculos robôs-insetos com
essa finalidade e, mais recentemente, dedicaram-se à produção do
COG, o robô humanoide completo.
A robótica, além da GOFAI, tornou-se o outro movimento forte na
IA do século XXI. Robôs são máquinas que não apenas pensam, mas
que também agem. A ideia geral da robótica é a de que não haveria
inteligência sem corpo.
Há quem acredite que a robótica e a GOFAI são movimentos
opostos, pois quem defende a GOFAI acha que a inteligência não
precisa de um corpo. Mas isso ainda não foi resolvido. Há robôs que
não têm corpo e outros que só têm corpos virtuais. Por exemplo,
chamamos de robôs algumas ferramentas de busca de dados (web bots
ou knowbots) na internet, que certamente não têm corpo. Robôs que
só têm corpos virtuais são avatares, que encontramos em salas de bate-
papo ou mesmo na TV. Esse é o caso de Eva Byte, um avatar da rede
Globo, muito popular, e que só tem um corpo virtual.
Modelo de robô
Na última década, a robotica deu passos gigantescos. A construção
de robôs permitiu que se superassem alguns problemas tradicionais da
IA como, por exemplo, a ausência de emoções nas suas simulações.
Durante anos, a IA havia sido acusada de não dotar computadores de
emoções, o que marcaria uma diferença essencial entre máquinas e
humanos.
Os robôs Oz e Kismet vieram preencher essa lacuna. Eles são
experimentos notáveis na área de computação afetiva. Oz vem sendo
desenvolvido na Universidade Carnegie Mellon, nos Estados Unidos,
desde o final da década de 1980. Ele foi criado para apresentar
comportamentos intencionais, emocionais e ser capaz de usar a
linguagem comum. Oz tem um módulo de controle das emoções que
avalia o quanto um evento pode ser prazeroso para ele, o quanto uma
ação sua ou de outra pessoa/robô pode ou não ser prazerosa e,
finalmente, ele tem também condições de desenvolver relações sociais
básicas.
Kismet, que foi desenvolvido no MIT, toma como ponto de partida
que as emoções são um instrumento fundamental que servem de guia
para facilitar a sobrevivência dos organismos. Emoções negativas são
uma forma de evitar eventos e comportamentos prejudiciais e as
positivas indicam um caminho para o bem-estar. Kismet trabalha com
seis emoções básicas: ódio, nojo, medo, alegria, desgosto e surpresa.
Um dos aspectos mais interessantes desse robô é sua capacidade de
interagir com humanos e gerar uma espécie de empatia mútua.
Há outras novidades em desenvolvimento na robótica neste início
de século, como, por exemplo, Klaus, o robô motorista. Nas próximas
décadas, robôs motoristas virão como opcionais nos carros, e Klaus é
o modelo que está sendo desenvolvido pela Volkswagen. Ele é um robô
humanoide com três pernas e quatro braços. Há uma perna para cada
pedal, dois braços para controlar a direção, um para trocar as marchas
e um para a ignição. O itinerário do carro é previamente estabelecido
por um GPS, e Klaus deve fazer o percurso evitando outros carros e
possíveis obstáculos. No caso de ele falhar, há um copiloto virtual que
imediatamente assume o comando, o que impede que acidentes
aconteçam.
Além de Klaus, outra grande novidade esperada são as robôs
Repliee desenvolvidas no Japão. Elas pertencem a uma série de robôs
humanoides, projetados para servir de “companheiras”, em
substituição às mulheres. As Repliee serão dotadas de emoções,
linguagem, personalidade própria e conviverão conosco no dia a dia.
Haverá também ro​bôs homens, que se tornarão companheiros das
mulheres. Nossa vida sexual com os robôs pre ​cisará ser estudada e
novos campos de pesquisa em psicologia se abrirão, pois nosso
envolvimento emocional com essas novas criaturas será também
inevitável. O amante transexual poderá ser um problema para a IA,
pois nele há um descompasso entre software e hardware, em matéria
de identidade. Nesse caso, parecer não é ser, o que significa romper
com um dos princípios fundamentais da IA.
Ainda assim, viveremos, nesse estágio, em mundos separados: ainda
não nos misturamos efetivamente com as máquinas. Essa mistura
começa quando a IA se alia com a engenharia genética. Quando se
percebeu que o código genético é binário, ou seja,que é o mesmo tipo
de código utilizado pelos computadores, entramos na quarta onda da
IA.
A junção da IA com a engenharia genética está nos levando para a
época do pós-humano, com o aparecimento de androides e cyborgs.
Androides serão aqueles nos quais a parte biológica prevalece e eles
poderão ser controlados (alguns comportamentos e QI, por exemplo),
interferindo-se no seu código genético. Suas diferenças com os
humanos serão imperceptíveis. Cyborgs são os híbridos, ou seja,
aqueles nos quais se misturam partes orgânicas e inorgânicas. Nos
cyborgs, ocorre a parabiose ou mistura do humano com a máquina,
quase sempre algum tipo de computador. Em geral, são os corpos
humanos que servem de base para as máquinas, mas há alguns casos
nos quais os humanos podem até tornar-se parasitas do computador,
dependendo da proporção entre orgânico e inorgânico.
Há duas maneiras de nos misturarmos com as máquinas:
expandindo nosso cérebro através de implantes de chips e nanochips
ou transformando nossos circuitos cerebrais em supercomputadores.
Poderíamos fazer isso modificando as ligações entre nossos neurônios
(sinapses), transformando-as em circuitos de um supercomputador.
Mas há outra estratégia. Para usar um termo mais familiar para quem
sabe um pouco de ciência da computação: podemos montar uma
máquina virtual mais poderosa, usando como base o cérebro humano.
Para montar uma máquina dessa espécie, a partir do cérebro, talvez
possamos usar algum vírus semelhante aos vírus de computador, que
se apossam das máquinas das pessoas, para depois fazer com que elas
executem determinadas tarefas sem que seus donos percebam. Esses
vírus invadiriam o cérebro, modificando-o, ou poderiam também
tomar a forma de micromáquinas invasoras que modificariam nosso
cérebro em nível molecular. Um enxame dessas micromáquinas, ou
nanomáquinas, poderia invadir nosso corpo.
Nanomáquinas
Dessa mistura com máqui ​nas, resultarão dois tipos de cyborgs: um
primeiro mais inteligente que os humanos e outro tipo quase humano,
menos capaz do que nós. Ambos serão construídos sobre “plataformas
humanas” – cérebros/corpos humanos modificados. O homem torna-se
o melhor modelo do humano. No caso do primeiro cyborg, isso
significa expansão de memória e aumento de velocidade do cérebro.
Serão aperfeiçoamentos importantíssimos, pois o cérebro humano não
evolui há 200 mil anos. Ele é o mesmo cérebro de quando vivíamos em
bandos pelo planeta, caçando e fugindo de animais ferozes. Com esse
cérebro obsoleto, não conseguimos, hoje em dia, processar a enorme
quantidade de informação necessária para sobreviver na sociedade pós-
moderna.
O segundo tipo de cyborg é o humano com um cérebro
simplificado, ou seja, um cérebro subutilizado porque uma parte dele
foi tornada um computador programado para realizar tarefas simples.
Esses cyborgs têm cérebros parcialmente humanos (híbridos, meio
orgânico meio máquina) ligados a corpos complexos como os nossos.
Nosso corpo é um dos melhores robôs já produzidos pela natureza,
além de existir em relativa abundância. Talvez a melhor palavra para
designar esse tipo de cyborg seja semi-humano. Eles serão bons para
realizar tarefas de alto risco. Eles também resultariam da invasão de
cérebros humanos por vírus ou nanomáquinas. Contudo, para
construí-los, o melhor processo seria, pelo menos no estágio inicial de
obtenção da plataforma, a clonagem, para evitar problemas éticos que
surgiriam da utilização de cérebros humanos vivos.
Há uma previsão de que nos tornaremos cyborgs an​tes do fim do
século XXI. Será difícil nos distinguirmos dos robôs que nós mesmos
construiremos, pois homem e robô já estarão muito misturados. A
associação entre corpo e máquina já começou há décadas, quando
começamos cada vez mais a usar próteses. Mas também começou a
associação entre máquinas e corpos, ou seja, máquinas que se
estendem para o mundo do orgânico. Na verdade, máquinas biológicas
nas quais ocorre essa associação inorgânico/orgânico começaram a ser
construídas já há algum tempo.
Na década passada, na Uni ​versidade da Geórgia, nos Estados
Unidos, uma máquina desse tipo já tinha sido desenvolvida utilizando-
se o cérebro de larvas. Microeletrodos foram introduzidos nos
neurônios das larvas e o resultado de sua atividade elétrica foi
conectado às portas lógicas de um chip. Inicialmente esse tipo de
máquina, chamado de leechulator só podia realizar operações
matemáticas simples. Contudo, outros projetos de máquinas
biológicas, que usavam bacilos ou micróbios para realizar
computações, começaram a aparecer.
Há ainda um tipo mais radical de máquina biológica que está sendo
desenvolvido na Science Applications International Corporation, nos
Estados Unidos. Lá estão sendo feitas culturas de neurônios humanos
em superfícies lisas e espera-se que elas comecem a se ramificar,
formando conexões sinápticas. A pergunta é quanto tempo esse
processo levaria até formar um cérebro, mas os pesquisadores não
acreditam que essa seja uma questão importante. A maior parte do
genoma do cérebro humano é redundante e alguns acreditam que os
principais algoritmos dos quais ele se utiliza para pensar cabem num
arquivo do tamanho do Microsoft Word. Se tivermos sorte e as partes
relevantes logo forem formadas, em breve teremos um cérebro
pensante o qual poderemos acoplar a uma máquina ou a um corpo
humano.
Mas, neste começo de século, enquanto os androides e cyborgs
ainda não aparecem, a tendência da IA é a volta aos grandes
manipuladores de símbolos. Deep Blue parece marcar o início dessa
era, que talvez seja curta na história da IA. É a força bruta aliada ao
har ​dware poderoso. A eficiência superando o raciocínio. A inteligência
vista como memória e processamento rápido/eficiente de informação.
Era esse o modelo de inteligência de nossos trituradores de símbolos
nos anos 1960 e 1970. Uma inteligência que, na época, não foi tão
brilhante quanto o Deep Blue.
Senhoras e senhores, a GOFAI está de volta, e desta vez com super-
hardwares ou Super-Crunchers!
CONTINUAR A PENSAR
Peça para o seu professor passar o filme Blade Runner: o Caçador de
Androides. Ele narra uma história de amor entre um humano e uma
androide. Em seguida, discuta: por que não poderíamos amar um
robô? Será tão estranho amar uma máquina se, afinal, já sentimos
ciúmes de carros e de máquinas fotográficas?
5.
O que dizem os filósofos
Os intelectuais nunca viram com bons olhos a IA. Talvez porque
humanistas e filósofos prezem muito o pensamento e achem que ele
deva ser propriedade exclusiva da espécie humana. Eles parecem não
ter percebido que máquinas pensantes são, na verdade, grandes
realizações da razão humana e que, quando jogamos xadrez com um
dispositivo como, por exemplo, Deep Blue, não confrontamos uma
máquina, mas temos, de fato, um grande desafio que o ser humano se
pôs a si mesmo.
Por causa dessa resistência à IA, apareceram vários argumentos
tentando mostrar que ela é impossível e que robôs nunca replicarão
completamente os humanos. Há dois deles que se destacaram: o
argumento do quarto chinês, de John Searle, e o argumento do insight,
de Roger Penrose.
No início da década de 1980, o filósofo americano John Searle fazia
uma viagem de avião para uma cidade da Califórnia, na costa oeste
dos Estados Unidos, quando teve uma intuição acerca de um dos
problemas mais importantes que os teóricos da IA tinham deixado
passar despercebido.
Searle preparava, a bordo do avião, uma palestra que seria
apresentada em um simpósio de IA. Ele estava muito impressionado
com uma série de programas computacionais que estavam sendo
desenvolvidos em algumas universidades americanas. Esses programas
tinham sido projetados com uma finalidade específica: compreender
estórias.
Assim, por exemplo, se alguém fornecesse o seguinte relato a um
programa de computador projetado para compreender estórias: “Um
homem entra num restaurante,pede um sanduíche e sai sem pagar
nem deixar gorjeta porque notou que o pão estava amanhecido” – o
programa era construído de tal maneira que o computador
“responderia” coerentemente a questões elaboradas com base no texto
da estória. Ou seja, tudo se passava como num exercício de
interpretação de textos daqueles que costumam cair em exames
vestibulares. A diferença era que a interpretação do texto era efetuada
por um computador, convenientemente programado para fornecer
respostas adequadas.
Tudo isso não teria nada demais se os autores deste tipo de
programas não sustentassem que essas máquinas eram capazes de
compreender as estórias que lhes eram fornecidas, e que tais
programas funcionam exatamente como seres humanos: eles podem
compreender textos.
Searle não se conformou com esse tipo de afirmação e elaborou um
argumento filosófico – o Chinese Room Argument (Argumento do
Quarto Chinês) – para mostrar que a ideia de que tais programas
simulavam a atividade humana de compreender estórias e textos era
completamente equivocada. A ideia central do argumento é inverter a
situação de simulação e imaginar a tarefa executada pelo computador
sendo realizada por um ser humano.
Imaginemos então uma pessoa trancada num quarto que não tem
portas nem janelas, apenas duas portinholas em paredes opostas. Esta
pessoa fala apenas português, mas alguém lhe fornece um texto em
chinês e uma espécie de tabela com regras e truques (escritos em
português) para que ela, a partir de sentenças escritas em chinês,
gerasse novas sentenças em língua chinesa. De vez em quando, abre-se
uma das portinholas do quarto e alguém fornece a essa pessoa um
novo texto escrito em chinês.
O ocupante do quarto, a partir do texto inicial escrito em chinês e
dos novos textos que foram introduzidos, gera um terceiro texto em
chinês usando as regras de transformação que estão na tabela. Como o
processo é repetido regularmente, ele vai adquirindo uma habilidade
muito grande no manejo das regras de transformação.
Ora, essa situação corresponde ao que ocorre no interior de um
computador dotado de um programa para compreender estórias: o
texto inicial, que está com a pessoa trancada no quarto, corresponde à
estória que é fornecida ao computador. As novas sentenças que são
geradas com base nas regras de transformação podem muito bem ser
as respostas às perguntas que foram feitas com base no texto.
Ocorre que a pessoa que está no interior do quarto, manipulando a
tabela com as regras de transformação, embora produza sentenças que
são respostas adequadas às perguntas sobre o texto em chinês, não
compreende chinês. A pessoa não compreende o texto inicial em
chinês, tampouco as repostas que são geradas. Tudo se passa de
maneira parecida ao incidente do macaco que penetrou numa fábrica
de máquinas de escrever e, apertando teclas ao acaso, acabou
produzindo o texto do Hamlet de Shakespeare. Diz-se que o macaco
não tinha a menor ideia do texto que estava produzindo. À diferença
da tabela com as regras de transformação, o mesmo acontece na
situação da pessoa trancada no quarto – uma situação imaginária que
nada mais faz do que ilustrar, de forma mais didática, o que ocorre no
interior dos computadores com seus programas.
Da mesma maneira que uma câmara de televisão não vê nada, mas
apenas reproduz imagens às quais nós atribuímos interpretações, os
programas elaborados para compreender estórias na verdade nada
compreendem. Eles apenas manipulam símbolos – símbolos que não
têm nenhum significado para a máquina. Trata-se de uma
manipulação de símbolos inteiramente cega. Dizer que uma máquina
compreende ou enxerga é, no entender de Searle, um grande equívoco.
É o mesmo que dizer que um papagaio fala, quando ele na verdade
apenas emite sons que são imitados após muitas repetições.
Mas o que faz com que nós, seres humanos – à diferença das
máquinas – possamos compreender, enxergar e gerar significado para
nossa linguagem, nossos pensamentos e nossas ações? Os filósofos
chamaram a essa faculdade de intencionalidade – uma propriedade que
caracteriza nossos estados mentais. A intencionalidade se manifesta à
medida que sabemos a que se referem nossos estados mentais. Quando
falamos, não estamos apenas emitindo sons: sabemos do que estamos
falando e que nossas palavras se referem a coisas que estão no mundo.
Todos os nossos pensamentos – sejam expressos em palavras ou não –
têm conteúdos que apontam para coisas ou situações do mundo. É
impossível estar pensando sem estar pensando em alguma coisa. E
quando estamos pensando, sabemos selecionar, entre nossos estados
mentais, aqueles que apontam para objetos que estão à nossa volta e
aqueles que são mais distantes, como, por exemplo, os conteúdos da
nossa imaginação. De qualquer maneira, há sempre uma
direcionalidade, algo como um apontar para fora de nós mesmos que
faz com que nossos pensamentos adquiram significado ou sentido.
Dizer que o significado é um produto da intencionalidade não ajuda
muito se não sabemos como e por que nossos pensamentos têm essa
propriedade. Sobre esse ponto, sempre martelaram os pesquisadores da
IA que nunca aceitaram o argumento do quarto chinês. Além disso,
eles tinham várias outras objeções.
Quem me garante que sempre compreendo o que falo? Por acaso
muitos de nossos processos mentais cotidianos não são tão rotineiros
que os fazemos por associação tão mecânica e cega como as do
computador? Não serão as operações que ocorrem no meu cérebro,
quando compreendo algo, tão cegas quanto as que ocorrem no
computador? Por acaso tenho acesso ao que se passa no meu cérebro
quando estou compreendendo alguma coisa?
E como podemos saber se alguém está realmente compreendendo o
que faz? Pelas suas declarações? “Sim, eu compreendo o que faço
quando respondo a uma pergunta sobre o texto”. E uma máquina não
poderia ser programada para fornecer essa declaração? O que nos
resta é a observação do comportamento, seja ele o de um ser humano
ou de uma máquina. A vida interior de um outro ser humano é algo a
que temos um acesso muito limitado. Aliás, nossa própria vida interior
é algo sobre o que pouco sabemos.
Essas objeções nunca conseguiram refutar inteiramente o argumento
de Searle. Mas ele nunca foi inteiramente aceito.
A segunda objeção, a do insight, feita por Penrose, não é muito
diferente. Se concebermos insight como uma compreensão instantânea
entenderemos o motivo. Penrose diz que um computador não pode ter
insight. Ele pode até gerar informações novas, a partir do cruzamento
de informações que tem na sua memória, mas nunca uma informação
nova acompanhada de um insight. A partir daí, ele afirmou que certos
problemas matemáticos, por requererem insight, nunca poderiam ser
resolvidos por máquinas.
Penrose toma como modelo de insight os “Eurecas!” que ocorrem
nas demonstrações matemáticas. Esse seria um privilégio humano que
uma máquina nunca poderia igualar. Seu exemplo predileto são os
teoremas descobertos na década de 30 pelo matemático austríaco Kurt
Gödel (1906-1978). Mas Penrose parece se esquecer de que insight não
é coisa apenas de matemáticos, embora, aparentemente eles os tenham
mais. Filósofos também têm insights.
Tome a frase “Penso, logo existo”. Você já deve ter ouvido falar
dessa frase. Ela é considerada um dos maiores insights da filosofia
ocidental. Foi proferida pelo filósofo francês René Descartes em 1641.
Descartes era um homem que se pôs a duvidar de tudo. A dúvida é a
primeira grande expressão do poder da razão. Pode-se duvidar de
tudo, a começar daquilo que nos é transmitido pelos sentidos, por
nossas sensações. A dúvida vai demolindo as certezas habituais, num
processo progressivo. Posso duvidar das minhas sensações, duvidar até
mesmo se o mundo que me é dado pelas sensações seria realidade ou
apenas uma fantasia da minha mente. A dúvida sistemática, ou a
dúvida hiperbólica, como diria Descartes, seriao instrumento da
minha razão para combater um gênio maligno, uma figura alegórica
que simbolizaria a tentativa persistente e habilidosa de meus sentidos e
de meus próprios raciocínios, que poderia levar-me ao engano ou ao
falso conhecimento.
René Descartes
Por exemplo, minhas sensações, quando estou acordado, são tão
vívidas como quando estou sonhando. Assim sendo, como poderia eu
distinguir entre sonho e vigília? Não haveria nenhuma marca que me
permitiria saber se as impressões que tenho estão ocorrendo durante
minha vigília ou durante um sonho. Nada me garante que eu esteja
acordado quando penso que estou; meu sonho teria o poder de me
convencer até mesmo de que eu estaria acordado quando sonho. Ou
seja, quando penso que estou acordado, poderia estar sonhando um
sonho no qual tudo se passaria como se eu estivesse acordado.
Poderíamos imaginar esse gênio maligno como um neurocientista
perverso que, através de um implante cuidadoso de eletrodos no meu
cérebro, poderia produzir em mim vários tipos de sensações, a
começar por sensações visuais ou experiências de estar percebendo
alguma coisa diante de mim, mesmo que eu estivesse
momentaneamente cego. Eu perceberia coisas, a despeito de elas não
estarem diante de mim e eu não poder enxergá-las. Esse neurocientista
tornar-se-ia um verdadeiro gênio maligno se, através do implante
desses eletrodos, ele reproduzisse o modo como as sensações são
encadeadas numa sequência que imitasse perfeitamente uma percepção
real e ordenada do mundo. Certamente esse neurocientista teria de
desenvolver uma técnica bastante sofisticada, para determinar com
precisão o local e a sequência em que os eletrodos teriam de ser
implantados em meu cérebro, de modo a produzir uma alucinação tão
bem estruturada que eu nunca pudesse saber se estaria alucinado ou
não.
Ora, o grande insight de Descartes é que não posso duvidar que
duvido; disto ele infere sua frase mais célebre, o “Penso, logo existo”
ou o “Cogito ergo sum”. Esse é o grande insight, a certeza que
ninguém pode me arrancar. Penso, logo existo. Isso porque podemos
duvidar de qualquer coisa, até mesmo se o mundo existe ou se 2 + 2 =
4, mas não podemos duvidar que estamos duvidando, ou seja, não
podemos duvidar que pensamos ao formular nossas próprias dúvidas,
pois dúvidas são pensamentos. Assim sendo, é impossível pensar que
não pensamos, pois neste caso estaríamos incorrendo numa
contradição. Penso, logo existo é uma proposição única e peculiar, na
medida em que não é possível negá-la.
Ora, o argumento de Penrose poderia ser reescrito mais ou menos
da seguinte forma: será que um robô poderia ter esse insight
semelhante ao que Descartes teve em 1641? Um insight cuja força
mudaria toda a história da filosofia que veio depois dele? Bem, contra
Penrose, poderíamos imediatamente alegar: será que a algum de nós
poderia ocorrer novamente esse insight ao ler os textos que Descartes
escreveu em 1641?
Suponhamos que você esteja andando pela rua e encontre um robô
que lhe diz: “Penso, logo existo!”. Certamente você não acreditaria
que ele estava tendo um insight. Mas isso não parece ser muito
diferente no caso dos humanos. Será que precisamos ter um “Eureca”
para entender Descartes quando o lemos? Ou precisamos que um robô
tenha um insight igual a um que ocorreu há quase 500 anos para se
igualar a um ser humano?
Da mesma maneira, poderíamos perguntar: será que toda vez que
um matemático demonstra pela primeira vez os teoremas de Gödel
ocorre necessariamente um insight?
Penrose acha que os humanos têm vários tipos de insights,
principalmente quando estão resolvendo problemas matemáticos. Mas
ele nunca nos disse o que seria esse insight. Uma boa hipótese é que ele
poderia ser o processamento de informação a uma velocidade
altíssima, quase instantânea, próxima à da luz, que ocorreria no
cérebro humano, pois nele ocorreriam fenômenos quânticos. As
máquinas digitais que temos hoje não seriam capazes desse
processamento em velocidade altíssima. Nesse ponto Penrose está
certo. Elas não têm insight, da mesma forma que não têm
compreensão (segundo Searle). Mas talvez Penrose tenha de rever seu
argumento quando a construção de computadores quânticos estiver
aperfeiçoada. Pois ele mesmo acredita que humanos têm insight
porque no nosso cérebro ocorrem fenômenos quânticos...
Mas há ainda as objeções levantadas contra a IA por alguns
biólogos. Eles tentaram traçar uma linha divisória entre máquinas e
seres vivos, buscando características dos seres vivos que não poderiam
ser replicadas pelas máquinas. Inicialmente supôs-se que essa
característica poderia ser a autorreplicação. Mas essa hipótese teve
logo de ser abandonada. Os vírus se autorreplicam e podem se
multiplicar rapidamente pela internet. Além de se autorreplicar, eles
têm também a capacidade de mudar de forma, como os vírus dos seres
vivos.
Mas há alguns biólogos que acreditam que existiria uma
propriedade dos seres vivos que as máquinas nunca poderão replicar: a
morfogênese. Os organismos, quando nascem e crescem, “sabem” qual
a forma que irão tomar. A mesma coisa acontece no processo de
regeneração. Ao olharmos o conteúdo de um ovo, se não soubermos de
que tipo de organismo ele é, não poderemos ter nenhuma ideia de qual
animal crescerá a partir daquelas células. O código genético de todos
os animais é praticamente igual.
Tudo se passa como se suas partes soubessem sua finalidade e
fossem se ajustando aos poucos. Nas máquinas, as partes que são
montadas permanecem separadas, não ocorre nenhum tipo de
interação entre elas após a montagem. Tampouco poderíamos
imaginar uma máquina cujas partes se desenvolvessem de acordo com
algum plano que não estivesse em alguma parte dessa máquina ou
tivesse sido fornecido a ela de antemão. Uma máquina não cresce. Ela
não assimila material do meio ambiente. Além das partes não
interagirem, o desenvolvimento dessa máquina estaria sujeito ao
acréscimo externo de peças de acordo com o plano de algum
engenheiro, e não de acordo com algum plano da própria máquina.
Essa seria uma das diferenças fundamentais entre máquinas e seres
vivos.
Essa propriedade dos seres vivos – a morfogênese – sempre foi um
tema que fascinou os biólogos e até mesmo Turing, que não era
biólogo, mas se ocupou dela no final de sua vida. Como é possível a
morfogênese? Será que o crescimento, a assimilação e o metabolismo
são propriedades únicas dos seres vivos que marcam uma linha
divisória com as máquinas? Essas são perguntas que alguns biólogos
têm formulado nas últimas décadas.
Pouco se sabe sobre a morfogênese e se ela realmente ocorre “de
dentro para fora”. É possível que as formas que temos agora não
tenham sido conseguidas por nenhum plano interno dos organismos,
mas por milhões de tentativas e erros que foram selecionadas pela
evolução, e em seguida passaram a ser transmitidas para outras
gerações a partir do código genético. Mas, nesse caso, isso poderia ser
imitado num computador. Há programas que simulam a evolução
biológica e que podem fazer com que as melhores formas sejam
herdadas pelas gerações seguintes. Nesse caso, a morfogênese perderia
grande parte de seu mistério e deixaria de ser uma característica
exclusiva dos seres vivos.
CONTINUAR A PENSAR
Faça uma pesquisa na internet sobre o tema “vida artificial”. Em
seguida reflita: se os processos vitais são processos físico-químicos
que podem ser simulados por um programa de computador, você
acredita que um computador possa replicar a vida? Ou será que a
vida é propriedade exclusiva de seres cuja base química é o carbono,
ou seja, o tipo de vida que encontramos na Terra? Se admitirmos que
uma máquina pode pensar, porque não podemos admitir que ela
adquira vida?
Epílogo
Quando digo que a GOFAI está de volta não estou afirmando que a
IA está voltando aos anos 1970. Estou dizendo não apenas que os
pesquisadores estão reconsiderandoa inteligência artificial simbólica,
como também que uma de suas hipóteses centrais está sendo
retomada: a de que será possível replicar a mente humana em
dispositivos artificiais. Essa é a chamada hipótese da inteligência
artificial no sentido forte (Strong AI) na qual se acreditou muito nos
anos 1970 e 1980. A volta da IA forte nos dias de hoje se deve não
apenas aos super-hardwares da GOFAI, mas também à robótica, que
cada vez mais nos leva a acreditar que a replicação da inteligência
humana e sua superação ocorrerá em menos tempo do que
imaginamos.
O desenvolvimento da IA trará mudanças dramáticas nos próximos
anos. Uma de suas fronteiras atuais é a nanotecnologia.
Nanotecnologia é a construção de máquinas do tamanho de um
átomo. “Nano” significa um bilionésimo de metro, largura de cinco
átomos de carbono. A construção de nanorrobôs está sendo um passo
decisivo para a IA.
O impacto social da nanotecnologia será imenso. Máquinas do
tamanho de uma molécula poderão se reproduzir e produzir qualquer
tipo de objeto. Elas precisarão apenas de matéria-prima e de um
software que descreva o objeto para que esse possa ser montado. Com
isso será possível produzir comida pronta, roupa, computadores e
assim por diante. O custo desses bens de consumo cairá muito. E cairá
vertiginosamente na medida em que essas máquinas de produzir
objetos forem se reproduzindo a si mesmas.
Rapidamente, sairemos do mundo da escassez para o da
hiperabundância. Haverá mudanças sociais dramáticas: com a
hiperabundância, os políticos muito pouco terão a prometer; a própria
política talvez desapareça. Teremos então ultrapassado a pré-história
da humanidade, na qual vivemos mergulhados até hoje. Muitas
pessoas nas sociedades hiperabundantes terão problemas psicológicos,
pois a relação com o trabalho ainda é complexa em nossas sociedades.
O Terceiro Mundo terá de aguardar o preço dessa tecnologia baixar
ou apostar que seus terroristas virem hackers e que, em vez de
continuarem a explodir carros-bomba, pirateiem esses softwares pela
internet.
Num futuro próximo, a nanotecnologia possibilitará que várias
ciências se integrem entre si no estudo do ser humano. Nanorrobôs
nos proporcionarão um conhecimento muito maior do nosso cérebro,
podendo mapeá-lo de dentro para fora. Eles ampliarão também o
conhecimento sobre nosso código genético e permitirão eventualmente
alterá-lo para que deixemos de ter certas doenças e de envelhecer.
Nosso código genético deve ser a base para que compreen​damos as
culturas humanas. Elas são complexos sistemas simbólicos cujo
mapeamento talvez possa, algum dia, relacioná-los com as estruturas
primordiais de nossas linguagens. Talvez cheguemos à conclusão de
que o código genético contém nossa gramática primordial, de onde se
derivaram todos os sistemas simbólicos que compõem nossa cultura, a
começar pela linguagem. Nosso código genético seria a matriz de
todos os códigos que utilizamos.
Mas precisaremos saber como esses símbolos se recombinam e
mantêm seu significado, estudo que é feito pela ciência cognitiva. A
ciência cognitiva estuda as estruturas de nosso pensamento e da nossa
linguagem. É bem provável que, no futuro, genética e ciência cognitiva
se aproximem muito, chegando a uma explicação quase completa da
natureza humana.
Mas será preciso ainda acrescentar mais uma ciência para
chegarmos à compreensão da natureza humana. Os seres humanos
interagem entre si e formam sociedades. É preciso estudá-las. O
caminho é construir simulações dessas sociedades em computadores.
Podemos simular a interação humana pelo estudo do comportamento
de bandos de microrrobôs. Já dispomos de sociedades experimentais
desenvolvidas em laboratório para testar teorias econômicas e
políticas. Às vezes, bandos de microrrobôs desenvolvem
comportamentos criativos jamais vistos antes. A IA já estuda esse tipo
de fenômeno: como a inteligência surge da interação social. Isso se
chama inteligência artificial social. Ela substituirá, progressivamente,
a sociologia.
A filosofia voltará a ter um papel importante nas sociedades
altamente digitalizadas, apesar de ter criticado muito a IA nas décadas
passadas. Os pesquisadores da IA precisarão cada vez mais dos
filósofos para desenvolver disciplinas como a roboética. Ela faz
algumas perguntas inquietantes: deverão as máquinas ter princípios
morais como nós? E quais deveriam ser eles? É bem provável que, se
embutirmos princípios éticos nos robôs, a ética se torne, pela primeira
vez, uma realidade para os humanos, deixando de ser algo que ocorre
somente no mundo encantado dos filósofos. (Por acaso princípios
éticos foram vigentes em algum momento da história da humanidade?)
As questões éticas serão ine ​vitáveis, sobretudo na medida em que
nos apegarmos aos robôs tanto quanto nos apegamos aos animais
domésticos. A interação afetiva e sexual entre homens e robôs trará
novas questões para o campo da relação entre humanos e máquinas.
Estaremos preparados para interagir com robôs dotados de emoções?
A julgar pelos nossos filmes de ficção científica, os humanos mal
conseguem lidar com a fúria dos robôs. O que dizer então de outras
emoções?
Nos próximos 30 anos, as pessoas carentes irão se apaixonar por
robôs. Alguns terão corpos físicos, mas outros apenas corpos virtuais.
Serão parceiros remotos, encontrados na internet, em salas de bate-
papo ou em outras situações. Em ambos os casos, estaremos diante de
robôs altamente sofisticados, que passam no teste de Turing, e muitas
pessoas quererão se casar com esses robôs. Será necessário legalizar o
casamento de humanos com robôs e esta será uma batalha jurídica tão
importante quanto a que busca legitimar o casamento gay.
A sociedade hiperdigitalizada enfrentará um dilema moral: como
classificar os semi-humanos? Serão eles (ou elas?) pessoas ou serão
apenas máquinas? Assim como hoje se luta pelo direito dos animais,
será preciso lutar pelo direito dos androides e dos semi-humanos. Mas
isso não bastará: eles precisarão também passar no teste de Turing
para saber se a eles podemos atribuir consciência, para então
podermos atribuir-lhes direitos semelhantes aos dos humanos.
Qualquer coisa que digamos agora será mera especulação. Precisamos
ainda aguardar algumas décadas até que essa fase do mundo pós-
humano, ou, para usar a denominação de alguns estudiosos, mundo do
pós-biológico, torne-se uma realidade e possamos aplicar o teste de
Turing nessas criaturas.
Continuaremos incessantemente procurando por brechas que
permitam nos diferenciar das máquinas e manter nosso lugar
privilegiado no universo. Uma delas, que perdurará ainda por muitos
anos, é nossa capacidade de fazer certas operações matemáticas de
divisão e multiplicação. Por exemplo, ao dividirmos 10 por 3,
encontramos 3,3333... Diremos, porém, que ao multiplicar o
dividendo de 10 por 3 obtemos 10, e não 9,9999... Um computador
não poderá fazer isso: para ele o dividendo de 10 multiplicado por 3
será sempre 9,99999... (Você veria outra possibilidade?)
Talvez isso nos distinga das máquinas para sempre. Roger Penrose
percebeu esse problema – que nada tem de inocente –, mas acabou se
enredando quando escreveu um livro de mais de 400 páginas para
tentar explicá-lo. Antes dele, o matemático Kurt Gödel, na década de
1930, já chamava a atenção para essa dificuldade e também achava
que ela marcava uma divisão profunda entre homens e máquinas.
Contudo, pretender estancar o progresso da IA é o mesmo que
querer impedir a decolagem de um Boeing com pedras e tacapes – algo
que só se passa na cabeça de alguns intelectuais arcaicos. Já houve
quem dissesse que a anatomia do homem é a chave da anatomia do
macaco. Hoje seria melhor dizer, talvez, que a anatomia do homem
será desvendada pela anatomia do robô, construído pelo próprio
homem. É isso que faz da inteligência artificial uma verdadeira ciência
humana, ou uma psicologia que extrapola os limites

Continue navegando