Buscar

Inteligencia artificial (Como l - Joao de Fernandes Teixeira

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 62 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 62 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 62 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Índice
Agradecimentos
Três	modos	de	jogar	xadrez
Entre	o	passado	e	o	futuro
O	teste	de	Turing
Dos	símbolos	à	parabiose
O	que	dizem	os	filósofos
Epílogo
Sugestões	de	leitura
Bibliografia
Agradecimentos
Aos	meus	amigos	Gustavo	Leal	Toledo	e	Paulo	Henrique	Fernandes	Silveira,
que	leram	a	primeira	versão	deste	livro.
Aos	meus	alunos	André	Sathler	Guimarães	e	Alessandro	Bender	Verrone.
A	Marco	Carlucci,	pela	sugestão	do	título.
À	minha	esposa	Malu.
À	Lizilda,	minha	assistente.
À	Suely	Molina,	pela	ajuda	com	a	última	versão	e	com	as	correções	finais.
O	homem	criou	o	homem	à	sua	imagem	e	semelhança.
Agora	o	problema	é	seu.
Autor	desconhecido
1.
Três	modos	de	jogar	xadrez
A	 inteligência	 artificial	 é	 uma	 tecnologia	 que	 fica	 a	 meio	 caminho	 entre	 a
ciência	e	a	arte.	Seu	objetivo	é	construir	máquinas	que,	ao	resolver	problemas,
pareçam	pensar.	Um	bom	exemplo	é	a	máquina	de	jogar	xadrez.
Jogo	de	xadrez
Há	três	modos	de	construir	um	dispositivo	que	jogue	xadrez:	fazer	com	que
um	 ser	 humano	 imite	 uma	máquina,	 construir	 uma	máquina	 que	 imite	 um	 ser
humano	ou	conseguir	que	uma	máquina	ultrapasse	a	mente	humana.	Esses	 três
modos	correspondem	a	máquinas	que	foram	construídas	nos	séculos	XIX,	XX	e
XXI.
O	primeiro	modo	tem	a	ver	com	uma	história	que	já	andei	contando	por	aí,	de
um	 certo	 barão	 von	 Kempelen,	 que	 tinha	 inventado	 uma	 máquina	 de	 jogar
xadrez	no	século	XIX.	Esse	tal	de	Kempelen	–	que	não	se	sabe	exatamente	se	era
um	 barão	 ou	 se	 o	 título	 era	 uma	 fraude	 –	 construiu	 uma	 grande	 caixa	 e	 nela
escondeu	um	anão	enxadrista.	No	topo	desta,	havia	um	tabuleiro	construído	com
disponibilidade	 tal	 que	 o	 anão	 poderia,	 olhando-o	 por	 baixo,	 ver	 toda	 a
movimentação	das	peças.	O	anão	podia	arrastá-las	pelo	 tabuleiro	sem	ser	visto
fazendo	as	jogadas	necessárias.	Quem	olhasse	para	a	máquina	nunca	suspeitaria
do	 que	 estava	 acontecendo	 de	 fato.	 Tudo	 se	 passava	 realmente	 como	 se
Kempelen	 tivesse	 criado,	 pela	 primeira	 vez	 na	 história	 da	 humanidade,	 uma
máquina	que	pudesse	 jogar	xadrez	–	uma	máquina,	 como	ele	proclamava,	que
imitava	o	pensamento	humano.	Ninguém	jamais	imaginaria	que,	dentro	da	caixa,
ocultava-se	um	ser	humano.
Kempelen	e	seus	auxiliares	exploraram	muito	sua	invenção.	Levaram-na	para
circos,	 percorreram	 toda	 a	Europa,	ganhando	 fortunas	 com	aquilo	que	deixava
todo	 mundo	 espantado.	 A	 notícia	 da	 existência	 da	 máquina	 de	 jogar	 xadrez
chegou	aos	ouvidos	de	Napoleão,	que	imediatamente	quis	conhecê-la	e,	de	fato,
ela	 foi	 levada	até	ele.	Mas	o	anão	cometeu	um	erro	 fatal:	começou	a	ganhar	a
partida,	 deixando	 o	 imperador	 para	 trás.	 Este,	 de	 temperamento	 irritadiço,
desferiu	 um	 forte	 chute	 contra	 a	máquina.	As	portinholas	 se	 abriram	e	 o	 anão
apareceu.	Kempelen	foi	desmascarado!
A	máquina	de	von	Kempelen	era	uma	forma	primitiva	(e	talvez	patética!)	de
inteligência	 artificial	 e	 não	 apenas	 um	 truque,	 afinal,	 não	 deixava	 de	 ser	 uma
tentativa	de	 construir	uma	máquina	pensante.	Mas,	que	coisa	 curiosa!	Um	dos
primeiros	dispositivos	para	 jogar	xadrez	de	que	 se	 tem	notícia	 foi	um	humano
que	imitava	uma	máquina,	quando	se	esperava	justamente	o	inverso...
Só	 nos	 séculos	 seguintes	 é	 que	 começaram	 a	 aparecer	 máquinas	 de	 jogar
xadrez	que	tentavam	imitar	os	humanos,	ou	seja,	o	segundo	modo.	Na	metade	do
século	 XX	 –	 quando	 surgiram	 os	 computadores	 digitais	 e,	 com	 eles,	 a
inteligência	artificial	propriamente	dita	–	apareceram	os	primeiros	programas	de
computador	capazes	de	“raciocinar”.
Nas	décadas	de	1950	e	1960,	havia	três	grandes	pesquisadores	envolvidos	na
construção	de	um	enxadrista	artificial:	Newell,	Shaw	e	Simon.	O	programa	que
eles	 inventaram	 tentava	 imitar	 a	 mente	 humana,	 simulando	 seus	 raciocínios	 e
desenvolvendo	 estratégias	 de	 jogo.	 Era	 um	 programa	 baseado	 numa	 estratégia
chamada	“heurística”.
Suponha	que	você	queira	descobrir	a	senha	bancária	do	seu	vizinho	e	tudo	o
que	sabe	é	que	ela	tem	quatro	dígitos.	Há	duas	maneiras	de	fazer	isso.	Uma	é	a
chamada	“força	bruta”:	percorrer	todas	as	possibilidades,	todas	as	combinações
possíveis.	Será	um	trabalho	imenso,	poderá	levar	sua	vida	inteira.	Mas	algum	dia
você	 chegará,	 com	 certeza,	 no	 resultado	 desejado.	 (Se	 não	 morrer	 antes,	 é
claro...)
A	outra	maneira	é	 tentar	encontrar	algum	 tipo	de	atalho	para	adivinhar	essa
senha.	Você	começa	a	perguntar	ao	seu	vizinho	o	dia	em	que	ele	nasceu,	casou
etc.,	e	tenta	números	próximos	a	esses.	Em	seguida	pergunta	a	ele	o	nome	de	seu
cachorro,	e	assim	por	diante.	Nesse	caso,	você	tenta	diminuir	as	possibilidades:
isso	é	a	heurística.	Heurística	é	uma	busca	através	de	raciocínio	seletivo.
No	 caso	 do	 xadrez,	 para	 se	 responder	 corretamente	 a	 uma	 jogada	 do
oponente,	 seria	 necessário	 percorrer	 todas	 as	 possibilidades	 que	 se	 seguiriam
dela	–	se	você	estivesse	usando	força	bruta,	é	claro.	Isso	poderia	levar	centenas
de	 anos!	 Mas	 com	 a	 heurística,	 você	 tenta	 reduzir	 essas	 consequências
desenvolvendo	 algum	 tipo	 de	 estratégia.	 É	 assim	 que	 nós,	 humanos,	 jogamos
xadrez	 –	 e	 foi	 baseando-se	 na	 mente	 humana	 que	 Newell,	 Shaw	 e	 Simon
desenvolveram	 seu	 programa	 para	 jogar	 xadrez.	 Infelizmente,	 os	 primeiros
programas	 de	 jogar	 xadrez,	 que	 apareceram	 na	 década	 de	 1960,	 perdiam	 para
crianças	de	dez	anos.
O	terceiro	modo	de	fazer	uma	máquina	jogar	xadrez	aparece	quase	no	final	do
século	XX.	 Em	 1997,	 ocorreu	 um	 evento	marcante	 na	 história	 da	 inteligência
artificial:	 Deep	 Blue,	 um	 computador	 construído	 pela	 IBM,	 venceu	 o	 então
campeão	mundial	de	xadrez	Gary	Kasparov.	Esse	fato	mostrava	que	uma	nova
era	 na	 inteligência	 artificial	 (que	 chamarei,	 daqui	 para	 frente,	 também	 de	 IA)
estava	para	começar.	Deep	Blue	em	nada	se	parecia	com	a	mente	humana,	pois
não	raciocinava	nem	desenvolvia	estratégias.	Seu	princípio	de	funcionamento	é	a
“força	 bruta”.	 A	 ideia	 era	 que,	 usando	 a	 força	 bruta,	 Deep	 Blue	 não	 poderia
perder	 a	 partida	 de	 xadrez,	 pois	 esse	 método	 sempre	 levaria	 aos	 resultados
desejados.	 O	 que	 se	 precisava	 era	 de	 um	 supercomputador,	 com	 uma	 enorme
capacidade	 de	 realizar	 bilhões	 de	 computações	 por	 segundo,	 que	 escolhesse	 a
melhor	jogada,	percorrendo	o	maior	número	de	caminhos	possíveis	e	auxiliado
por	 um	 imenso	 banco	 de	 memória	 onde	 estivessem	 contidas	 as	 jogadas	 dos
grandes	 mestres	 enxadristas	 das	 últimas	 décadas.	 Para	 escolher	 uma	 delas,
também	seria	necessário	usar	a	força	bruta.	O	Deep	Blue	não	é	uma	máquina	que
pensa,	pois	o	que	causa	 suas	 jogadas	nada	 tem	a	ver	 com	o	cérebro	ou	com	a
mente	 humana.	 Mas	 seu	 poder	 computacional	 é	 tamanho	 que,	 para	 quem	 o
observa,	 ele	 parece	 pensar.	 Aliás,	 esse	 é	 o	 ponto	 em	 comum	 entre	 as	 três
máquinas	que	descrevemos	aqui.	As	três	são	simuladores.	Inteligência	humana	e
inteligência	mecânica	resultam	no	mesmo,	pois	não	se	distingue	entre	original	e
imitação	perfeita.	Basta	que	a	simulação	aparente	o	mesmo	que	o	original.	Não
há	uma	diferença	entre	ser	e	parecer.	Uma	imitação	pode	ser	tão	perfeita	que	não
mais	possamos	distingui-la	do	original	e	pode	até	tornar-se	mais	perfeita	que	o
próprio	original.	Isso	é	o	que	aconteceria	se	a	BMW	usasse	imitações	chinesas
de	peças	de	carro	e	as	instalasse	nos	seus	modelos	originais	de	fábrica.	Não	há
limites	para	a	 imitação.	 Esse	 é	 um	dos	 princípios	 filosóficos	 fundamentais	 da
IA.
Isso	 também	 ocorre	 com	 a	 IA	 do	 século	XXI.	Não	 se	 busca	 construir	 uma
máquina	que	pense,	basta	que	ela	pareça	pensar.	A	imitação	do	comportamento
humano	 torna-se	 cada	 vez	 mais	 uma	 camuflagem	 sob	 a	 qual	 se	 abriga	 uma
máquina	totalmente	diferente	de	nós.	Queremos	máquinas	cujo	comportamento
seja	igual	ao	de	um	ser	humano,	mas,	se	elas	chegarão	a	isso	da	mesma	forma
que	 os	 humanos,	 já	 não	 importa	 mais.	 As	 duas	 primeiras	 máquinas	 de	 que
falamos	baseavam-se	na	 imitação	da	 inteligênciahumana.	Já	a	máquina	que	se
busca	 construir	 agora,	 pouco	 ou	 nada	 precisa	 ter	 de	 humano.	 Ela	 produzirá
inteligência	 de	maneira	 completamente	 diferente	 de	 como	 nós	 produzimos.	 O
raciocínio	 humano	 não	 é	 mais	 o	 modelo	 para	 construir	 máquinas	 que
reproduzam	a	inteligência	do	homem.	Podemos	até	acoplá-las	a	um	corpo	com
uma	forma	humana	–	aquilo	que	habitualmente	chamamos	de	robô	–,	mas	 isso
pouco	 importa.	 Uma	 máquina	 pensante	 poderá	 ser	 como	 uma	 máquina	 de
hemodiálise,	que	faz	as	funções	do	rim,	mas	que	em	nada	se	parece	com	ele.
Máquina	de	calcular	antiga
Antes	 se	 achava	 que	 inteligência	 era	 a	 capacidade	 de	 raciocinar.	 Agora,
inteligência	 é	 poder	 computacional.	 A	 hipótese	 é	 que	 nosso	 cérebro	 tem	 um
tremendo	 poder	 computacional	 que	 lhe	 permite	 resolver	 muitos	 problemas
através	 da	 força	 bruta.	No	 final	 do	 século	 passado,	 a	 força	 bruta	 era	 encarada
com	 desdém,	 pois	 ela	 era	 sinônimo	 de	 processos	 muito	 lentos.	 Por	 causa	 da
lentidão,	 construir	máquinas	 pensantes	 obrigava	 a	 imitar	 o	 raciocínio	 humano
como	única	estratégia	possível.
Mas	 isso	 vem	 se	 alterando	 neste	 início	 do	 século	 XXI	 à	 medida	 que
supercomputadores	 estão	 superando	 o	 problema	 da	 lentidão	 e	 aumentando	 sua
capacidade	de	processamento	de	dados.	Vários	tipos	de	estratégia	para	superar	o
problema	 da	 lentidão	 começam	 a	 ser	 usados.	 Um	 deles	 é	 usar	 a	 arquitetura
paralela,	supostamente	utilizada	por	nosso	cérebro	em	algumas	tarefas.	É	como
se,	 ao	 resolver	 um	 problema,	 ele	 fosse	 dividido	 em	 várias	 partes	 e	 cada	 uma
delas	 resolvida	 simultaneamente	por	vários	dispositivos	 trabalhando	ao	mesmo
tempo.	Nesse	 caso,	 imitamos	 parcialmente	 nosso	 cérebro	 e	 teríamos	máquinas
mistas,	parcialmente	inspiradas	na	natureza.	Seria	uma	situação	parecida	com	a
que	temos	na	aviação,	na	qual	aeronaves	têm	asas	como	os	pássaros,	mas	voam
com	turbinas,	ou	seja,	são	apenas	parcialmente	inspiradas	no	design	natural.
Queremos	 alcançar	 o	 poder	 computacional	 do	 cérebro	 humano,	 usando
máquinas.	 Em	 seguida,	 num	 futuro	 próximo,	 tentaremos	 ultrapassar	 nosso
próprio	 cérebro,	 através	 de	 nossa	 mistura	 com	 as	 máquinas.	 Nas	 próximas
décadas,	não	haverá	uma	linha	divisória	nítida	entre	robôs	e	humanos.	Seremos
nós	mesmos	os	 robôs	que	 inventarmos,	o	que	permitirá	à	 inteligência	artificial
superar	a	natural.
A	 busca	 por	 igualar-se	 ao	 cérebro	 humano,	 usando	 máquinas,	 significa
aumentar	 o	 poder	 computacional	 –	 velocidade	 e	memória	 –	 dos	 computadores
que	 temos	 hoje.	O	 poder	 computacional	 do	 cérebro	 humano	 será	 ultrapassado
quando	 existir	 uma	 máquina	 capaz	 de	 efetuar	 mais	 de	 200	 computações	 por
segundo.	 Novos	 materiais,	 além	 do	 silício,	 com	 o	 qual	 são	 construídos	 os
computadores	 atuais,	 precisarão	 ser	 desenvolvidos	 para	 que	 possamos	 ter
máquinas	mais	potentes.	Disso	depende	a	IA	do	século	XXI,	que	aposta	cada	vez
mais	na	“força	bruta”.
Novas	 tecnologias	 para	 a	 construção	 de	 hardwares	 e	 para	 o	 aumento	 da
velocidade	 dos	 computadores	 estão	 sendo	 desenvolvidas.	 Uma	 delas	 é	 o
computador	 de	DNA,	 o	material	 com	o	 qual	 nossos	 genes	 são	 feitos,	 ou	 seja,
moléculas	 que	 podem	 transportar	 uma	 imensa	 quantidade	 de	 informação
genética.	 Essa	 informação	 é	 necessária	 para	 a	 organização	 e	 o	 funcionamento
das	células	vivas	e	para	o	controle	da	forma	pela	qual	as	características	genéticas
são	herdadas	de	uma	geração	para	a	outra.	O	inventor	desse	tipo	de	computador,
Gerald	Adelman,	partiu	da	ideia	de	que	o	DNA	é	muito	semelhante	ao	HD	de	um
computador,	 pois	 ele	 estoca	 muita	 informação	 permanente	 acerca	 de	 nossos
genes.	 Além	 disso,	 o	 DNA,	 além	 de	 transportar	 enorme	 quantidade	 de
informação,	 pode	 realizar	 cálculos	 muito	 mais	 rapidamente	 do	 que	 qualquer
supercomputador	que	temos	hoje.
Imagem	DNA
Outra	alternativa	é	o	computador	quântico.	A	computação	quântica	é	um	novo
campo	 da	 ciência	 da	 computação	 que	 surge	 da	 mecânica	 quântica.	 Nos
computadores	que	temos	hoje,	a	unidade	básica	de	informação	é	o	bit	ou	“dígito
binário”.	Um	dígito	binário	é	um	“0”	ou	um	“1”,	e	todos	os	números	são	feitos	a
partir	de	cadeias	de	zeros	e	uns.	O	bit	usado	nos	computadores	de	hoje	só	pode
estar	em	um	desses	estados.
Nos	computadores	quânticos,	a	unidade	de	informação	será	o	bit	quântico	ou
o	qubit,	que	poderá	estar	em	ambos	os	estados	ao	mesmo	tempo.	Uma	partícula
subatômica	pode	estar	em	vários	estados	diferentes	simultaneamente	para	vários
observadores	dependendo	de	quando	se	mede	seu	“momento”	(o	produto	de	sua
massa	pela	sua	aceleração).	Como	a	partícula	subatômica	pode	estar	em	estados
diferentes	 simultaneamente,	 uma	 combinação	 de	 qubits	 transporta	 muito	mais
informação	 do	 que	 a	 mesma	 quantidade	 de	 bits.	 Na	 medida	 em	 que	 muitas
computações	 ocorrem	 simultaneamente,	 o	 computador	 quântico	 pode	 executar
uma	 vasta	 quantidade	 de	 operações	 em	 paralelo,	 o	 que	 aumenta	 muito	 sua
velocidade.
O	 computador	 quântico	 poderá	 ser	 utilizado	 sempre	 que	 for	 necessário
processar	 grande	 quantidade	 de	 informação,	 como	 é	 o	 caso,	 por	 exemplo,	 de
reconhecimento	 de	 imagens	 ou	 de	 voz.	 Mas	 esse	 projeto	 ainda	 caminha
lentamente,	pois	oferece	um	grande	perigo:	uma	grande	facilidade	para	decifrar
senhas	–	o	que	apavora	os	banqueiros.
Outro	 tipo	 de	 máquina	 que	 tem	 sido	 estudada	 é	 o	 computador	 ótico.	 Esse
parece	ser	o	mais	promissor.	Ele	usa	luz	ou	feixes	de	raios	laser,	em	vez	de	sinais
elétricos,	para	transportar	informação.	Nos	computadores	atuais,	a	velocidade	de
transmissão	de	informação	é	metade	da	velocidade	da	luz.	O	computador	ótico
não	será	apenas	muito	mais	 rápido	do	que	os	atuais;	espera-se	que,	em	poucas
décadas,	ele	se	torne	também	muito	barato.
Porém,	 por	 menor	 que	 seja	 a	 área	 de	 um	 chip,	 e	 por	 maior	 que	 seja	 a
velocidade	de	um	computador,	há	um	 limite	 fundamental:	 a	velocidade	da	 luz,
que	a	física	nos	ensina	ser	a	maior	velocidade	possível	em	nosso	universo.	Essa
é	 a	 velocidade	 do	 computador	 ótico.	 Não	 poderemos	 construir
supercomputadores	mais	velozes	do	que	 isso.	Esse	é	 também	o	 limite	da	 força
bruta.
A	força	bruta,	que	tinha	sido	praticamente	abandonada	no	final	do	século	XX,
é	agora	uma	das	mais	 fortes	 tendências	da	 IA.	O	Deep	Blue	é	um	exemplo	de
sua	aplicação.	Ele	mostra	também	que	a	heurística	pode	errar.	A	força	bruta	não.
Será	que	foi	por	causa	disso	que	Kasparov	perdeu	para	ele?
CONTINUAR	A	PENSAR
Será	que	o	Deep	Blue	representa	uma	das	primeiras	vitórias	de	um	computador	sobre	a	razão	humana?
Ou	uma	vitória	da	própria	razão	sobre	si	mesma	–	pois,	afinal,	não	foi	ela	própria	que	construiu	esse
computador?	Ou	teria	o	Deep	Blue,	ao	usar	sua	força	bruta,	superado	o	poder	computacional	do	cérebro
humano?
2.
Entre	o	passado	e	o	futuro
O	 sonho	 de	 construir	 máquinas	 pensantes	 é	 muito	 antigo.	 Os	 primeiros
registros	de	criaturas	artificiais	com	habilidades	humanas	têm	uma	forma	mítica
ou	por	vezes	lendária,	tornando	difícil	uma	separação	nítida	entre	imaginação	e
realidade.	 Isso	faz	com	que	a	IA	seja	uma	disciplina	com	um	extenso	passado,
mas	com	uma	história	relativamente	curta.
Um	dos	 episódios	mais	 interessantes	 do	 passado	mítico	 da	 IA	 é	 a	 lenda	 do
Golém.	Joseph	Golém	era	um	homem	artificial	que	teria	sido	criado	no	fim	do
século	 XVI	 por	 um	 rabino	 de	 Praga,	 na	 Tchecoslováquia	 (hoje	 República
Tcheca).	 Esse	 rabino	 resolvera	 construir	 uma	 criatura	 inteligente,	 capaz	 de
espionar	os	inimigos	dos	judeus,	que,	na	época,	estavam	confinados	no	gueto	de
Praga.	Diz	 o	mito	 que	Golém	 era,	 de	 fato,	 um	 ser	 inteligente,	mas	 um	 dia	 se
revoltou	 contra	 seu	 criador,	 que	 então	 lhe	 tirou	 a	 inteligência	 e	 o	 devolveu	 ao
mundo	inanimado.
Alguns	 registros	 mais	 recentes	 mostram	 que,	 nos	 séculos	 XVII	 e	 XVIII,
proliferaram	mais	mitos	erelatos	acerca	de	criaturas	artificiais.	Falou-se	de	um
flautista	 mecânico	 que	 teria	 sido	 capaz	 de	 tocar	 seu	 instrumento	 com	 grande
perfeição,	e	que	teria	sido	construído	lá	pelos	fins	do	século	XVII.	Há	registros
também	 do	 célebre	 “pato	 de	 Vaucanson”,	 que	 teria	 sido	 construído	 por	 um
artífice	homônimo.	A	grande	novidade	dessa	criatura	 teria	 sido	sua	capacidade
de	bater	as	asas,	andar,	grasnar,	comer	grãos	e	expeli-los	após	a	digestão	–	uma
perfeita	imitação	das	funções	biológicas.
A	 existência	 passada	 dessas	 criaturas	 artificiais	 até	 hoje	 não	 está
definitivamente	comprovada.	Sabe-se	apenas	que	seus	projetos	estão	registrados
em	 alguns	 museus	 da	 Europa	 e	 que	 sua	 arquitetura	 interna	 teria	 sido
extremamente	complexa.	Sua	possível	construção	sempre	deu	margem	a	muitas
discussões	 filosóficas	acerca	da	possibilidade	de	as	máquinas	se	 igualarem	aos
seres	humanos.
No	 século	XIX,	 o	 tema	 reaparece	 na	 literatura.	Nessa	 época,	é	 publicado	 o
famoso	romance	Frankenstein,	que	explora	o	mito	de	um	ser	criado	a	partir	de
membros	e	órgãos	de	outras	criaturas	artificialmente	reunidos.	Mas	Frankenstein
era	um	monstro.	Um	monstro	que,	como	costuma	acontecer	nesse	tipo	de	ficção,
logo	em	seguida	se	revoltou	contra	seu	criador.
A	inteligência	artificial	propriamente	dita	só	aparecerá	no	século	XX,	a	partir
de	projetos	militares.	A	Segunda	Guerra	Mundial	 (1939-1945)	 trouxe	pressões
decisivas	 para	 a	 comunidade	 científica	 dos	 países	 aliados.	 Os	 bombardeios
aéreos	 feitos	 pelos	 nazistas	 sobre	 as	 cidades	 europeias	 pressionaram	 o
desenvolvimento	de	canhões	antiaéreos	dotados	de	um	sistema	de	pontaria	que
corrigisse	os	eventuais	desvios	causados	pelo	deslocamento	do	alvo	e	do	próprio
canhão	 no	 momento	 do	 disparo.	 Esse	 tipo	 de	 mecanismo	 de	 autocorreção
começou	 a	 ser	 visto	 como	 uma	 incipiente	 imitação	 de	 um	 comportamento
humano.	Para	um	observador	leigo,	tudo	se	passava	como	se	o	comportamento
do	 canhão,	 ao	 perseguir	 seu	 alvo	 com	 precisão,	 estivesse	 sendo	 guiado	 por
propósitos	 ou	 intenções	 semelhantes	 aos	 de	 um	 ser	 humano.	 Essa	 era	 a
cibernética,	uma	das	precursoras	da	inteligência	artificial.
No	 fim	 da	 Segunda	 Guerra	 Mundial,	 os	 cientistas	 já	 tinham	 registrado
importantes	 invenções	na	área	eletrônica,	além	de	pesquisas	sobre	mecanismos
que	 imitavam	 ações	 humanas	 e	 estudos	 sobre	 o	 cérebro	 desenvolvidos	 por
médicos	e	por	psicólogos.	 Isso	os	 levou	a	programar	um	encontro	nos	Estados
Unidos,	 onde	pesquisadores	 dessas	 áreas	 apresentaram	 suas	descobertas,	 numa
primeira	tentativa	de	reuni-las	e	compor	algo	parecido	com	uma	ciência	geral	do
funcionamento	 da	 mente	 humana.	 Esse	 encontro	 ficou	 conhecido	 como	 o
Simpósio	de	Hixon,	e	aconteceu	em	1948.
Os	 resultados	 do	Simpósio	 de	Hixon	 não	 teriam	 sido	 tão	 surpreendentes	 se
não	 levassem,	 através	de	uma	 intuição	verdadeiramente	 criadora,	 a	 estabelecer
uma	 analogia	 entre	 o	 cérebro	 humano	 e	 os	 computadores.	 Essa	 analogia
certamente	 foi	 produto	 do	 encontro	 entre	 psicólogos,	 neurofisiólogos	 e
engenheiros	 eletrônicos	 que	 perceberam	 que	 o	 modo	 como	 estão	 dispostas	 as
células	 do	 nosso	 cérebro	 (neurônios),	 ligadas	 através	 de	 fios	 nervosos
minúsculos,	 é	 semelhante	 ao	 circuito	 elétrico	 de	 um	 computador.	 Isso	 abriu	 o
caminho	 para	 se	 dizer	 que	 a	 mente	 humana	 poderia	 ser	 imitada	 por	 um
computador.
As	 décadas	 seguintes	 foram	 marcadas	 por	 novas	 invenções	 e	 descobertas
surpreendentes.	Na	 década	 de	 1950,	 dois	 cientistas	 americanos	 desenvolveram
um	programa	de	computador	capaz	de	demonstrar	 teoremas	matemáticos.	Esse
programa	 foi	 chamado	 de	 “O	 Teórico	 da	 Lógica”	 (Logical	 Theorist	 ou
simplesmente	LT)	 e	 sua	 inovação	 estava	 no	 fato	 de	 ele	 poder	 realmente	 gerar
demonstrações	 de	 teoremas,	 e	 não	 simplesmente	 apresentá-las	 através	 de	 um
artifício	de	memória.
Os	dois	cientistas,	Newell	e	Simon,	estavam	convencidos	de	que	sua	máquina
era	 uma	 autêntica	 simulação	 do	 pensamento	 humano.	 Quando	 o	 programa	 de
computador,	o	LT,	demonstrou	um	 teorema	que	estava	em	aberto,	os	cientistas
escreveram	um	texto	e	o	enviaram	para	publicação	em	uma	importante	revista	de
matemática	 da	 época,	 como	 se	 o	 artigo	 fosse	 de	 autoria	 do	 próprio	 LT.	 O
conselho	editorial	da	revista	 recusou-se	a	publicá-lo,	alegando	que	 isso	era	um
insulto	contra	a	espécie	humana.
No	final	da	década	de	1960,	apareceu	um	programa	de	computador	capaz	de
imitar	um	psicanalista.	Esse	psicanalista	mecânico,	que	 foi	chamado	“Doctor”,
era	na	verdade	uma	variação	de	outro	programa,	batizado	de	“Eliza”.	Eliza	 foi
um	programa	originalmente	desenvolvido	para	simular	diálogos.
O	princípio	de	funcionamento	desse	tipo	de	programa	era	simples:	a	sentença
enviada	pelo	parceiro	humano	era	decomposta,	e	suas	partes	enviadas	para	um
script	armazenado	no	interior	do	computador.	O	script	era	um	conjunto	de	regras
semelhantes	 àquelas	 que	 são	 dadas	 para	 um	 ator	 quando	 se	 requer	 que	 ele
improvise	acerca	de	um	tema	qualquer.	Eliza	podia	receber	vários	tipos	de	script
e,	dependendo	do	conteúdo	deles,	desenvolver	conversas	acerca	de	vários	temas.
Quando	 Eliza	 trabalhava	 com	 um	 script	 especial	 chamado	 Doctor,	 ele	 se
transformava	num	psicanalista	mecânico.	O	script	era	cuidadosamente	elaborado
para	que	as	respostas	simulassem	o	comportamento	verbal	de	um	psicanalista	ao
receber	um	paciente	pela	primeira	vez.
Hoje	em	dia,	programas	como	o	Eliza	são	considerados	obsoletos,	apesar	de
terem	 sido	 de	 grande	 importância	 histórica.	 As	 contribuições	 da	 IA	 para	 a
psicologia	 e	 para	 a	 psiquiatria	 estão	 agora	 centradas	 no	 estudo	 do
comportamento	de	robôs	com	múltiplas	personalidades,	ou	psicoses,	que	servem
de	ponto	de	partida	para	a	observação	da	evolução	desses	tipos	de	transtornos.	A
robopsiquiatria	e	a	robopsicologia	ampliarão	o	conhecimento	da	doença	mental
humana.
O	 final	 dos	 anos	 1970	 foi	 marcado	 por	 algum	 desânimo	 nas	 tentativas	 de
simular	 a	 mente	 humana	 através	 do	 computador.	 O	 grande	 problema	 eram	 as
máquinas	 de	 tradução,	 que	 não	 estavam	 tendo	 sucesso.	 Na	 verdade,	 até	 hoje
ainda	não	temos	um	software	satisfatório	para	realizar	traduções.	A	tecnologia	de
tradução	telefônica	–	em	que	você	fala	em	português	e	seu	amigo	chinês	escuta
em	chinês	e	vice-versa	–	ainda	não	está	desenvolvida,	provavelmente	por	razões
militares.	(Você	já	imaginou	que	tipo	de	ameaça	isso	poderia	representar	para	um
país	como,	por	exemplo,	os	Estados	Unidos?	Já	imaginou	o	quanto	isto	poderia
facilitar	o	terrorismo	internacional?)
Nas	décadas	de	1980	e	parte	da	década	de	1990,	a	inteligência	artificial	seria
ofuscada	 pela	 neurociência,	 que	 estava	 tomando	 a	 dianteira	 nos	 estudos	 da
mente.	 Computadores	 não	 seriam	 modelos	 da	 mente	 humana,	 mas	 apenas
ferramentas	 a	partir	das	quais	 a	neurociência	podia	 cada	vez	mais	 investigar	o
cérebro.
Mas,	 no	 fim	 do	 século	 XX	 e	 no	 começo	 do	 novo	 século,	 a	 inteligência
artificial	 reaparece	 com	 nova	 força.	 Pesquisas	 na	 área	 de	 robótica	 começam	 a
ganhar	destaque,	rapidamente	superando	esse	insucesso	temporário.
O	 laboratório	de	 inteligência	artificial	do	MIT,	nos	Estados	Unidos,	 inicia	o
projeto	 COG.	 Esse	 projeto,	 que	 ainda	 não	 está	 concluído,	 traz	 grandes
inovações.	A	 ideia	é	construir	um	robô	com	forma	humana,	pois	 isso	facilitará
sua	convivência	conosco.	Os	engenheiros	do	COG	não	apostam	na	possibilidade
de	prever	todos	os	eventos	e	situações	pelos	quais	ele	vai	passar	e	que	serviriam
de	 base	 para	 elaborar	 um	 programa	 que	 estaria	 no	 seu	 “cérebro”	 como	 algo
“inato”.	Eles	apostam	na	ideia	de	que	o	COG	adquirirá	conhecimento	à	medida
que	for	interagindo	com	seu	ambiente	e	com	seres	humanos,	da	mesma	maneira
que	uma	criança	vai	aprendendo	aos	poucos.
O	robô	COG	não	será,	desde	o	início,	um	adulto;	ele	foi	projetado	para	passarpor	um	período	de	infância	artificial,	na	qual	aprenderá	com	a	experiência	e	se
ambientará	 com	o	mundo.	Ele	 “nascerá”	 com	um	software	 de	 reconhecimento
facial	−	e	isso	será	fundamental	para	o	seu	desenvolvimento.	O	COG	terá	uma
“mãe”,	 a	 ser	 escolhida	 entre	 as	 estudantes	 que	 trabalham	 no	 projeto.	 Ele
reconhecerá	a	sua	mãe	e	fará	de	tudo	para	que	ela	não	saia	de	seu	lado,	como	faz
uma	criança.	Tudo	o	que	não	for	desde	o	início	estabelecido	como	inato,	mas	for
aprendido	 com	 a	 experiência,	 será	 programado	 como	 inato	 na	 sua	 segunda
versão,	o	COG-2.	Assim,	as	várias	versões	do	COG	percorrerão	os	milhões	de
anos	de	evolução	do	homem	em	poucos	anos	de	laboratório.
Outro	grande	projeto	da	IA	do	século	XXI	é	o	Blue	Brain.	Esse	é	um	projeto
que	começou	em	2005	e	que	está	sendo	realizado	em	conjunto	pela	IBM	e	pelo
Brain	Mind	Institute,	na	Suíça.	A	ideia	desse	projeto	é	construir	uma	simulação
completa	 do	 cérebro	 humano.	 O	 Blue	 Brain	 começará	 com	 a	 simulação
computacional	dos	neurônios	e	suas	conexões	–	as	sinapses	–,	para	depois	passar
para	a	simulação	do	cérebro	em	nível	molecular.
Como	outros	projetos	da	 IA	do	 século	XXI,	 esse	 também	segue	o	 estilo	da
“força	 bruta”.	 Nesse	 caso,	 busca-se	 a	 simulação	 da	 totalidade	 do	 cérebro,
neurônio	 por	 neurônio,	 conexão	 por	 conexão,	 para	 saber	 se,	 com	 isso,	 serão
reproduzidas	 também	a	mente	e	a	consciência.	É	um	projeto	que	 tem	previsão
para	durar	em	torno	de	15	anos.
Paralelamente	 ao	Blue	Brain,	 há	o	programa	 Jini,	 em	desenvolvimento	pela
empresa	Sun	Microsystems.	A	ideia	é	aproveitar	a	computação	não	utilizada	na
internet.	 É	 possível	 imaginar	 que,	 a	 qualquer	 momento	 em	 que	 acessamos	 a
internet,	há	uma	quantidade	imensa	de	computadores	que	não	está	sendo	usada.
E	 que,	 dentre	 os	 que	 estão	 em	 uso,	 pouco	mais	 de	 1%	 de	 sua	 capacidade	 de
computação	 está	 sendo	 utilizada.	 Se	 for	 possível	 coordenar	 esse	 potencial
ocioso,	verificaremos	que	a	quantidade	de	computação	não	utilizada	na	internet
já	é	maior	que	a	capacidade	computacional	do	cérebro	humano.	Ou,	em	outras
palavras,	 já	 teríamos	 uma	 simulação	 potencial	 de	 um	 cérebro	 humano	 na
internet.	A	replicação	do	cérebro	humano	estaria	muito	mais	ao	nosso	alcance	do
que	podemos	imaginar...
Quando	 o	 cérebro	 humano	 estiver	 totalmente	 replicado	 num
supercomputador,	 teremos	 respostas	 para	 muitas	 perguntas.	 Saberemos,	 por
exemplo,	 as	 causas	 de	 muitos	 transtornos	 mentais.	 Poderemos	 conversar	 com
ele,	seja	através	de	um	teclado	ou	de	algum	outro	periférico.	Essa	conversa	nos
dará	pistas	para	sabermos	se	essa	simulação	será	consciente	ou	não.	Responder	a
essa	 pergunta	 será	 muito	 importante	 para	 os	 filósofos	 e	 psicólogos	 do	 século
XXI.
Os	filósofos	têm	tentado,	por	séculos	a	fio,	dizer	o	que	é	o	pensamento	sem
conseguir	chegar	a	uma	conclusão	final.	No	século	XX,	apareceu	uma	disciplina
filosófica	 específica	 que	 busca	 uma	 resposta	 para	 essa	 questão:	 a	 filosofia	 da
mente.	 Ela	 investiga	 se	 o	 pensamento	 é	 produto	 do	 cérebro	 ou	 se	 este	 é	 só	 o
hospedeiro	biológico	da	mente.	Esse	é	o	problema	mente-cérebro,	que	divide	os
filósofos	entre	materialistas	e	dualistas.	Para	os	materialistas	só	existe	matéria,	e
a	mente	é,	na	verdade,	apenas	um	efeito	colateral	do	metabolismo	do	cérebro.	O
dualista	diz	que	mente	e	cérebro	são	coisas	distintas,	apesar	de	se	comunicarem.
Só	saberemos	quem	tem	razão	nessa	discussão	milenar	depois	que	o	projeto	Blue
Brain	 estiver	 concluído.	 Nesse	 dia,	 grande	 parte	 da	 filosofia	 da	 mente
desaparecerá,	pois	a	IA	tomará	seu	lugar.	Se	o	cérebro	do	Blue	Brain	pensar	e	for
consciente,	 os	 materialistas	 terão	 razão,	 pois	 pensamento	 e	 consciência	 só
dependerão	 da	matéria,	 e	 nenhum	 espírito,	 ou	 alma,	 será	 necessário.	Teremos,
entretanto,	de	“pagar	para	ver”	para	saber	se	isso	é	verdadeiro...
Um	dos	maiores	impactos	da	IA	recairá	sobre	o	modo	como	nos	concebemos:
criar	uma	máquina	pensante	significa	desafiar	uma	velha	tradição	que	coloca	o
homem	e	sua	capacidade	racional	como	algo	único	e	original	no	universo.	A	IA
acaba	sendo	uma	forma	de	sugerir	que	é	possível	a	existência	de	vida	consciente
além	da	que	se	instala	sobre	os	seres	vivos.
CONTINUAR	A	PENSAR
Você	acredita	que	 a	 replicação	 artificial	 do	 cérebro	humano	em	projetos	 como	o	Blue	Brain	 levará	 à
replicação	da	consciência?	Será	a	consciência	do	Blue	Brain	(se	ela	surgir)	igual	à	consciência	humana?
3.
O	teste	de	Turing
A	inteligência	artificial	no	século	XX	começou	com	as	descobertas	do	genial
matemático	inglês	Alan	Turing	(1912-1954).	Há	mais	de	50	anos,	ele	formulou	a
seguinte	pergunta:	“Pode	uma	máquina	pensar?”.
A	pergunta	é	estarrecedora.	Melhor	seria,	talvez,	questionar:	o	que	impediria	a
construção	de	uma	máquina	que	pensa?	Uma	máquina	que	 tivesse	consciência
de	seus	pensamentos?	Ela	poderia	ser	algo	como	o	célebre	Hal	do	filme	“2001:
uma	odisseia	no	espaço”	ou	a	rede	Skynet	do	filme	“O	exterminador	do	futuro”,
que	se	tornou	autoconsciente	no	dia	15	de	agosto	de	1997.
Turing	 sabia	 os	 desafios	 que	 essa	 pergunta	 colocava.	 Se	 um	 dia	 pudermos
construir	 uma	 máquina	 que	 pense	 e	 seja	 consciente,	 como	 poderíamos	 saber
isso?	Haveria	algum	teste	que	pudesse	nos	revelar	se	uma	máquina	é	consciente?
Uma	máquina	pode	chegar	à	sofisticação	de	fazer	tudo	o	que	um	ser	humano	faz,
mas	nem	por	isso	seria	possível	dizer	que	ela	é	consciente.	Se	um	papagaio	fosse
treinado	para	 imitar	o	 longo	discurso	de	um	político,	 seria	 isso	 suficiente	para
concluir	que	essa	ave	é	consciente?	Haveria,	enfim,	algum	teste	que	pudesse	nos
revelar	se	uma	máquina	é	consciente?
Turing	 imaginou	 um	 teste	 formidável	 para	 descobrir	 se	 máquinas	 são
conscientes.	Ficou	conhecido	como	teste	de	Turing.	Eis	o	princípio	geral	de	seu
teste:	 “Uma	 máquina	 se	 iguala	 a	 um	 humano	 se	 seu	 comportamento	 for
indistinguível	 deste”.	 Ou	 seja,	 uma	 máquina	 torna-se	 humana	 quando	 não
podemos	mais	distinguir	seu	comportamento	do	de	um	ser	humano.
Hoje	 em	 dia,	 temos	 várias	 máquinas	 que	 passam	 no	 teste	 de	 Turing	 nesse
sentido	amplo.	No	campo	da	música,	por	exemplo,	já	foi	feito	um	teste	no	qual
se	 pediu	 para	 que	 uma	 plateia	 determinasse,	 entre	 três	 peças,	 qual	 havia	 sido
escrita	por	um	computador	e	qual	havia	sido	escrita,	há	dois	séculos,	por	Johann
Sebastian	Bach.	Num	 desses	 testes,	 realizado	 na	Universidade	 de	Oregon,	 em
1997,	a	plateia	escolheu	a	peça	escrita	pelo	computador	como	sendo	a	composta
pelo	ser	humano.	A	máquina	passou	no	teste	de	Turing.
Mas	 o	 teste	 de	Turing,	 no	 sentido	 amplo,	 pode	 ser	 impreciso.	 Suponhamos
que	você	tenha	um	vizinho	que	toca	piano	esplendidamente.	Um	dia	você	passa
pela	 sua	 rua	 e	ouve	 sons	de	um	piano,	magnificamente	 executados.	Você	quer
entrar	 para	 cumprimentá-lo,	 bate	 à	 porta	 e	 verifica	 que	 não	 havia	 ninguém
tocando	piano:	era	um	aparelho	de	CD	ligado.	Contudo,	a	imitação	era	perfeita,
produziu-se	 um	 comportamento	 indistinguível	 daquele	 de	 um	 ser	 humano	 que
sabe	 tocar	 piano.	 Ora,	 se	 Turing	 estiver	 certo,	 então	 seria	 legítimo	 atribuir
pensamento	ao	aparelho	de	CD.	Mas	terá	isso	sentido?	Certamente	não.
Contudo,	 há	 uma	 aplicação	 específica	 do	 teste	 de	 Turing	 que	 não	 deixa
dúvidas.	Ela,	 ainda	hoje,	desafia	nossas	máquinas	digitais.	É	o	 teste	de	Turing
aplicado	 à	 linguagem.	 Para	 saber	 se	 um	 computador	 pensa,	 bastaria	 conversar
com	ele	por	longo	tempo,	através	de	um	teclado,	e	se,	ao	final	da	conversa,	não
for	 possível	 concluir	 se	 o	 interlocutor	 era	 uma	 máquina	 ou	 um	 ser	 humano,
poder-se-ia	concluir	que	ele	pensa.	Para	Turing,	pensar	seria	passar	nesse	teste,
pois,	 supostamente,	 todos	os	 seres	humanos	pensam	e	 todos	os	 seres	humanos
passam	no	teste,	ou	seja,	são	capazes	de	conversar.
Turing	 imaginou	 uma	 ilustração	 de	 seu	 teste,	 que	 ele	 chamou	 de	 Jogo	 da
Imitação.	No	Jogo	da	Imitação,	há	três	jogadores:uma	mulher	(A),	um	homem
(B)	e	um	 interrogador	 (C),	que	pode	ser	de	qualquer	 sexo.	O	 interrogador	 fica
num	quarto	separado	do	homem	e	da	mulher,	e	seu	objetivo	é	determinar	o	sexo
dos	outros	dois.	Como	o	interrogador	fica	num	quarto	separado,	ele	conhece	seus
parceiros	apenas	por	X	ou	Y	e,	no	final	do	jogo,	tem	de	dizer	que	X	é	A	(uma
mulher)	e	que	Y	é	B	(um	homem),	ou	vice-versa.	Para	determinar	o	sexo	de	X	e
de	Y,	o	interrogador	deve	formular	uma	bateria	de	questões	bastante	capciosas,
uma	vez	que	X	e	Y	podem	mentir.
Por	exemplo,	C	pode	começar	perguntando:	“O	senhor	ou	a	senhora	poderia
me	dizer	o	comprimento	de	seu	cabelo?”.	Se	Y	for	de	fato	um	homem,	ele	pode
dar	uma	resposta	evasiva	e	dizer:	“Meu	cabelo	é	ondulado,	o	fio	mais	comprido
deve	 ter	 uns	 20	 centímetros”.	 X	 também	 pode	 tentar	 tumultuar	 o	 jogo,
despistando	o	interrogador	com	sentenças	do	tipo:	“Ouça,	eu	sou	o	homem!	Não
ouça	Y,	ele	está	tentando	criar	confusão”.
Para	 jogar,	 é	preciso	que	 seus	participantes	 fiquem	 isolados	uns	dos	outros,
isto	é,	nenhum	contato	que	permita	a	identificação	do	sexo	de	X	ou	de	Y	deve
ser	 permitido.	 Ou	 seja,	 C	 não	 poderá	 vê-los,	 tampouco	 ouvir	 suas	 vozes.	 A
comunicação	 entre	 C,	 X	 e	 Y	 deve	 ser	 feita	 por	 meio	 de	 um	 teclado	 de
computador	e	das	perguntas	e	respostas	que	aparecem	numa	tela.
Suponhamos	que,	 em	vez	de	um	homem	 (B,	 ou,	 no	 caso,	Y),	 o	 jogo	 esteja
sendo	 jogado	 por	 uma	máquina.	 É	 possível	 que	 C	 nunca	 venha	 a	 descobrir	 o
sexo	convencionado	de	Y,	 tampouco	perceber	que	não	estava	 jogando	com	um
ser	humano,	e	sim	com	uma	máquina.	Se	essa	situação	ocorrer,	podemos	dizer
que	 essa	 máquina	 passou	 no	 teste	 de	 Turing,	 pois	 seu	 comportamento,	 na
conversa,	 foi	 indistinguível	daquele	exibido	por	um	ser	humano.	Não	há	 razão
para	deixar	de	atribuir	a	essa	máquina	a	capacidade	de	pensar.
Se	uma	máquina	puder	conversar,	ela	deverá	ser	consciente	(e	ter	uma	mente),
pois	não	é	possível	conversar	sem	a	consciência	do	que	se	fala.	O	ser	humano	é
uma	matraca	 consciente.	 Pense	 um	 pouco	 nisso	 e	 verá	 que	 Turing	 tem	 razão.
Conversas	 são	 indícios	 de	 mente	 e	 de	 consciência.	 Mesmo	 que	 conversemos
dormindo,	 inconscientes,	 é	 preciso	 que	 pelo	 menos	 nosso	 interlocutor	 esteja
consciente.
Isso	responde	nossa	questão	inicial:	o	papagaio	pode	recitar	o	discurso	inteiro
de	um	político,	mas	 ele	não	pode	conversar.	Até	hoje	 somente	 seres	humanos
passaram	nessa	versão	forte	do	teste	de	Turing.
O	prêmio	Loebner,	no	valor	de	cem	mil	dólares	 (hoje	em	dia	é	pouco!),	 foi
instituído	para	quem	construísse	uma	máquina	que	passasse	nesse	teste.	Todos	os
anos	há	uma	grande	competição	em	Boston,	mas	ninguém	levou	o	prêmio	ainda.
Estima-se	 que	 somente	 em	 torno	 de	 2029	 seremos	 capazes	 de	 construir	 uma
máquina	que	possa	 conversar	 como	um	ser	 humano.	Será	uma	máquina	muito
diferente	daquelas	que	temos	hoje.	Provavelmente	será	um	computador	híbrido,
ou	seja,	metade	orgânico	e	metade	de	silício,	ou	de	algum	outro	material	que	o
suceda,	como,	por	exemplo,	o	arseniato	de	bário.
CONTINUAR	A	PENSAR
Pesquise	na	internet	o	que	é	um	chatterbot.	Alguns	deles,	como	Eliza	e	Alice,	só	falam	inglês.	Mesmo
assim,	 vale	 a	 pena	 tentar	 conversar	 com	eles.	Se	você	não	 conseguir,	 tente	 o	 brasileiro	Ed.	Será	 que
algum	dia	esses	robôs	passarão	no	teste	de	Turing?
4.
Dos	símbolos	à	parabiose
Desde	 seu	 início,	 há	mais	 ou	menos	 cinco	 décadas,	 a	 IA	 assumiu	 diversas
formas,	 dependendo	 do	 modo	 como	 se	 concebeu	 a	 inteligência	 e	 a	 mente
humanas.	 Elas	 determinaram	 diferentes	 etapas	 pelas	 quais	 a	 IA	 passou	 nas
últimas	décadas.	Podemos	dizer	que	cada	uma	dessas	etapas	corresponde	a	uma
diferente	tentativa	de	simular	a	mente	humana.	Nenhuma	delas	foi	superada	ou
desapareceu.	Nesses	episódios,	 a	história	da	 tecnologia	assemelha-se	à	história
da	evolução:	espécies	passadas	e	presentes	convivem,	e	às	vezes	algumas	delas
demoram	muito	para	desaparecer.	Outras	parecem	que	nunca	serão	extintas.
Imagem	da	obra
O	homem,	de	Descartes
Entre	os	anos	1960	e	1990,	predominaram	duas	espécies	de	IA:	a	inteligência
artificial	 simbólica	 e	 a	 inteligência	 artificial	 conexionista.	 A	 primeira	 sonhava
em	construir	 grandes	 solucionadores	 de	 problemas	 (máquinas	 de	 jogar	 xadrez,
de	 fazer	cálculos	de	engenharia,	de	 fazer	demonstrações	matemáticas	etc.);	e	a
segunda,	em	construir	imitações	do	cérebro.
Nas	décadas	de	1960	e	1970,	predominou	a	inteligência	artificial	simbólica,	a
primeira	onda	da	IA.	Naquela	época,	achava-se	que	a	inteligência	humana	estava
ligada	a	duas	características:	a	capacidade	de	manipular	símbolos	e	a	memória.
O	 homem	 produz	 símbolos	 e	 tem	 uma	 poderosa	memória.	 Os	 outros	 animais
não.	É	 aí	 que	 reside	 a	 inteligência	humana.	Portanto,	 um	dispositivo	qualquer,
para	 simular	 símbolos	 e	 ter	 memória,	 não	 precisava	 ter	 a	mesma	 composição
biológica	 e	 química	 do	 cérebro	 humano.	 Uma	 máquina	 poderia	 fazer	 isso	 se
apenas	 emulasse	 as	 funções	 do	 cérebro.	 Essa	 foi	 a	 hipótese	 com	 a	 qual	 os
pesquisadores	da	IA	dessas	duas	décadas	trabalharam.
Nós	pensamos	com	linguagem	(você	já	tentou	pensar	sem	ela?),	ou	seja,	com
símbolos	 sonoros	 ou	 escritos	 que	 são	 manipulados	 pela	 nossa	 mente.	 Essa
operação	de	manipulação	simbólica	pode	ser	descrita	através	de	um	programa	de
computador.	A	mente	é	um	programa	computacional:	sua	replicação	depende	da
descoberta	 de	 um	 programa	 adequado	 que	 permita	 simulá-la.	 Se	 entendermos
como	esse	programa	funciona,	compreenderemos	como	funcionam	a	mente	e	a
inteligência.	 Foi	 a	 partir	 dessas	 ideias	 que	 os	 pesquisadores	 da	 IA,	 nos	 anos
1970,	concentraram	seus	esforços	no	aperfeiçoamento	de	softwares	inteligentes.
Para	eles,	a	mente	era	distinta	do	cérebro	da	mesma	maneira	que	o	aparelho
de	 rádio	 é	 diferente	 da	música	 que	 ele	 toca.	Não	 se	 pode	 reduzir	 a	música	 às
peças	do	 rádio.	Mente	 e	 cérebro	 são	diferentes	–	 embora	 ambos	pertençam	ao
mundo	material	(sons	e	peças)	–	da	mesma	maneira	que	software	é	diferente	de
hardware.	 A	 mente	 é	 o	 software	 do	 cérebro.	 Essa	 era	 a	 filosofia	 dos
pesquisadores	da	IA	nas	décadas	de	1960	e	1970.
Um	 dos	 grandes	 produtos	 da	 IA	 simbólica	 foram	 os	 sistemas	 especialistas.
Eles	são	solucionadores	de	problemas	acoplados	a	imensos	bancos	de	memória,
nos	 quais	 o	 conhecimento	 humano	 acerca	 de	 determinada	 área	 ou	 disciplina
encontra-se	 estocado.	 Esse	 acoplamento	 permite	 ao	 sistema	 especialista
responder	 a	 consultas,	 fornecer	 conselhos	 para	 leigos	 (sobre	 determinado
assunto),	ajudar	os	especialistas	humanos	e	até	mesmo	auxiliar	no	ensino	de	uma
disciplina	ou	área	de	conhecimento	específica.
Alguns	sistemas	especialistas	ficaram	famosos	na	década	de	1970,	como	foi	o
caso	 do	 Mycin	 e	 do	 Prospector.	 O	 Mycin	 foi	 um	 sistema	 especialista
desenvolvido	para	receitar	medicação	para	pacientes	com	infecções	bacterianas.
O	Prospector	 foi	 um	 sistema	 especialista	 construído	para	 auxiliar	 os	 geólogos.
Ele	foi	muito	bem-sucedido:	em	1980,	possibilitou	a	descoberta	de	uma	reserva
de	 um	metal	 raro	 num	 local	 próximo	 a	Washington,	 que	 até	 então	 tinha	 sido
apenas	parcialmente	explorado.
Mesmo	assim	o	interesse	pela	IA	simbólica	não	durou	muito.	Foi	até	meados
da	década	de	1980,	quando,	como	já	dissemos,	começaram	os	problemas	com	as
máquinas	 de	 tradução.	 Muitos	 teimam	 em	 dizer	 que	 essa	 espécie	 de	 IA	 está
superada,	mas	isso	é	errado.	Convivemos	com	ela	no	nosso	dia	a	dia.	Ela	deixou
muitas	 heranças	 das	 quais	 usufruímos:	 programas	 computacionais	 para	 efetuar
cálculos	 de	 engenharia,	 para	 jogar	 xadrez	 (os	 enxadristas	 de	 Newell	 e	 Simon
foram	 uma	 grande	 realização	 da	 IA	 simbólica)	 etc.	 Muitas	 dessas	 aplicações
tornaram-se	tão	cotidianas	que	sequer	sabemos	que	elas	se	originaram	de	estudos
de	 inteligência	 artificial	 iniciados	 na	 década	 de	 1960	 e	 1970.	 Todaselas
incorporavam	 –	 e	 ainda	 incorporam	 –	 a	 estratégia	 da	 força	 bruta,	 que,	 como
dissemos,	está	ressurgindo	neste	início	de	século.
Passando	 também	 a	 ser	 saudosamente	 chamada	 de	 GOFAI	 (Good	 and	 Old
Fashioned	Artificial	Intelligence,	ou	Velha	e	Boa	Inteligência	Artificial,	em	tom
às	vezes	pejorativo	ou	às	vezes	carinhoso),	a	IA	simbólica	foi,	no	final	dos	anos
1980,	duramente	criticada.	Achava-se	que	esse	modelo	de	inteligência,	baseado
na	 manipulação	 de	 símbolos	 e	 na	 memória,	 estava	 incorreto.	 Muitos
pesquisadores	–	que	identificavam	a	GOFAI	com	a	totalidade	da	IA	–	chegaram
a	 acreditar	 que	 qualquer	 pesquisa	 visando	 a	 simulação	 da	 inteligência	 humana
estaria	fadada	ao	fracasso.	Mas	a	história	prosseguiu.
Se	primeiro	veio	a	máquina	de	manipular	símbolos,	depois	veio	a	tentativa	de
imitar	o	cérebro	humano.	O	segredo	da	nossa	inteligência	estaria	na	fisiologia	de
nosso	 cérebro.	Nele	 predominam	 neurônios	 e	 ligações	 entre	 eles,	 as	 conexões
sinápticas.	 É	 no	 número	 delas	 que	 está	 a	 chave	 da	 inteligência.	O	 cérebro	 do
elefante	pode	ser	muito	maior	do	que	o	nosso,	mas	tem	muito	menos	conexões
sinápticas.	Essa	é	a	explicação	de	por	que	somos	muito	mais	inteligentes	do	que
esses	animais.
Dessa	 ideia	 surgiu,	 no	 começo	 dos	 anos	 1980,	 a	 inteligência	 artificial
conexionista,	a	segunda	onda	da	IA.	Não	mais	se	pensava	em	imitar	a	mente	por
meio	de	símbolos.	Tratava-se	agora	de	criar	um	modelo	simplificado	de	cérebro,
construindo	redes	neurais	a	partir	de	neurônios	artificiais	ou	neuron-like	units.
Tanto	 computadores	 quanto	 cérebros	 são	 sistemas	 cuja	 função	 principal	 é
processar	informação;	portanto,	a	utilização	de	redes	artificialmente	construídas
para	 simular	 o	 processamento	 cerebral	 possibilitaria	 a	 criação	 artificial	 de	 um
modelo	bastante	aproximado	do	cérebro	humano.	Esse	tipo	de	rede	constitui	um
intrincado	 conjunto	 de	 conexões	 entre	 esses	 neurônios	 artificiais,	 os	 quais	 são
dispostos	 em	 camadas.	 Os	 neurônios	 artificiais	 estão	 conectados	 entre	 si,
podendo	 ser	 ativados	ou	 inibidos	 através	das	 conexões.	A	 rede	 funciona	como
um	sistema	dinâmico,	ou	seja,	o	estímulo	 inicial	espalha	excitações	e	 inibições
entre	 os	 neurônios	 artificiais.	 Dado	 determinado	 estímulo,	 diferentes	 estados
podem	 ocorrer	 como	 consequência	 de	 mudanças	 nas	 conexões,	 variando	 de
acordo	 com	 a	 interação	 do	 sistema	 com	 o	 meio	 ambiente	 e	 com	 seus	 outros
estados	 internos.	Em	 alguns	 tipos	 de	 rede,	 esse	 processo	 não	 para	 até	 que	 um
estado	estável	seja	atingido.
Os	 conexionistas	 têm	 uma	 visão	 de	 mente,	 inteligência	 e	 memória	 muito
diferente	 da	 dos	 partidários	 da	 IA	 simbólica.	 Para	 eles,	 não	 há	 distinção	 entre
mente	 e	 cérebro,	 pois	 o	 mental	 emerge	 do	 cerebral;	 a	 inteligência	 surge	 do
aumento	da	conectividade	entre	os	neurônios,	e	a	memória	é	algo	distribuído	na
rede	artificialmente	construída.
Uma	 analogia	 que	 nos	 ajuda	 a	 entender	 como	 a	 mente	 pode	 emergir	 do
cérebro	vem	da	observação	do	que	ocorre	com	a	água.	Sabemos	que	a	água,	se
refrigerada	a	uma	temperatura	inferior	a	0	grau	centígrado,	torna-se	gelo.	Passa
do	estado	 líquido	para	o	 sólido.	As	propriedades	da	água	no	estado	 sólido	 são
diferentes	 das	 da	 água	 em	 estado	 líquido.	A	 solidez	 e	 a	 impenetrabilidade	 são
exemplos	de	propriedades	que	ocorrem	quando	ela	se	encontra	em	estado	sólido
–	 propriedades	 que	 não	 são	 comuns	 ao	 estado	 líquido.	 Será	 “ser	 sólido”	 o
resultado	 da	 alteração	 de	 cada	 um	 dos	 átomos	 da	 água?	 É	 bem	 provável	 que,
para	 produzir	 a	 solidez,	 cada	 um	 dos	 átomos	 da	 água	 tenha	 de	 sofrer	 uma
alteração.	Entretanto,	“ser	 sólido”	não	parece	ser	uma	propriedade	que	poderia
ser	 aplicada	 individualmente	 a	 cada	 um	 dos	 átomos	 da	 água,	 pois	 não	 parece
fazer	 sentido	 dizer	 que	 “um	 átomo	 é	 sólido”,	 embora	 cada	 um	 deles	 concorra
para	a	produção	da	propriedade	“ser	sólido”.	Neste	sentido	específico,	solidez	é
uma	propriedade	emergente	da	água	quando	esta	é	transformada	em	gelo.
Outra	inovação	introduzida	pelos	conexionistas	é	sua	concepção	de	memória
distribuída.	Uma	 lembrança	consiste	de	vários	 elementos	que	estão	espalhados
numa	 rede.	 Quando	 se	 invoca	 um,	 vários	 elementos	 da	 rede	 também	 são
invocados,	 até	 a	 lembrança	 completa	 se	 formar.	 A	 plausibilidade	 da	 memória
distribuída	torna-se	evidente	no	célebre	caso	da	“memória	da	vovó”:	se	todas	as
minhas	memórias	acerca	de	minha	avó	estivessem	estocadas	localmente,	ou	seja,
em	 apenas	 um	 neurônio	 no	 meu	 cérebro,	 e	 se	 por	 acaso	 esse	 neurônio
desaparecesse	ou	se	degenerasse,	no	dia	seguinte	eu	seria	incapaz	de	reconhecer
minha	 avó.	 Tal	 fato	 não	 ocorreria	 se	 minhas	 memórias	 acerca	 de	 minha	 avó
estivessem	distribuídas	 numa	 rede;	 no	máximo,	 eu	me	 tornaria	 incapaz	 de	me
lembrar	 de	 alguma	 característica	 específica	 de	minha	 avó	 ou	 de	 algum	evento
relacionado	com	a	sua	vida.
A	terceira	onda	da	IA,	ainda	no	século	XX,	foi	a	robótica.	Ela	teve	um	grande
desenvolvimento	a	partir	dos	anos	1990	no	laboratório	de	 inteligência	artificial
do	 MIT.	 Havia	 um	 grupo	 de	 pesquisadores	 que	 estava	 preocupado	 em	 criar
máquinas	que	se	 locomovessem	e	interagissem	com	o	meio	ambiente,	sem	que
fossem	inteiramente	pré-programadas,	algo	bem	diferente	do	que	se	dispunha	na
época.	Eles	desenvolveram	toda	uma	geração	de	minúsculos	robôs-insetos	com
essa	finalidade	e,	mais	recentemente,	dedicaram-se	à	produção	do	COG,	o	robô
humanoide	completo.
A	 robótica,	 além	 da	 GOFAI,	 tornou-se	 o	 outro	 movimento	 forte	 na	 IA	 do
século	 XXI.	 Robôs	 são	 máquinas	 que	 não	 apenas	 pensam,	 mas	 que	 também
agem.	A	ideia	geral	da	robótica	é	a	de	que	não	haveria	inteligência	sem	corpo.
Há	quem	acredite	 que	 a	 robótica	 e	 a	GOFAI	 são	movimentos	opostos,	 pois
quem	defende	a	GOFAI	acha	que	a	 inteligência	não	precisa	de	um	corpo.	Mas
isso	ainda	não	 foi	 resolvido.	Há	 robôs	que	não	 têm	corpo	e	outros	que	só	 têm
corpos	virtuais.	Por	exemplo,	chamamos	de	robôs	algumas	ferramentas	de	busca
de	 dados	 (web	 bots	 ou	 knowbots)	 na	 internet,	 que	 certamente	 não	 têm	 corpo.
Robôs	 que	 só	 têm	 corpos	 virtuais	 são	 avatares,	 que	 encontramos	 em	 salas	 de
bate-papo	 ou	 mesmo	 na	 TV.	 Esse	 é	 o	 caso	 de	 Eva	 Byte,	 um	 avatar	 da	 rede
Globo,	muito	popular,	e	que	só	tem	um	corpo	virtual.
Modelo	de	robô
Na	última	década,	a	robotica	deu	passos	gigantescos.	A	construção	de	robôs
permitiu	 que	 se	 superassem	 alguns	 problemas	 tradicionais	 da	 IA	 como,	 por
exemplo,	a	ausência	de	emoções	nas	suas	simulações.	Durante	anos,	a	IA	havia
sido	 acusada	 de	 não	 dotar	 computadores	 de	 emoções,	 o	 que	 marcaria	 uma
diferença	essencial	entre	máquinas	e	humanos.
Os	robôs	Oz	e	Kismet	vieram	preencher	essa	 lacuna.	Eles	são	experimentos
notáveis	 na	 área	 de	 computação	 afetiva.	 Oz	 vem	 sendo	 desenvolvido	 na
Universidade	Carnegie	Mellon,	nos	Estados	Unidos,	desde	o	final	da	década	de
1980.	Ele	foi	criado	para	apresentar	comportamentos	intencionais,	emocionais	e
ser	 capaz	 de	 usar	 a	 linguagem	 comum.	 Oz	 tem	 um	 módulo	 de	 controle	 das
emoções	que	avalia	o	quanto	um	evento	pode	ser	prazeroso	para	ele,	o	quanto
uma	ação	sua	ou	de	outra	pessoa/robô	pode	ou	não	ser	prazerosa	e,	finalmente,
ele	tem	também	condições	de	desenvolver	relações	sociais	básicas.
Kismet,	 que	 foi	 desenvolvido	 no	MIT,	 toma	 como	 ponto	 de	 partida	 que	 as
emoções	 são	 um	 instrumento	 fundamental	 que	 servem	 de	 guia	 para	 facilitar	 a
sobrevivência	 dos	 organismos.	 Emoções	 negativas	 são	 uma	 forma	 de	 evitar
eventos	e	comportamentos	prejudiciais	e	as	positivas	indicam	um	caminho	para
o	 bem-estar.	 Kismet	 trabalha	 com	 seis	 emoções	 básicas:	 ódio,	 nojo,	 medo,
alegria,	 desgosto	 e	 surpresa.	Um	dos	 aspectos	mais	 interessantes	 desse	 robô	 é
sua	capacidade	de	interagir	com	humanos	e	gerar	uma	espécie	de	empatiamútua.
Há	outras	novidades	em	desenvolvimento	na	robótica	neste	início	de	século,
como,	 por	 exemplo,	 Klaus,	 o	 robô	 motorista.	 Nas	 próximas	 décadas,	 robôs
motoristas	virão	como	opcionais	nos	carros,	e	Klaus	é	o	modelo	que	está	sendo
desenvolvido	 pela	 Volkswagen.	 Ele	 é	 um	 robô	 humanoide	 com	 três	 pernas	 e
quatro	 braços.	 Há	 uma	 perna	 para	 cada	 pedal,	 dois	 braços	 para	 controlar	 a
direção,	um	para	trocar	as	marchas	e	um	para	a	ignição.	O	itinerário	do	carro	é
previamente	estabelecido	por	um	GPS,	e	Klaus	deve	fazer	o	percurso	evitando
outros	 carros	 e	 possíveis	 obstáculos.	 No	 caso	 de	 ele	 falhar,	 há	 um	 copiloto
virtual	 que	 imediatamente	 assume	 o	 comando,	 o	 que	 impede	 que	 acidentes
aconteçam.
Além	 de	 Klaus,	 outra	 grande	 novidade	 esperada	 são	 as	 robôs	 Repliee
desenvolvidas	 no	 Japão.	 Elas	 pertencem	 a	 uma	 série	 de	 robôs	 humanoides,
projetados	 para	 servir	 de	 “companheiras”,	 em	 substituição	 às	 mulheres.	 As
Repliee	 serão	 dotadas	 de	 emoções,	 linguagem,	 personalidade	 própria	 e
conviverão	conosco	no	dia	a	dia.	Haverá	também	robôs	homens,	que	se	tornarão
companheiros	 das	 mulheres.	 Nossa	 vida	 sexual	 com	 os	 robôs	 precisará	 ser
estudada	 e	 novos	 campos	 de	 pesquisa	 em	 psicologia	 se	 abrirão,	 pois	 nosso
envolvimento	 emocional	 com	 essas	 novas	 criaturas	 será	 também	 inevitável.	O
amante	 transexual	 poderá	 ser	 um	 problema	 para	 a	 IA,	 pois	 nele	 há	 um
descompasso	entre	software	e	hardware,	em	matéria	de	 identidade.	Nesse	caso,
parecer	não	é	ser,	o	que	significa	romper	com	um	dos	princípios	fundamentais	da
IA.
Ainda	assim,	viveremos,	nesse	estágio,	em	mundos	separados:	ainda	não	nos
misturamos	efetivamente	com	as	máquinas.	Essa	mistura	começa	quando	a	IA	se
alia	 com	 a	 engenharia	 genética.	Quando	 se	 percebeu	 que	 o	 código	 genético	 é
binário,	 ou	 seja,	 que	 é	 o	mesmo	 tipo	 de	 código	 utilizado	 pelos	 computadores,
entramos	na	quarta	onda	da	IA.
A	junção	da	IA	com	a	engenharia	genética	está	nos	levando	para	a	época	do
pós-humano,	 com	 o	 aparecimento	 de	 androides	 e	 cyborgs.	 Androides	 serão
aqueles	 nos	 quais	 a	 parte	 biológica	 prevalece	 e	 eles	 poderão	 ser	 controlados
(alguns	 comportamentos	 e	 QI,	 por	 exemplo),	 interferindo-se	 no	 seu	 código
genético.	Suas	diferenças	com	os	humanos	serão	imperceptíveis.	Cyborgs	são	os
híbridos,	ou	seja,	aqueles	nos	quais	se	misturam	partes	orgânicas	e	inorgânicas.
Nos	cyborgs,	ocorre	a	parabiose	ou	mistura	do	humano	com	a	máquina,	quase
sempre	algum	tipo	de	computador.	Em	geral,	são	os	corpos	humanos	que	servem
de	base	para	as	máquinas,	mas	há	alguns	casos	nos	quais	os	humanos	podem	até
tornar-se	 parasitas	 do	 computador,	 dependendo	 da	 proporção	 entre	 orgânico	 e
inorgânico.
Há	duas	maneiras	 de	 nos	misturarmos	 com	as	máquinas:	 expandindo	 nosso
cérebro	 através	 de	 implantes	 de	 chips	 e	 nanochips	 ou	 transformando	 nossos
circuitos	cerebrais	em	supercomputadores.	Poderíamos	fazer	isso	modificando	as
ligações	entre	nossos	neurônios	(sinapses),	transformando-as	em	circuitos	de	um
supercomputador.	 Mas	 há	 outra	 estratégia.	 Para	 usar	 um	 termo	 mais	 familiar
para	 quem	 sabe	 um	 pouco	 de	 ciência	 da	 computação:	 podemos	 montar	 uma
máquina	 virtual	 mais	 poderosa,	 usando	 como	 base	 o	 cérebro	 humano.	 Para
montar	 uma	máquina	 dessa	 espécie,	 a	 partir	 do	 cérebro,	 talvez	 possamos	 usar
algum	vírus	semelhante	aos	vírus	de	computador,	que	se	apossam	das	máquinas
das	pessoas,	para	depois	fazer	com	que	elas	executem	determinadas	tarefas	sem
que	seus	donos	percebam.	Esses	vírus	invadiriam	o	cérebro,	modificando-o,	ou
poderiam	também	tomar	a	forma	de	micromáquinas	invasoras	que	modificariam
nosso	 cérebro	 em	 nível	 molecular.	 Um	 enxame	 dessas	 micromáquinas,	 ou
nanomáquinas,	poderia	invadir	nosso	corpo.
Nanomáquinas
Dessa	mistura	com	máquinas,	 resultarão	dois	 tipos	de	cyborgs:	um	primeiro
mais	inteligente	que	os	humanos	e	outro	tipo	quase	humano,	menos	capaz	do	que
nós.	Ambos	 serão	 construídos	 sobre	 “plataformas	 humanas”	 –	 cérebros/corpos
humanos	modificados.	O	homem	torna-se	o	melhor	modelo	do	humano.	No	caso
do	 primeiro	 cyborg,	 isso	 significa	 expansão	 de	 memória	 e	 aumento	 de
velocidade	do	cérebro.	Serão	aperfeiçoamentos	importantíssimos,	pois	o	cérebro
humano	não	evolui	há	200	mil	anos.	Ele	é	o	mesmo	cérebro	de	quando	vivíamos
em	 bandos	 pelo	 planeta,	 caçando	 e	 fugindo	 de	 animais	 ferozes.	 Com	 esse
cérebro	obsoleto,	não	conseguimos,	hoje	em	dia,	processar	a	enorme	quantidade
de	informação	necessária	para	sobreviver	na	sociedade	pós-moderna.
O	segundo	tipo	de	cyborg	é	o	humano	com	um	cérebro	simplificado,	ou	seja,
um	 cérebro	 subutilizado	 porque	 uma	 parte	 dele	 foi	 tornada	 um	 computador
programado	 para	 realizar	 tarefas	 simples.	 Esses	 cyborgs	 têm	 cérebros
parcialmente	humanos	(híbridos,	meio	orgânico	meio	máquina)	ligados	a	corpos
complexos	como	os	nossos.	Nosso	corpo	é	um	dos	melhores	robôs	já	produzidos
pela	natureza,	além	de	existir	em	relativa	abundância.	Talvez	a	melhor	palavra
para	 designar	 esse	 tipo	 de	 cyborg	 seja	 semi-humano.	 Eles	 serão	 bons	 para
realizar	 tarefas	 de	 alto	 risco.	 Eles	 também	 resultariam	 da	 invasão	 de	 cérebros
humanos	 por	 vírus	 ou	 nanomáquinas.	 Contudo,	 para	 construí-los,	 o	 melhor
processo	 seria,	 pelo	 menos	 no	 estágio	 inicial	 de	 obtenção	 da	 plataforma,	 a
clonagem,	para	evitar	problemas	éticos	que	surgiriam	da	utilização	de	cérebros
humanos	vivos.
Há	uma	previsão	de	que	nos	tornaremos	cyborgs	antes	do	fim	do	século	XXI.
Será	 difícil	 nos	 distinguirmos	 dos	 robôs	 que	 nós	mesmos	 construiremos,	 pois
homem	e	robô	já	estarão	muito	misturados.	A	associação	entre	corpo	e	máquina
já	começou	há	décadas,	quando	começamos	cada	vez	mais	a	usar	próteses.	Mas
também	começou	a	associação	entre	máquinas	e	corpos,	ou	seja,	máquinas	que
se	 estendem	 para	 o	mundo	 do	 orgânico.	Na	 verdade,	máquinas	 biológicas	 nas
quais	ocorre	essa	associação	inorgânico/orgânico	começaram	a	ser	construídas	já
há	algum	tempo.
Na	 década	 passada,	 na	Universidade	 da	Geórgia,	 nos	 Estados	Unidos,	 uma
máquina	desse	tipo	já	tinha	sido	desenvolvida	utilizando-se	o	cérebro	de	larvas.
Microeletrodos	foram	introduzidos	nos	neurônios	das	larvas	e	o	resultado	de	sua
atividade	elétrica	foi	conectado	às	portas	lógicas	de	um	chip.	 Inicialmente	esse
tipo	 de	 máquina,	 chamado	 de	 leechulator	 só	 podia	 realizar	 operações
matemáticas	 simples.	 Contudo,	 outros	 projetos	 de	 máquinas	 biológicas,	 que
usavam	bacilos	ou	micróbios	para	realizar	computações,	começaram	a	aparecer.
Há	 ainda	 um	 tipo	 mais	 radical	 de	 máquina	 biológica	 que	 está	 sendo
desenvolvido	 na	 Science	 Applications	 International	 Corporation,	 nos	 Estados
Unidos.	Lá	estão	sendo	feitas	culturas	de	neurônios	humanos	em	superfícies	lisas
e	espera-se	que	elas	comecem	a	se	ramificar,	 formando	conexões	sinápticas.	A
pergunta	 é	 quanto	 tempo	 esse	 processo	 levaria	 até	 formar	 um	cérebro,	mas	 os
pesquisadores	 não	 acreditam	 que	 essa	 seja	 uma	 questão	 importante.	 A	 maior
parte	 do	 genoma	 do	 cérebro	 humano	 é	 redundante	 e	 alguns	 acreditam	 que	 os
principais	algoritmos	dos	quais	ele	se	utiliza	para	pensar	cabem	num	arquivo	do
tamanho	do	Microsoft	Word.	Se	tivermos	sorte	e	as	partes	relevantes	logo	forem
formadas,	 em	breve	 teremos	um	cérebro	 pensante	 o	 qual	 poderemos	 acoplar	 a
uma	máquina	ou	a	um	corpo	humano.
Mas,	 neste	 começo	 de	 século,	 enquanto	 os	 androides	 e	 cyborgs	 ainda	 não
aparecem,	a	 tendência	da	IA	é	a	volta	aos	grandes	manipuladores	de	símbolos.
Deep	Blue	parece	marcar	o	início	dessa	era,	que	talvez	seja	curta	na	história	da
IA.	 É	 a	 força	 bruta	 aliada	 ao	 hardware	 poderoso.	 A	 eficiência	 superando	 o
raciocínio.	A	inteligência	vista	como	memória	e	processamento	rápido/eficiente
de	 informação.	 Era	 esse	 o	 modelo	 de	 inteligência	 de	 nossos	 trituradores	 de
símbolos	 nosanos	 1960	 e	 1970.	 Uma	 inteligência	 que,	 na	 época,	 não	 foi	 tão
brilhante	quanto	o	Deep	Blue.
Senhoras	e	senhores,	a	GOFAI	está	de	volta,	e	desta	vez	com	super-hardwares
ou	Super-Crunchers!
CONTINUAR	A	PENSAR
Peça	para	o	seu	professor	passar	o	filme	Blade	Runner:	o	Caçador	de	Androides.	Ele	narra	uma	história
de	 amor	 entre	 um	 humano	 e	 uma	 androide.	 Em	 seguida,	 discuta:	 por	 que	 não	 poderíamos	 amar	 um
robô?	 Será	 tão	 estranho	 amar	 uma	máquina	 se,	 afinal,	 já	 sentimos	 ciúmes	 de	 carros	 e	 de	 máquinas
fotográficas?
5.
O	que	dizem	os	filósofos
Os	intelectuais	nunca	viram	com	bons	olhos	a	IA.	Talvez	porque	humanistas	e
filósofos	 prezem	 muito	 o	 pensamento	 e	 achem	 que	 ele	 deva	 ser	 propriedade
exclusiva	 da	 espécie	 humana.	 Eles	 parecem	 não	 ter	 percebido	 que	 máquinas
pensantes	são,	na	verdade,	grandes	realizações	da	razão	humana	e	que,	quando
jogamos	 xadrez	 com	 um	 dispositivo	 como,	 por	 exemplo,	 Deep	 Blue,	 não
confrontamos	 uma	máquina,	mas	 temos,	 de	 fato,	 um	grande	 desafio	 que	 o	 ser
humano	se	pôs	a	si	mesmo.
Por	 causa	 dessa	 resistência	 à	 IA,	 apareceram	 vários	 argumentos	 tentando
mostrar	 que	 ela	 é	 impossível	 e	 que	 robôs	 nunca	 replicarão	 completamente	 os
humanos.	Há	 dois	 deles	 que	 se	 destacaram:	 o	 argumento	 do	 quarto	 chinês,	 de
John	Searle,	e	o	argumento	do	insight,	de	Roger	Penrose.
No	 início	 da	 década	 de	 1980,	 o	 filósofo	 americano	 John	 Searle	 fazia	 uma
viagem	 de	 avião	 para	 uma	 cidade	 da	 Califórnia,	 na	 costa	 oeste	 dos	 Estados
Unidos,	quando	teve	uma	intuição	acerca	de	um	dos	problemas	mais	importantes
que	os	teóricos	da	IA	tinham	deixado	passar	despercebido.
Searle	preparava,	a	bordo	do	avião,	uma	palestra	que	seria	apresentada	em	um
simpósio	 de	 IA.	Ele	 estava	muito	 impressionado	 com	uma	 série	 de	 programas
computacionais	 que	 estavam	 sendo	 desenvolvidos	 em	 algumas	 universidades
americanas.	 Esses	 programas	 tinham	 sido	 projetados	 com	 uma	 finalidade
específica:	compreender	estórias.
Assim,	por	exemplo,	se	alguém	fornecesse	o	seguinte	 relato	a	um	programa
de	 computador	 projetado	 para	 compreender	 estórias:	 “Um	 homem	 entra	 num
restaurante,	pede	um	sanduíche	e	sai	sem	pagar	nem	deixar	gorjeta	porque	notou
que	o	pão	estava	amanhecido”	–	o	programa	era	construído	de	tal	maneira	que	o
computador	 “responderia”	 coerentemente	 a	 questões	 elaboradas	 com	 base	 no
texto	da	estória.	Ou	seja,	 tudo	se	passava	como	num	exercício	de	interpretação
de	textos	daqueles	que	costumam	cair	em	exames	vestibulares.	A	diferença	era
que	a	interpretação	do	texto	era	efetuada	por	um	computador,	convenientemente
programado	para	fornecer	respostas	adequadas.
Tudo	 isso	 não	 teria	 nada	 demais	 se	 os	 autores	 deste	 tipo	 de	 programas	 não
sustentassem	que	essas	máquinas	eram	capazes	de	compreender	as	estórias	que
lhes	 eram	 fornecidas,	 e	 que	 tais	 programas	 funcionam	 exatamente	 como	 seres
humanos:	eles	podem	compreender	textos.
Searle	 não	 se	 conformou	 com	 esse	 tipo	 de	 afirmação	 e	 elaborou	 um
argumento	 filosófico	 –	 o	 Chinese	 Room	 Argument	 (Argumento	 do	 Quarto
Chinês)	–	para	mostrar	que	a	ideia	de	que	tais	programas	simulavam	a	atividade
humana	de	compreender	estórias	e	textos	era	completamente	equivocada.	A	ideia
central	 do	 argumento	 é	 inverter	 a	 situação	 de	 simulação	 e	 imaginar	 a	 tarefa
executada	pelo	computador	sendo	realizada	por	um	ser	humano.
Imaginemos	então	uma	pessoa	trancada	num	quarto	que	não	tem	portas	nem
janelas,	 apenas	 duas	 portinholas	 em	 paredes	 opostas.	 Esta	 pessoa	 fala	 apenas
português,	mas	alguém	lhe	fornece	um	texto	em	chinês	e	uma	espécie	de	tabela
com	regras	e	truques	(escritos	em	português)	para	que	ela,	a	partir	de	sentenças
escritas	 em	 chinês,	 gerasse	 novas	 sentenças	 em	 língua	 chinesa.	 De	 vez	 em
quando,	abre-se	uma	das	portinholas	do	quarto	e	alguém	fornece	a	essa	pessoa
um	novo	texto	escrito	em	chinês.
O	ocupante	do	quarto,	a	partir	do	texto	inicial	escrito	em	chinês	e	dos	novos
textos	que	foram	introduzidos,	gera	um	terceiro	texto	em	chinês	usando	as	regras
de	transformação	que	estão	na	tabela.	Como	o	processo	é	repetido	regularmente,
ele	 vai	 adquirindo	 uma	 habilidade	 muito	 grande	 no	 manejo	 das	 regras	 de
transformação.
Ora,	essa	situação	corresponde	ao	que	ocorre	no	 interior	de	um	computador
dotado	de	um	programa	para	compreender	estórias:	o	texto	inicial,	que	está	com
a	 pessoa	 trancada	 no	 quarto,	 corresponde	 à	 estória	 que	 é	 fornecida	 ao
computador.	 As	 novas	 sentenças	 que	 são	 geradas	 com	 base	 nas	 regras	 de
transformação	podem	muito	bem	ser	as	respostas	às	perguntas	que	foram	feitas
com	base	no	texto.
Ocorre	que	a	pessoa	que	está	no	interior	do	quarto,	manipulando	a	tabela	com
as	 regras	 de	 transformação,	 embora	 produza	 sentenças	 que	 são	 respostas
adequadas	 às	 perguntas	 sobre	 o	 texto	 em	 chinês,	 não	 compreende	 chinês.	 A
pessoa	não	compreende	o	texto	inicial	em	chinês,	tampouco	as	repostas	que	são
geradas.	 Tudo	 se	 passa	 de	 maneira	 parecida	 ao	 incidente	 do	 macaco	 que
penetrou	 numa	 fábrica	 de	 máquinas	 de	 escrever	 e,	 apertando	 teclas	 ao	 acaso,
acabou	produzindo	o	texto	do	Hamlet	de	Shakespeare.	Diz-se	que	o	macaco	não
tinha	a	menor	ideia	do	texto	que	estava	produzindo.	À	diferença	da	tabela	com
as	regras	de	transformação,	o	mesmo	acontece	na	situação	da	pessoa	trancada	no
quarto	 –	 uma	 situação	 imaginária	 que	nada	mais	 faz	 do	que	 ilustrar,	 de	 forma
mais	didática,	o	que	ocorre	no	interior	dos	computadores	com	seus	programas.
Da	mesma	maneira	 que	 uma	 câmara	 de	 televisão	não	 vê	nada,	mas	 apenas
reproduz	 imagens	 às	 quais	 nós	 atribuímos	 interpretações,	 os	 programas
elaborados	 para	 compreender	 estórias	 na	 verdade	 nada	 compreendem.	 Eles
apenas	manipulam	símbolos	–	símbolos	que	não	têm	nenhum	significado	para	a
máquina.	Trata-se	de	uma	manipulação	de	símbolos	inteiramente	cega.	Dizer	que
uma	 máquina	 compreende	 ou	 enxerga	 é,	 no	 entender	 de	 Searle,	 um	 grande
equívoco.	É	o	mesmo	que	dizer	 que	um	papagaio	 fala,	 quando	 ele	 na	verdade
apenas	emite	sons	que	são	imitados	após	muitas	repetições.
Mas	 o	 que	 faz	 com	 que	 nós,	 seres	 humanos	 –	 à	 diferença	 das	máquinas	 –
possamos	 compreender,	 enxergar	 e	 gerar	 significado	 para	 nossa	 linguagem,
nossos	pensamentos	e	nossas	ações?	Os	filósofos	chamaram	a	essa	faculdade	de
intencionalidade	–	 uma	propriedade	que	caracteriza	nossos	 estados	mentais.	A
intencionalidade	 se	manifesta	 à	medida	 que	 sabemos	 a	 que	 se	 referem	 nossos
estados	mentais.	Quando	falamos,	não	estamos	apenas	emitindo	sons:	sabemos
do	que	estamos	falando	e	que	nossas	palavras	se	referem	a	coisas	que	estão	no
mundo.	Todos	os	nossos	pensamentos	–	sejam	expressos	em	palavras	ou	não	–
têm	 conteúdos	 que	 apontam	para	 coisas	 ou	 situações	 do	mundo.	É	 impossível
estar	 pensando	 sem	 estar	 pensando	 em	 alguma	 coisa.	 E	 quando	 estamos
pensando,	 sabemos	 selecionar,	 entre	 nossos	 estados	 mentais,	 aqueles	 que
apontam	para	objetos	que	estão	à	nossa	volta	e	aqueles	que	são	mais	distantes,
como,	por	exemplo,	os	conteúdos	da	nossa	imaginação.	De	qualquer	maneira,	há
sempre	 uma	 direcionalidade,	 algo	 como	 um	 apontar	 para	 fora	 de	 nós	mesmos
que	faz	com	que	nossos	pensamentos	adquiram	significado	ou	sentido.
Dizer	que	o	significado	é	um	produto	da	intencionalidade	não	ajuda	muito	se
não	sabemos	como	e	por	que	nossos	pensamentos	 têm	essa	propriedade.	Sobre
esse	 ponto,	 sempre	martelaram	os	 pesquisadores	 da	 IA	que	 nunca	 aceitaram	o
argumento	do	quarto	chinês.	Além	disso,	eles	tinham	várias	outras	objeções.
Quem	me	garante	que	sempre	compreendo	o	que	 falo?	Por	acaso	muitos	de
nossos	processos	mentais	cotidianos	não	são	 tão	 rotineiros	que	os	 fazemos	por
associação	tão	mecânica	e	cega	como	as	do	computador?	Não	serão	as	operações
que	ocorrem	no	meu	cérebro,	quando	compreendo	algo,	tão	cegas	quanto	as	que
ocorremno	computador?	Por	acaso	tenho	acesso	ao	que	se	passa	no	meu	cérebro
quando	estou	compreendendo	alguma	coisa?
E	como	podemos	saber	se	alguém	está	realmente	compreendendo	o	que	faz?
Pelas	 suas	 declarações?	 “Sim,	 eu	 compreendo	 o	 que	 faço	 quando	 respondo	 a
uma	pergunta	sobre	o	texto”.	E	uma	máquina	não	poderia	ser	programada	para
fornecer	 essa	 declaração?	O	 que	 nos	 resta	 é	 a	 observação	 do	 comportamento,
seja	ele	o	de	um	ser	humano	ou	de	uma	máquina.	A	vida	interior	de	um	outro	ser
humano	é	algo	a	que	temos	um	acesso	muito	limitado.	Aliás,	nossa	própria	vida
interior	é	algo	sobre	o	que	pouco	sabemos.
Essas	 objeções	 nunca	 conseguiram	 refutar	 inteiramente	 o	 argumento	 de
Searle.	Mas	ele	nunca	foi	inteiramente	aceito.
A	segunda	objeção,	a	do	insight,	feita	por	Penrose,	não	é	muito	diferente.	Se
concebermos	 insight	 como	 uma	 compreensão	 instantânea	 entenderemos	 o
motivo.	Penrose	diz	que	um	computador	não	pode	ter	insight.	Ele	pode	até	gerar
informações	 novas,	 a	 partir	 do	 cruzamento	 de	 informações	 que	 tem	 na	 sua
memória,	mas	nunca	uma	informação	nova	acompanhada	de	um	insight.	A	partir
daí,	 ele	 afirmou	 que	 certos	 problemas	 matemáticos,	 por	 requererem	 insight,
nunca	poderiam	ser	resolvidos	por	máquinas.
Penrose	 toma	 como	 modelo	 de	 insight	 os	 “Eurecas!”	 que	 ocorrem	 nas
demonstrações	matemáticas.	Esse	seria	um	privilégio	humano	que	uma	máquina
nunca	 poderia	 igualar.	 Seu	 exemplo	 predileto	 são	 os	 teoremas	 descobertos	 na
década	de	30	pelo	matemático	austríaco	Kurt	Gödel	(1906-1978).	Mas	Penrose
parece	se	esquecer	de	que	 insight	 não	é	coisa	apenas	de	matemáticos,	 embora,
aparentemente	eles	os	tenham	mais.	Filósofos	também	têm	insights.
Tome	a	frase	“Penso,	logo	existo”.	Você	já	deve	ter	ouvido	falar	dessa	frase.
Ela	é	considerada	um	dos	maiores	 insights	da	 filosofia	ocidental.	Foi	proferida
pelo	filósofo	francês	René	Descartes	em	1641.	Descartes	era	um	homem	que	se
pôs	 a	 duvidar	 de	 tudo.	 A	 dúvida	 é	 a	 primeira	 grande	 expressão	 do	 poder	 da
razão.	Pode-se	duvidar	de	tudo,	a	começar	daquilo	que	nos	é	 transmitido	pelos
sentidos,	 por	 nossas	 sensações.	A	 dúvida	 vai	 demolindo	 as	 certezas	 habituais,
num	 processo	 progressivo.	 Posso	 duvidar	 das	 minhas	 sensações,	 duvidar	 até
mesmo	 se	 o	mundo	 que	me	 é	 dado	 pelas	 sensações	 seria	 realidade	 ou	 apenas
uma	 fantasia	 da	minha	mente.	 A	 dúvida	 sistemática,	 ou	 a	 dúvida	 hiperbólica,
como	 diria	 Descartes,	 seria	 o	 instrumento	 da	 minha	 razão	 para	 combater	 um
gênio	maligno,	 uma	 figura	 alegórica	 que	 simbolizaria	 a	 tentativa	 persistente	 e
habilidosa	de	meus	sentidos	e	de	meus	próprios	raciocínios,	que	poderia	 levar-
me	ao	engano	ou	ao	falso	conhecimento.
René	Descartes
Por	exemplo,	minhas	sensações,	quando	estou	acordado,	são	tão	vívidas	como
quando	estou	sonhando.	Assim	sendo,	como	poderia	eu	distinguir	entre	sonho	e
vigília?	Não	haveria	nenhuma	marca	que	me	permitiria	 saber	 se	as	 impressões
que	tenho	estão	ocorrendo	durante	minha	vigília	ou	durante	um	sonho.	Nada	me
garante	que	eu	esteja	acordado	quando	penso	que	estou;	meu	sonho	teria	o	poder
de	me	convencer	até	mesmo	de	que	eu	estaria	acordado	quando	sonho.	Ou	seja,
quando	 penso	 que	 estou	 acordado,	 poderia	 estar	 sonhando	 um	 sonho	 no	 qual
tudo	se	passaria	como	se	eu	estivesse	acordado.
Poderíamos	 imaginar	 esse	 gênio	 maligno	 como	 um	 neurocientista	 perverso
que,	 através	 de	 um	 implante	 cuidadoso	 de	 eletrodos	 no	meu	 cérebro,	 poderia
produzir	em	mim	vários	tipos	de	sensações,	a	começar	por	sensações	visuais	ou
experiências	 de	 estar	 percebendo	 alguma	 coisa	 diante	 de	mim,	mesmo	 que	 eu
estivesse	momentaneamente	cego.	Eu	perceberia	coisas,	a	despeito	de	elas	não
estarem	diante	de	mim	e	eu	não	poder	enxergá-las.	Esse	neurocientista	tornar-se-
ia	 um	 verdadeiro	 gênio	 maligno	 se,	 através	 do	 implante	 desses	 eletrodos,	 ele
reproduzisse	 o	modo	 como	 as	 sensações	 são	 encadeadas	 numa	 sequência	 que
imitasse	 perfeitamente	 uma	 percepção	 real	 e	 ordenada	 do	mundo.	 Certamente
esse	 neurocientista	 teria	 de	 desenvolver	 uma	 técnica	 bastante	 sofisticada,	 para
determinar	com	precisão	o	local	e	a	sequência	em	que	os	eletrodos	teriam	de	ser
implantados	 em	 meu	 cérebro,	 de	 modo	 a	 produzir	 uma	 alucinação	 tão	 bem
estruturada	que	eu	nunca	pudesse	saber	se	estaria	alucinado	ou	não.
Ora,	o	grande	insight	de	Descartes	é	que	não	posso	duvidar	que	duvido;	disto
ele	infere	sua	frase	mais	célebre,	o	“Penso,	logo	existo”	ou	o	“Cogito	ergo	sum”.
Esse	é	o	grande	 insight,	 a	 certeza	que	ninguém	pode	me	arrancar.	Penso,	 logo
existo.	Isso	porque	podemos	duvidar	de	qualquer	coisa,	até	mesmo	se	o	mundo
existe	ou	 se	2	+	2	=	4,	mas	não	podemos	duvidar	que	estamos	duvidando,	ou
seja,	não	podemos	duvidar	que	pensamos	ao	formular	nossas	próprias	dúvidas,
pois	 dúvidas	 são	 pensamentos.	 Assim	 sendo,	 é	 impossível	 pensar	 que	 não
pensamos,	pois	neste	caso	estaríamos	incorrendo	numa	contradição.	Penso,	logo
existo	é	uma	proposição	única	e	peculiar,	na	medida	em	que	não	é	possível	negá-
la.
Ora,	o	argumento	de	Penrose	poderia	ser	reescrito	mais	ou	menos	da	seguinte
forma:	 será	que	um	 robô	poderia	 ter	 esse	 insight	 semelhante	 ao	que	Descartes
teve	 em	1641?	Um	 insight	 cuja	 força	mudaria	 toda	 a	 história	 da	 filosofia	 que
veio	depois	dele?	Bem,	contra	Penrose,	poderíamos	imediatamente	alegar:	será
que	a	algum	de	nós	poderia	ocorrer	novamente	esse	insight	ao	ler	os	textos	que
Descartes	escreveu	em	1641?
Suponhamos	que	 você	 esteja	 andando	pela	 rua	 e	 encontre	 um	 robô	que	 lhe
diz:	“Penso,	logo	existo!”.	Certamente	você	não	acreditaria	que	ele	estava	tendo
um	insight.	Mas	isso	não	parece	ser	muito	diferente	no	caso	dos	humanos.	Será
que	precisamos	 ter	um	“Eureca”	para	entender	Descartes	quando	o	 lemos?	Ou
precisamos	que	um	robô	tenha	um	insight	igual	a	um	que	ocorreu	há	quase	500
anos	para	se	igualar	a	um	ser	humano?
Da	 mesma	 maneira,	 poderíamos	 perguntar:	 será	 que	 toda	 vez	 que	 um
matemático	 demonstra	 pela	 primeira	 vez	 os	 teoremas	 de	 Gödel	 ocorre
necessariamente	um	insight?
Penrose	 acha	 que	 os	 humanos	 têm	 vários	 tipos	 de	 insights,	 principalmente
quando	estão	resolvendo	problemas	matemáticos.	Mas	ele	nunca	nos	disse	o	que
seria	esse	 insight.	Uma	boa	hipótese	é	que	ele	poderia	 ser	o	processamento	de
informação	a	uma	velocidade	altíssima,	quase	instantânea,	próxima	à	da	luz,	que
ocorreria	 no	 cérebro	 humano,	 pois	 nele	 ocorreriam	 fenômenos	 quânticos.	 As
máquinas	digitais	que	 temos	hoje	não	seriam	capazes	desse	processamento	em
velocidade	 altíssima.	Nesse	ponto	Penrose	 está	 certo.	Elas	 não	 têm	 insight,	 da
mesma	 forma	que	não	 têm	compreensão	 (segundo	Searle).	Mas	 talvez	Penrose
tenha	de	 rever	 seu	argumento	quando	a	construção	de	computadores	quânticos
estiver	aperfeiçoada.	Pois	ele	mesmo	acredita	que	humanos	 têm	 insight	porque
no	nosso	cérebro	ocorrem	fenômenos	quânticos...
Mas	 há	 ainda	 as	 objeções	 levantadas	 contra	 a	 IA	 por	 alguns	 biólogos.	 Eles
tentaram	 traçar	 uma	 linha	 divisória	 entre	 máquinas	 e	 seres	 vivos,	 buscando
características	dos	seres	vivos	que	não	poderiam	ser	replicadas	pelas	máquinas.
Inicialmente	supôs-se	que	essa	característica	poderia	ser	a	autorreplicação.	Mas
essa	hipótese	teve	logo	de	ser	abandonada.	Os	vírus	se	autorreplicam	e	podem	se
multiplicar	rapidamente	pela	internet.	Além	de	se	autorreplicar,	eles	têm	também
a	capacidade	de	mudar	de	forma,	como	os	vírus	dos	seres	vivos.
Mas	 há	 alguns	 biólogos	 que	 acreditam	 que	 existiria	 uma	 propriedade	 dos
seres	 vivos	 que	 as	 máquinas	 nunca	 poderão	 replicar:	 a	 morfogênese.	 Os
organismos,	quando	nascem	e	crescem,	“sabem”	qual	a	forma	que	irão	tomar.	A
mesma	coisa	acontece	no	processo	de	regeneração.	Ao	olharmos	o	conteúdo	de
um	ovo,	 se	não	soubermos	de	que	 tipo	de	organismo	ele	é,	não	poderemos	 ter
nenhuma	 ideia	 de	 qual	 animal	 crescerá	 a	 partir	 daquelascélulas.	 O	 código
genético	de	todos	os	animais	é	praticamente	igual.
Tudo	 se	 passa	 como	 se	 suas	 partes	 soubessem	 sua	 finalidade	 e	 fossem	 se
ajustando	aos	poucos.	Nas	máquinas,	 as	partes	que	 são	montadas	permanecem
separadas,	 não	 ocorre	 nenhum	 tipo	 de	 interação	 entre	 elas	 após	 a	 montagem.
Tampouco	 poderíamos	 imaginar	 uma	máquina	 cujas	 partes	 se	 desenvolvessem
de	acordo	com	algum	plano	que	não	estivesse	em	alguma	parte	dessa	máquina
ou	 tivesse	 sido	 fornecido	a	ela	de	antemão.	Uma	máquina	não	cresce.	Ela	não
assimila	 material	 do	 meio	 ambiente.	 Além	 das	 partes	 não	 interagirem,	 o
desenvolvimento	dessa	máquina	estaria	sujeito	ao	acréscimo	externo	de	peças	de
acordo	com	o	plano	de	algum	engenheiro,	e	não	de	acordo	com	algum	plano	da
própria	máquina.	Essa	seria	uma	das	diferenças	fundamentais	entre	máquinas	e
seres	vivos.
Essa	propriedade	dos	seres	vivos	–	a	morfogênese	–	sempre	foi	um	tema	que
fascinou	os	biólogos	e	até	mesmo	Turing,	que	não	era	biólogo,	mas	se	ocupou
dela	 no	 final	 de	 sua	 vida.	 Como	 é	 possível	 a	 morfogênese?	 Será	 que	 o
crescimento,	 a	 assimilação	 e	 o	metabolismo	 são	propriedades	únicas	 dos	 seres
vivos	 que	marcam	uma	 linha	 divisória	 com	 as	máquinas?	Essas	 são	 perguntas
que	alguns	biólogos	têm	formulado	nas	últimas	décadas.
Pouco	se	sabe	sobre	a	morfogênese	e	se	ela	realmente	ocorre	“de	dentro	para
fora”.	É	possível	que	as	 formas	que	 temos	agora	não	 tenham	sido	conseguidas
por	nenhum	plano	interno	dos	organismos,	mas	por	milhões	de	tentativas	e	erros
que	foram	selecionadas	pela	evolução,	e	em	seguida	passaram	a	ser	transmitidas
para	outras	gerações	a	partir	do	código	genético.	Mas,	nesse	caso,	 isso	poderia
ser	imitado	num	computador.	Há	programas	que	simulam	a	evolução	biológica	e
que	 podem	 fazer	 com	 que	 as	melhores	 formas	 sejam	 herdadas	 pelas	 gerações
seguintes.	 Nesse	 caso,	 a	morfogênese	 perderia	 grande	 parte	 de	 seu	mistério	 e
deixaria	de	ser	uma	característica	exclusiva	dos	seres	vivos.
CONTINUAR	A	PENSAR
Faça	uma	pesquisa	na	internet	sobre	o	tema	“vida	artificial”.	Em	seguida	reflita:	se	os	processos	vitais
são	processos	físico-químicos	que	podem	ser	simulados	por	um	programa	de	computador,	você	acredita
que	um	computador	possa	replicar	a	vida?	Ou	será	que	a	vida	é	propriedade	exclusiva	de	seres	cuja	base
química	é	o	carbono,	ou	seja,	o	tipo	de	vida	que	encontramos	na	Terra?	Se	admitirmos	que	uma	máquina
pode	pensar,	porque	não	podemos	admitir	que	ela	adquira	vida?
Epílogo
Quando	digo	que	a	GOFAI	está	de	volta	não	estou	afirmando	que	a	 IA	está
voltando	aos	anos	1970.	Estou	dizendo	não	apenas	que	os	pesquisadores	estão
reconsiderando	 a	 inteligência	 artificial	 simbólica,	 como	 também	 que	 uma	 de
suas	 hipóteses	 centrais	 está	 sendo	 retomada:	 a	 de	 que	 será	 possível	 replicar	 a
mente	 humana	 em	 dispositivos	 artificiais.	 Essa	 é	 a	 chamada	 hipótese	 da
inteligência	artificial	no	sentido	forte	(Strong	AI)	na	qual	se	acreditou	muito	nos
anos	1970	e	1980.	A	volta	da	IA	forte	nos	dias	de	hoje	se	deve	não	apenas	aos
super-hardwares	da	GOFAI,	mas	também	à	robótica,	que	cada	vez	mais	nos	leva
a	acreditar	que	a	replicação	da	inteligência	humana	e	sua	superação	ocorrerá	em
menos	tempo	do	que	imaginamos.
O	desenvolvimento	da	IA	trará	mudanças	dramáticas	nos	próximos	anos.	Uma
de	suas	 fronteiras	atuais	é	a	nanotecnologia.	Nanotecnologia	é	a	construção	de
máquinas	do	tamanho	de	um	átomo.	“Nano”	significa	um	bilionésimo	de	metro,
largura	de	cinco	átomos	de	carbono.	A	construção	de	nanorrobôs	está	sendo	um
passo	decisivo	para	a	IA.
O	 impacto	 social	 da	 nanotecnologia	 será	 imenso.	Máquinas	 do	 tamanho	 de
uma	molécula	 poderão	 se	 reproduzir	 e	 produzir	 qualquer	 tipo	 de	 objeto.	 Elas
precisarão	apenas	de	matéria-prima	e	de	um	software	que	descreva	o	objeto	para
que	 esse	 possa	 ser	 montado.	 Com	 isso	 será	 possível	 produzir	 comida	 pronta,
roupa,	computadores	e	assim	por	diante.	O	custo	desses	bens	de	consumo	cairá
muito.	E	cairá	vertiginosamente	na	medida	em	que	essas	máquinas	de	produzir
objetos	forem	se	reproduzindo	a	si	mesmas.
Rapidamente,	 sairemos	 do	 mundo	 da	 escassez	 para	 o	 da	 hiperabundância.
Haverá	mudanças	sociais	dramáticas:	com	a	hiperabundância,	os	políticos	muito
pouco	 terão	 a	 prometer;	 a	 própria	 política	 talvez	 desapareça.	 Teremos	 então
ultrapassado	 a	 pré-história	 da	 humanidade,	 na	 qual	 vivemos	 mergulhados	 até
hoje.	 Muitas	 pessoas	 nas	 sociedades	 hiperabundantes	 terão	 problemas
psicológicos,	 pois	 a	 relação	 com	 o	 trabalho	 ainda	 é	 complexa	 em	 nossas
sociedades.	O	Terceiro	Mundo	terá	de	aguardar	o	preço	dessa	tecnologia	baixar
ou	 apostar	 que	 seus	 terroristas	 virem	hackers	 e	 que,	 em	vez	de	 continuarem	a
explodir	carros-bomba,	pirateiem	esses	softwares	pela	internet.
Num	 futuro	 próximo,	 a	 nanotecnologia	 possibilitará	 que	 várias	 ciências	 se
integrem	entre	si	no	estudo	do	ser	humano.	Nanorrobôs	nos	proporcionarão	um
conhecimento	muito	maior	do	nosso	cérebro,	podendo	mapeá-lo	de	dentro	para
fora.	 Eles	 ampliarão	 também	 o	 conhecimento	 sobre	 nosso	 código	 genético	 e
permitirão	eventualmente	alterá-lo	para	que	deixemos	de	ter	certas	doenças	e	de
envelhecer.
Nosso	código	genético	deve	ser	a	base	para	que	compreendamos	as	culturas
humanas.	 Elas	 são	 complexos	 sistemas	 simbólicos	 cujo	 mapeamento	 talvez
possa,	 algum	 dia,	 relacioná-los	 com	 as	 estruturas	 primordiais	 de	 nossas
linguagens.	 Talvez	 cheguemos	 à	 conclusão	 de	 que	 o	 código	 genético	 contém
nossa	gramática	primordial,	de	onde	se	derivaram	todos	os	sistemas	simbólicos
que	compõem	nossa	cultura,	a	começar	pela	linguagem.	Nosso	código	genético
seria	a	matriz	de	todos	os	códigos	que	utilizamos.
Mas	precisaremos	saber	como	esses	símbolos	se	 recombinam	e	mantêm	seu
significado,	estudo	que	é	feito	pela	ciência	cognitiva.	A	ciência	cognitiva	estuda
as	estruturas	de	nosso	pensamento	e	da	nossa	 linguagem.	É	bem	provável	que,
no	 futuro,	 genética	 e	 ciência	 cognitiva	 se	 aproximem	muito,	 chegando	 a	 uma
explicação	quase	completa	da	natureza	humana.
Mas	 será	 preciso	 ainda	 acrescentar	 mais	 uma	 ciência	 para	 chegarmos	 à
compreensão	 da	 natureza	 humana.	 Os	 seres	 humanos	 interagem	 entre	 si	 e
formam	 sociedades.	 É	 preciso	 estudá-las.	 O	 caminho	 é	 construir	 simulações
dessas	sociedades	em	computadores.	Podemos	simular	a	interação	humana	pelo
estudo	do	comportamento	de	bandos	de	microrrobôs.	Já	dispomos	de	sociedades
experimentais	 desenvolvidas	 em	 laboratório	 para	 testar	 teorias	 econômicas	 e
políticas.	 Às	 vezes,	 bandos	 de	 microrrobôs	 desenvolvem	 comportamentos
criativos	 jamais	 vistos	 antes.	 A	 IA	 já	 estuda	 esse	 tipo	 de	 fenômeno:	 como	 a
inteligência	surge	da	interação	social.	Isso	se	chama	inteligência	artificial	social.
Ela	substituirá,	progressivamente,	a	sociologia.
A	 filosofia	 voltará	 a	 ter	 um	 papel	 importante	 nas	 sociedades	 altamente
digitalizadas,	 apesar	 de	 ter	 criticado	 muito	 a	 IA	 nas	 décadas	 passadas.	 Os
pesquisadores	 da	 IA	 precisarão	 cada	 vez	 mais	 dos	 filósofos	 para	 desenvolver
disciplinas	como	a	roboética.	Ela	faz	algumas	perguntas	inquietantes:	deverão	as
máquinas	 ter	 princípios	morais	 como	 nós?	 E	 quais	 deveriam	 ser	 eles?	 É	 bem
provável	que,	 se	embutirmos	princípios	éticos	nos	 robôs,	 a	ética	 se	 torne,	pela
primeira	vez,	uma	realidade	para	os	humanos,	deixando	de	ser	algo	que	ocorre
somente	no	mundo	encantado	dos	filósofos.	 (Por	acaso	princípios	éticos	 foram
vigentes	em	algum	momento	da	história	da	humanidade?)
As	 questões	 éticas	 serão	 inevitáveis,	 sobretudo	 na	 medida	 em	 que	 nos
apegarmos	 aos	 robôs	 tanto	 quanto	 nos	 apegamos	 aos	 animais	 domésticos.	 A
interação	 afetiva	 e	 sexual	 entre	 homens	 e	 robôs	 trará	 novas	 questões	 para	 o
campo	 da	 relação	 entre	 humanos	 e	 máquinas.	 Estaremos	 preparados	 para
interagir	com	robôs	dotados	de	emoções?	A	julgar	pelos	nossos

Continue navegando

Outros materiais