Buscar

INTELIGÊNCIA ARTIFICIAL E DIREITO

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 42 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 42 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 42 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1	
	
 
APRESENTAÇÃO 
 
 Em um trecho do livro Mein Leben, Richard Wagner, narra um período da sua vida: 
 
Decidido a passar aqueles dias da maneira mais tranquila possível, 
tinha levado a Marienbad somente leituras fáceis, que se estendiam 
desde os poemas de Wolfram von Eschenbach difundidos por 
Simrock e San Marte, até a epopéia anônima de Lohengrin, com a 
vasta introdução de Goerres. Com um livro embaixo do braço, eu 
penetrava na floresta todas as manhãs; depois, deitado nas 
proximidades de um riacho, eu me distraia na companhia de Titurel e 
Parsifal, personagens desconhecidos, e contudo tão familiares a 
Wolfram. Rapidamente, o desejo de atribuir um formato pessoal a 
todas essas revelações se tornou tão imperioso que tive grande 
dificuldade em dominá-lo. Tinham-me recomendado que me 
afastasse de qualquer atividade excitante durante o período de 
tratamento: mas um nervosismo crescente se apoderou de mim. De 
improviso, o personagem de Lohengrin se apresentou, armado, 
diante de meus olhos. Ao mesmo tempo, delinearam-se, em minha 
mente, todos os particulares da forma dramática que deveria ser 
atribuída àquele argumento: a lenda do cisne agitou imediatamente 
minha imaginação, despertando uma atração irresistível. 
 
 Embora muito menos alegórico que a narrativa acima, o contexto de elaboração deste 
livro foi mais ou menos semelhante. Passado o turbilhão do início de um projeto de pesquisa e 
desenvolvimento, com toda uma organização metodológica, sucedida por muito trabalho de 
estruturação de dados e muitas tentativas e erros da equipes multidisciplinares de Direito, 
Engenharia de Software e Ciência da Computação envolvidas na realização de um projeto 
inovador em Inteligência Artificial e Direito, chegara um momento (ainda de trabalho), mas 
de ver fazer relatos e consolidações – metaforicamente nossa Marienbad. Mas toda a 
inquietude e necessidade de buscar conhecimentos, habilidades e entendimentos que foram 
presentes no início daquele projeto floresceram. Não se poderia esperar!. Foi justamente este 
espírito e o resgate de dificuldades que enfrentamos (guardadas as devidas proporções com o 
mestre da Ópera Lohengrin), que se idealizou o presente livro para, singelamente, buscar uma 
contribuição para os juristas que se interessam ou se aventuram na busca de ideias, projetos, 
desenvolvimentos e conhecimento nas/das relações entre Inteligência Artificial e Direito. 
 Leituras realizadas em 2017 e 2018, originaram o presente livro, que tem a intenção de 
colaborar com os estudos em língua portuguesa desta temática tão intrigante e apaixonante 
2	
	
que é a Inteligência Artificial e o Direito, buscando, com seriedade, mas com consciência da 
limitação que um livro tem, os conhecimentos e debates mais fronteiriços envolvendo a 
relação das duas disciplinas. 
Os mais ousados atribuem um caráter tão impactante à inteligência artificial quanto 
foi, no passado, o início da modelagem para uso da eletricidade. Outros associam um grau de 
equivalência a própria internet. Por outro lado, há escritos sobre os malwares e o mau uso da 
inteligência artificial. O presente trabalho buscou fazer um panorama sobre várias discussões 
e uma proposta metodológica para realização de projetos e/ou pesquisas para o bom uso da 
Inteligência Artificial, estruturadas com princípios de responsabilidade e respaldo ético. Boa 
leitura! 
 
Viena, Outono 2018 
Brasília, Verão 2019. 
os Autores 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3	
	
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
“By far the greatest danger of Artificial Intelligence is that people conclude too early that 
they understand it.” - Eliezer Yudkowsky. 
 
4	
	
 
INTRODUÇÃO 
INTELIGÊNCIA ARTIFICIAL E DIREITO 
 
 O livro está estruturado em três partes, homenageando uma representação tradicional 
utilizada na análise de sistemas e engenharia de software: o modelo Input-Process-Output 
(IPO). Na primeira parte, chamada Input, dois capítulos tratarão da organização de temas e 
tópicos de fundamento para a temática. Neles serão tratados aspectos do raciocínio jurídico e 
da comparação entre inteligência artificial e humana, traços históricos, tanto da Inteligência 
Artificial quanto da sua relação com o Direito, aspectos éticos ligados ao desenvolvimento de 
pesquisas na área, entre outros. No segundo capítulo, ainda de base, será reservado espaço 
para discussão sobre alguns mitos e leis associados à Inteligência Artificial. O capítulo 
buscará situar o leitor sobre a realidade da Inteligência Artificial e Direito. 
 Na segunda parte, chamada de Process, embora sejam tratados aspectos conceituais 
importantes para a Inteligência Artificial, buscar-se-á apresentar ao leitor aspectos da 
dinâmica do funcionamento de técnicas e soluções de IA. Nesta parte, haverá exposição ao 
leitor de elementos da inteligência artificial geral, específica e superinteligência, machine 
learning, redes neurais, deep learning, algoritmos, processamento de linguagem natural 
 Na parte final, chamada de Output está reservado espaço para tendências da 
Inteligência Artificial e Direito, nas mais diversas aplicações para a advocacia, na 
administração pública e na atividade dos juízes, na pesquisa e desenvolvimento e a dinâmica 
provocada em aspectos da teoria do Direito. No encerramento da Output, como capítulo final, 
o livro apresentará um proposta metodológica para aplicação em projetos de pesquisa e 
desenvolvimento que envolvam Inteligência Artificial e Direito. 
 
 
 
 
 
 
5	
	
 
PARTE I 
“INPUT” 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6	
	
 
CAPÍTULO I 
INTELIGÊNCIA ARTIFICIAL E DIREITO: RACIOCÍNIO, CARACTERÍSTICAS e 
FUNDAMENTOS 
 
 
Only a problem found by yourself can really interest and 
drive you to the final solution. 
Bob MacPherson - Harvard University - Princeton University 
 
 
 
1 INTRODUÇÃO 
Há muito tempo a Inteligência Artificial (IA) vem interagindo com diversas áreas do 
conhecimento e permitindo o desenvolvimento de inúmeras soluções, utilizando conceitos, 
por exemplo, da machine learning, para a realização de tarefas repetitivas, complexas que 
demandariam uma utilização de esforços humanos, com uma acurácia superior e em tempo e 
custo inferiores. Na interação com o Direito, inúmeras temáticas também foram trabalhadas e 
– a cada dia- aperfeiçoadas ou inovadas: due diligence, prediction technology, legal analytics, 
document automation têm um campo amplo para aplicação das técnicas de IA. Para iniciar 
um estudo de elementos da IA e o Direito são importantes algumas reflexões sobre a IA e o 
raciocínio jurídico e, especialmente, o estabelecimento sobre quais princípios deve estar 
estruturado o desenvolvimento da IA, quando associada ao Direito. 
No presente capítulo, para se construir uma ideia dos aspectos sensíveis do raciocínio 
jurídico para a IA e sobre os princípios de desenvolvimento da IA no Direito, serão 
apresentadas algumas informações sobre o que se imaginava, na virada do milênio, que seria 
a relação IA e o Direito. Este distanciamento de aproximadamente duas décadas permite 
algumas importantes observações. O capítulo também informará sobre um breve histórico da 
IA (que se desenvolve de forma multidisciplinar desde os anos 50 – portanto permitindo um 
histórico oceânico), com vistas da fornecer um backgroud aos próximos capítulos do livro. 
Elegeu-se igualmente como importante para o início deste estudo estabelecer alguns marcos 
7	
	
sobre habilidades associadas à IA, riscos reconhecidos ou atribuídos e, associados a eles, 
alguns aspectos éticos que devem estar muito fortemente presentes ao se falar de IA e Direito. 
Marcará o presente capítulo a intenção de diferenciar a inteligência humana e a 
inteligência artificial, especialmente no sentido de enfrentar, mais adiante, alguns mitos 
associados à IA, bem como questões maisconcretas relativas à personalidade e 
responsabilidade jurídicas. 
2 INTELIGÊNCIA ARTIFICIAL NO RACIOCÍNIO JURÍDICO 
Poderia se reduzir os custos provocados pelos danos causados em uma tempestade? 
Como se poderia incrementar os cuidados à saúde? Haveria um forma de se ampliar a 
capacidade cognitiva humana? Ao mesmo tempo que o presente capítulo está sendo escrito, 
no sul da China, em Seattle, em Amsterdã ou em qualquer outro lugar do mundo onde a 
informação alcance, a IA está em discussão. 
 Há, na intenção de conhecimento humano, intrigantes desafios na compreensão das 
experiências, da memória, da organização do raciocínio e do trato das informações. E as 
abordagens são discutidas pelas ciências exatas, humanas ou biológicas1. 
 A IA é atividade multidisciplinar e, portanto, a intenção de delimitá-la implicará em 
necessários recortes. Ela é estudada tanto a partir de uma ótica da tecnologia da informação, 
como é o caso do Professor Thomas Malone, do MIT, quanto, como se pode perceber, no 
próprio MIT, pela ótica da ciência computacional, como se percebe nos trabalhos de Harini 
Suresh (MIT CSAIL)2. Dessa forma, a IA pode ser observada como uma practical groundig 
																																																								
1 Essa divisão tripartite das áreas do conhecimento humano é questionada/questionável e somente foi indicada 
nessa passagem com a intenção de apontar a amplitude do tema. 
2 Harini Suresh tem um interessante estudo de como fazer algoritmos de machine learning mais confiáveis em 
determinadas áreas muito específicas. Isso pode envolver implicações legais, éticas e filosóficas que devem ser 
muito bem enfrentadas. A confiabilidade passa necessariamente pelo caminho em múltiplas camandas, ou seja, 
segundo Suresh, para o MIT News, em 24 de abril de 2018, “is investigating this multilayered puzzle: how to 
create fair and accurate machine learning algorithms that let users obtain the data they need. Suresh studies the 
societal implications of automated systems in MIT Professor John Guttag’s Data-Driven Inference Group, 
which uses machine learning and computer vision to improve outcomes in medicine, finance, and sports. Here, 
she discusses her research motivations, how a food allergy led her to MIT, and teaching students about deep 
learning.” Continuando sua explicação, ela foi perguntada ainda e respondeu: “Q: What are you currently 
working on? 
A: I’m studying how to make machine learning algorithms more understandable and easier to use responsibly. 
In machine learning, we typically use historical data and train a model to detect patterns in the data and make 
new predictions. 
If the data we use is biased in a particular way, such as “women tend to receive less pain treatment”, then the 
model will learn that. Even if the data isn’t biased, if we just have way less data on a certain group, predictions 
for that group will be worse. If that model is then integrated into a hospital (or any other real-world system), it’s 
not going to perform equally across all groups of people, which is problematic. 
8	
	
in a business applications, como estratégia de performance, ou como delegação de funções 
roboticamente praticáveis, isto é, que envolvam repetição, padrões e volumes em atividades 
não supervisionadas, mas sempre com fundo ético e responsável. 
Segundo Shabbir e Anwer (2015) a IA se refere a capacidade de reprodução artificial 
da capacidade de adquirir e aplicar diferentes habilidades e conhecimentos para resolver um 
dado problema, resolvendo-o, raciocinando e aprendendo com as situações. Há suporte para o 
êxito desta reprodução, pois a inteligência envolve a aplicação de funções cognitivas, tais 
como linguagem, atenção, planejamento, memória e percepção (Shabbir; Anwer. 2015). 
Todas estas funções executáveis artificialmente. 
O grau de evolução na capacidade de integração de funções cognitivas artificiais e os 
limites em graus variados de complexidade são as chaves principais nos estudos de IA. Até 
agora, só há respostas e caminhos que reproduzem parcialmente a capacidade da inteligência 
humana. Objetivamente, IA será considerada como uma constelação de tecnologias – da 
machine learning para o processamento de linguagem natural, que permitem à máquina 
percepções, compreensões, ações e aprendizado. 
Embora os conceitos serão trabalhados na parte II deste livro (“Process”) é oportuna 
uma organização dos campos da IA e machine learning: 
 
																																																																																																																																																																													
I’m working on creating algorithms that utilize data effectively but fairly. This involves both detecting bias or 
underrepresentation in the data as well as figuring out how to mitigate it at different points in the machine 
learning pipeline. I’ve also worked on using predictive models to improve patient care.” MIT News, em 24 de 
abril de 2018. 
 
9	
	
fonte: (MAINI;SABRI, 2017) 
A IA é uma subárea da ciência da computação e busca fazer simulações de processos 
específicos da inteligência humana através de recursos computacionais. Está estruturada sobre 
conhecimentos de estatística e probabilidade, lógica e linguística. Miles Brundage (2018) 
define IA como um corpo de pesquisa e engenharia com o objetivo de usar tecnologia digital 
para criar sistemas aptos a desempenhar atividades para as quais se usa a inteligência humana. 
 
fonte: https://mc.ai/machine-learning-a-strategy-to-learn-and-understand/ 
 
Por sua vez, a machine learning, pode ser apresentada como um conjunto de métodos 
que pode detectar padrões em dados de forma automática, utilizando esses padrões para 
projetar dados futuros ou desempenhar formas de tomada de decisão (MURPHY, 2012). 
A machine learning é, portanto, uma subárea da IA destinada a permitir que 
computadores possam aprender por conta própria, utilizando algoritmo de identificação de 
padrões em dados fornecidos (MAINI;SABRI, 2017). 
A IA permite, a partir da tecnologia, em uma considerável medida, alterar a relação 
entre pessoas, potencializando suas capacidades criativas e habilidades. Tem, assim, uma 
função disruptiva e está diretamente associada à produtividade de ações e conhecimentos. A 
IA associa-se a engenhosidade humana, contribuindo com velocidade e precisão, 
10	
	
especialmente em tarefas que demandariam muito tempo, repetição de esforços e fidelidade a 
parâmetros. 
 Para melhor se estabelecer o campo da IA, uma lenda antiga é resgatada no paper do 
Prof. Shoumen P. Austin Datta, do Auto-ID MIT. Trata-se da história de sete homens sábios 
indianos cegos e um elefante, que mostra que as discussões fragmentárias podem levar a 
equívocos.3 Confirmando a ideia de que existem definições de IA de acordo com o viés 
profissional de sua utilização, Datta (2015), opta por um conceito indutivo de IA, no sentido 
de que IA não é um ponto específico, mas uma linha. IA seria4 um arranjo de sistemas de 
rede que não poderia ser encaixado com habilidades tipicamente humanas, ainda. Nesta ideia 
de linha, uma melhor compreensão sobre IA é que trata-se de da subárea da ciência da 
computação que faz modelagens computacionais do comportamento humano5. Tal construção 
se dá por iniciativas de modelagem de inteligência, identificando-se formatos 
comportamentais em determinadas situações e buscando, no computador, comportamentos da 
mesma maneira. A diferença será, destacadamente sob o aspecto técnico, a velocidade e a 
acurácia. 
 Contudo, para a acurácia, uma questão crucial é identificar/decidir qual é o nível de 
simetria entre a atividade computacional e o que ocorre realmente na inteligência humana, 
que processa visão e demais sentidos, memória, cognição, sensibilidades, etc. Com essa 
percepção, a ideia da história dos sete sábios cegos volta a fazer todo sentido. As 
especificidades, contingencialidades,parcialidades, embora possivelmente existentes ou 
verdadeira (no sentido da história indiana) não correspondem ao conceito holístico, global ou 
coletivo. Essa percepção é fundamental para definir qualquer método de trabalho entre IA e 
Direito, como se reforçará ao longo deste livro.6 
																																																								
3 Eles viviam a aconselhar a população sobre uma variável ordem de problemas, mas sempre viviam discutindo 
sobre quem, dos sete, era o mais inteligente. Até que um deles, cansando dessa espécie de competição, deixou o 
grupo e foi para as montanhas. Chega então um comerciante montado em um elefante gigantesco. Cada um dos 
seis sábios apalpa uma parte diferente do elefante e afirma ser o “objeto desconhecido” algo diferente: cobra, 
parede, árvore, abano, lança.... O sétimo sábio, descendo das montanhas, pede que uma criança desenhe no chão 
a figura completa e afirma ser o objeto um elefante. Afirma que os homens se comportam muitas vezes assim, 
pegando fragmentos e pensando ser o todo. Adaptado das narrativas de Heloisa Prieto e John Godfrey, acessível 
em https://otempotemhistorias. wordpress.com. 
4 No original, a integralidade do pensamento: “an array or collective continuum of network systems which may 
not be boxed with human skills, yet (the latter is by far the most ludicrous and incredible claim at the present 
time under our known circumstances)” Datta (2015). 
5 Melhor detalhamento pode ser obtido no https://ocw.mit.edu/courses/electrical-engineering-and-computer-
science/6-825-techniques-in-artificial-intelligence-sma-5504-fall-2002/lecture-notes/Lecture1Final.pdf 
6 Um detalhado histórico do processo de desenvolvimento e perspectivas de IA está descrito no paper: “A 
review of artificial intelligence”, de E.S. Brunette, R.C. Flemmer and C.L.Flemmer. School of Engineering and 
11	
	
2.1 IA e aspectos históricos 
Russell7 (2018) faz todo um detalhamento histórico no seu livro sobre Inteligência 
Artificial, dividindo a história em período gestacional (1943-1955); período de nascimento 
(1956), atribuído à John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester, 
do Dartmouth College; período do entusiasmo (1953-1969); período do realismo (1966-
1973); período dos sistemas baseados em conhecimento (1969-1979) e, por fim o período 
industrial da IA (1980 até hoje). 
Segundo Shabbir e Anwer (2015), a origem da IA veio com Alan Turing a partir da 
Segunda Guerra Mundial e o serviço de decodificação de mensagens. O termo foi usado a 
partir dos anos 50, pelo denominação feita por Turing no artigo Computational Machinery 
and Intelligence. Contudo, apenas três décadas depois ganhou impulso pela resoluções de 
equações e análise de textos em diferentes linguagens. O impulso definitivo da inteligência 
artificial veio na década passada com a evolução da internet e dos microprocessadores, 
redução dos custos de armazenagem em nuvens, novos algoritmos e outras inovações. 
 Após Turing, John Von Neumann, nos Estados Unidos, contribuiu com a ideia 
central de que os computadores podem ser desenhados usando-se o cérebro humano como 
modelo e iniciou uma concepção antropomórfica da computação, com linguagem, memória e 
termos típicos ao funcionamento das redes neurais humanas. Ainda na década de 50, um 
pressuposto básico para o desenvolvimento da IA surgiu com o estabelecimento de teorias 
que reconheceram a possibilidade de pensamento fora do cérebro humano. Foi em 1958 que 
surgiu o primeiro programa inteligente baseado em modelos de processamento de informação 
(Shabbir; Anwer .2015). 
Depois de um período habitualmente chamado de inverno da IA (MAINI;SABRI, 
2017), que para muitos durou por quatro décadas, ela desabrochou num espetáculo de 
aplicações chamado primavera, com rápidos avanços especialmente creditados ao incremento 
da capacidade de armazenagem de dados e processamento computacional. Em 2015, há o 
																																																																																																																																																																													
Advanced Technology of Massey University, New Zeland. No trabalho, além da perspectiva histórica, há o 
registro do trabalho de Mikawa (2004), sobre variáveis da mente humana: “consciousness, preconsciousness and 
unconsciousness. In this model most data processing is done in the non-conscious states. He therefore proposed a 
system where the level of information processing changed, based on visual information being received. In his 
model, external information processing is conducted when the robot is awake. However, when the robot is in 
sleep mode, external information processing is reduced and more internal information possessing is conducted.” 
(BRUNETTE, 2009, p. 386) [All content following the pages of the paper was uploaded by Claire Flemmer on 
25 March 2014.] 
7 Em seu livro Inteligência Artificial, há o relato detalhado do que Russell considera marcante em cada período. 
(RUSSELL; NORVIG. 2018). 
12	
	
experimento do Google em IA, que construiu um agente de IA com capacidade de interação 
com humanos, inclusive habilitado em discussões sobre aspectos de moralidade, opinião 
própria e respostas em geral (MAINI;SABRI, 2017). 
Os exemplo de conversas são muito interessantes para se ter uma dimensão do alcance 
de uma aplicação de IA: 
 
fonte: (MAINI;SABRI, 2017) créditos: 
(Vinyals & Le, 2017) destacada conversation 4 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
	
13	
	
 
 
 
 
 
fonte: (MAINI;SABRI, 2017) créditos: (Vinyals & Le, 2017) destacada conversation 5 
 
No mesmo ano, a DeepMind desenvolveu uma IA para superar a performance humana 
em 49 jogos de Atari, tendo como input apenas pixels e pontuações do jogo. A evolução foi 
rápida para a solução chamada A3C. AlphaGo derrotou um dos melhores jogadores de Go, 
marcante feito após o notório caso do DeepBlue. Muitos mestres não conseguiam acreditar na 
capacidade da máquina em um jogo tão complexo de estratégia em que é possível 
10170posições. Em 2017, o Facebook anunciou uma bem sucedida aplicação para negociação. 
O Google também lançou um aplicativo de tradução com tratamento de imagem para escrita. 
Haveria uma série de relatos em aplicações em diagnóstico médico, pesquisas de fármacos, 
pesquisa aeroespacial (MAINI;SABRI, 2017). 
 
2.1.1 IA e Direito na virada do milênio 
Pela multidisciplinariedade do desenvolvimento da IA e pelo escopo do presente livro, 
não seria adequado um levantamento histórico8 da aplicação da IA no Direito. Contudo, pode 
ser interessante um recorte de pensamentos sobre IA e Direito na virada do milênio. Aliás, 
estas duas décadas de distanciamento auxiliam os entendimentos necessários para o que será 
tratado no segundo capítulo deste livro: IA e Direito, quimera ou realidade. Com este 
distanciamento temporal também será possível ver o que se desenvolveu ou consolidou-se, 
bem como as utopias e frustrações. 
Em seu trabalho para a Harvard Journal of Law and Technology, McJohn (1998) fez 
um contraponto interessante entre expectativas e realidades, à época, da chamada artificial 
legal intelligence, fruto do desenvolvimento dos computadores de uma forma geral e a 
identificação da possibilidade de seu uso para modelagens do raciocínio humano. Três 
grandes campos da IA despertaram interesses na área do Direito: raciocínio baseado em casos, 
sistemas especialistas e redes neurais9. A primeira área, muito adequada à operação do 
Direito, utiliza os precedentes no raciocínio jurídico. Neste sentido McJonh relata programas 
																																																								
8 Para referenciais nesta temática: Edwina L. Rissland. Artificial Intelligence and Law: Stepping Stones to a 
Model of Legal Reasoning, 99 Yale L. J. 1990. 
9 Esta temática será aprofundada na parte II “Process” do livro. 
14	
	
utilizados na busca de distinguir hard cases na área jurídica de contratos;de modelar 
diferentes pesos para diferentes fatores que poderiam influenciar na aplicação de normas; bem 
como programa para comparação de precedentes, exame de similaridades e atribuição de 
fatores. 
Este caminho não foi abandonado. Note-se que a provável limitação de resultados esta 
associada à capacidade de processamento e obtenção de volume de padrões, à época. Note-se 
também que esta área obteve ao longo das duas décadas seguintes progressivos avanços e está 
afinada a sistemas baseados em precedentes – algo mais recente (mas cada vez mais forte), 
em nossa raciocínio jurídico originalmente formado em outra tradição. 
A segunda área – sistemas especialistas, isto é, a reprodução artificial da forma como 
o humano com habilidades específicas (especialista) resolve problemas, também era repleta 
de projetos, como aponta McJohn. Havia o programa taxman, que buscava auxiliar a 
formulação de argumentos em casos tributários, desenvolvendo uma representação formal dos 
conceitos e argumentos jurídicos; o finder10, que auxiliava, através de análise à respostas de 
perguntas, a determinar a propriedade de algo que fora encontrado. 
A terceira área foi o trabalho com redes neurais. McJohn (1998, p. 243-244) 
sintetizara as redes neurais como aquelas destinadas a funcionar de forma análoga às redes de 
neurônios que compõem o cérebro. Por ela, os pontos de entrada são conectados aos pontos 
de saída por uma rede simulada. Ela pode ser treinada ajustando as interconexões ou 
adicionando novas conexões na rede, até que uma determinada entrada produza a saída 
desejada11. O relato dos problemas, naquela época, era justamente a amplitude da “entrada” 
em se tratando de tema jurídico, bem como a necessidade de justificativas para escolhas. 
McJonh também relata uma importante abordagem sobre a artificial legal intelligence 
da época, com duas visões inter-relacionadas: 1) holistic legal intelligence e 2) cyclic 
paradigms of legal intelligenge. A primeira divisão pressupõe o raciocínio jurídico como 
																																																								
10 O Finder procurava automatizar a análise de decidir se uma parte da propriedade encontrada pertencia ao seu 
descobridor, fazendo dez perguntas-chave e tentando determinar o resultado do caso a partir das respostas. 
(McJohn, 1998) 
11 McJonh expôs que como uma rede neural deve aprender uma regra com base em vários casos e deve ser 
flexível o suficiente para se adaptar a novos casos, a aplicação do conceito ao raciocínio jurídico foi prontamente 
notada. No entanto, tem havido poucas tentativas de implementar redes neurais artificiais que executam o 
raciocínio legal. A maior dificuldade é que a entrada de um caso jurídico é muito mais ampla e difícil de definir 
do que em outras aplicações. Além disso, uma rede neural daria um resultado sem as razões para isso o que não 
seria muito adequado com a necessidade de justificativas para decisões, como é a prática do mundo jurídico. No 
entanto, tem havido passos no sentido de usar redes neurais artificiais para determinar o peso dado a fatores em 
um conjunto de decisões legais. 
15	
	
único e autônomo. O raciocínio do jurista expressaria um grau de especialização, com 
conceitos e regras de inferência próprios que poderiam ser representado de forma simbólica. 
Assim, haveria a combinação da autonomia com a representação formal e, portanto, caminho 
teórico aberto para a utilização de um único programa de computador. A segunda visão, como 
fundamento para a convergência computacional ao Direito seria a teoria sobre o 
desenvolvimento histórico dos sistema legais, pela qual cada sistema legal evolui através de 
sucessivos ciclos e estágios (costumes, common law, teoria, casuística e codificação)12. 
Estas métricas com conceitos, regras, ciclos, estágios e delimitações são importantes 
para se ter uma visão adequada, hoje, das relações e possibilidades da IA com o Direito. 
Autonomia e representação formal possuem um outro viés. O aspecto de diferenciação do 
raciocínio jurídico, ligado anteriormente a um conceito de singularidade, é associado a uma 
impar complexidade (plurívocos/plurivocidade). 
Toda a observação que se faz no cenário que apontava para uma desenvolvimento 
iminente da IA com o Direito era baseado na generalização que se fazia do raciocínio jurídico, 
reforçado na formação do jurista. Havia a visão de que tanto era simples a interface entre a IA 
																																																								
12 No original, McJohn (1998.p. 246) “Gray accordingly describes the history of the Roman and English legal 
systems as respectively divided into these five stages. In the ritual stage of Roman law, blood feuds between 
clans were supplanted as dispute mechanisms by the decision-making of patrician priests, who performed the 
tasks of the legal system through formalized rituals and invocation of memorized rules (p. 116). The formation 
of the Roman republic saw a transition to the common law stage, where the principles of written civil law and 
specialization of administrative and judicial officials replaced the arbitrary decision-making of priests (pp. 118-
19). The stage of theory began when Roman jurists developed Roman natural law, influenced by theoretical 
approaches adopted from Greek philosophy and rhetoric (pp. 121-23). In the succeeding stage of casuistry, the 
spread of Roman law across the empire to peoples unfamiliar with Roman legal theory opened the way to 
judicial proceedings geared more to particularized, fact-based reasoning than application of the abstractions of 
the theory stage (pp. 127-28). The final stage , codification, came with the Theodosian Code and the Justinian 
Code which succeeded earlier, less comprehensive efforts. (pp. 132-135). The Roman legal system, in Gray’s 
view, was succeeded in evolutionary fashion by the English legal system, likewise divided into five stages. The 
ritual stage, in the ninth to eleventh centuries, saw efficient, if arbitrary, trials by ordeal – determining guilt or 
innocence by whether the accused would heal after being burned by a hot iron or a cauldron of boiling water, or 
by whether the accused floated when dropped in a stream (p. 117). Less violent was the ritual of oath, where 
success of a claim depended simply on how many “oath-helpers” a party could recruit in support (pp.116-17). 
The common law stage, running from the twelfth to fourteenth centuries in Gray’s model, replaced trials by 
ordeal or oath with advocacy in verbal form before itinerant royal justices, or in more vigorous form with trial by 
battle (pp. 119-21). […] The theory stage coincided with an increase of the powers of Parliament during the 
fifteenth through seventeenth centuries (pp. 123-26). Rather than adhering strictly and literally to customary law, 
courts took a more abstract approach, with two important developments: analogical reasoning from precedents 
permitted broader applications of legal principles, and the institution of courts of Chancery permitted equitable 
considerations to override mechanical legal results (pp.124-26). Gray sees the stage of casuistry in English law 
as extending from the eighteenth century to the present. Systematic reporting of judicial decisions, together with 
the tomes of Blackstone and other, permitted the construction of a comprehensive body of law resting on legal 
principles defined through particular cases (pp. 128-30). The English legal system, in Gray’s view, now stands 
on the brink of the codification stage. Gray notes that some areas of English law have been reduced to 
consolidated legislation or to systematically organized judicial precedent (p. 135). 
16	
	
e o Direito, quanto seria uma oportunidade pela possibilidade de sistematização, consolidação 
e organização de precedentes, para se revisar e evoluir a própria aplicação do Direito. 
McJohn (1998), sempre fazendo o contraponto crítico ao trabalho de Pamela Gray, 
descreve o Surmet– SURvival METasystem, que seria espécie de automatização de uma 
inteligência jurídica coletiva. O Surmet seria algo como um conjunto que reunisse um sistema 
de informações jurídicas baseados em todos os processos e conhecimentos oriundos da 
inteligência humana, quase como uma expertise jurídica global e o que é melhor, 
universalmente acessível. Como o próprio McJohn construiu argumentativamente, o quadro 
seria – e é, muito mais complexo que a arquitetura proposta por Gray, à época. 
De toda forma é possível ver muitas convergências com o cenário atual e esse 
distanciamento também nos permite ter mais claro algumas opções metodológicas, como vai 
se ver mais adiante. 
2.2 a Inteligência Humana é diferente da IA? 
Talvez o nome tradicional e impactante de da inteligência artificial tenha causado mais 
prejuízo que ganhos. Embora a IA se destine à modelagem do raciocínio humano e a 
execução de tarefas inteligentes, as inteligências humana e “da máquina” são incomparáveis. 
Para Shabbir e Anwer (2015) a IA se refere ao potencial de um computador executar tarefas 
que reproduzam a inteligência humana. A IA daria características intelectuais humanas a um 
robô. Assim, seriam reproduzidos comportamentos, seria possível o aprendizado com 
experiências passadas (há o clássico exemplo do pequeno robô, que está em processo de 
aprendizado de andar e vai aperfeiçoando seus passos após quedas sucessivas. Como horas de 
aprendizado e as mais variadas formas de quedas, ele segue progredindo no aprendizado13), 
seriam possíveis experiências sensoriais e o desenvolvimento de habilidades para 
qualificações e significações de determinadas situações. 
 De uma forma conceitual, IA busca permitir, pela combinação de várias tecnologias 
que a máquina entenda, aprenda, identifique ou complete a atividade humana. Realizada para 
propósitos específicos, em atividades repetitivas, a IA é construída para aprender e agir. Por 
outro lado, a inteligência humana alcança níveis que exigem habilidades multitarefas (Shabbir 
e Anwer. 2015). Assim, embora a IA tenha o potencial de imitar em alguma medida o 
comportamento humano, ela é limitada devido a diferenças no cérebro humano com os 
																																																								
13 A experiência com o robô Leo (2012) é muito interessante. Ela pode ser acessada no endereço: 
https://www.youtube.com/watch?v=SBf5-eF-EIw . Último acesso em 09 de março de 2019. 
17	
	
computadores. A IA é ideal para propósitos específicos, em atividades repetitivas, que exijam 
alto grau de atenção e memória. 
Se estruturalmente há diferenças com o cérebro humano, por outro lado, há capacidade 
de desenvolvimento autônomo na IA. Isto não é contraditório com a habilidade multitarefa do 
cérebro humano. A questão é que a IA historicamente sempre foi muito foi desenvolvida com 
limitações de aprendizagem autônoma, mais próxima com identificação de padrões. A 
autonomia pode estaria estar associada ao desenvolvimento de sensibilidades, emoções. Por 
outro lado, pelo desenvolvimento parametrizado, acentua-se o problema a ser enfrentado dos 
possíveis preconceitos introjetados na alimentação de dados para o desenvolvimento da IA. 
Não obstante, há muito espaço para evolução da contribuição da IA mesmo em atividades 
mais distantes dos sentimentos e das emoções, com relevância prática e com 
encaminhamentos éticos mais definidos. 
Assim, embora possa existir semelhanças fragmentárias, as máquinas não funcionam 
como o cérebro humano, especialmente na habilidade comportamental, tais como senso de 
humor, posicionamentos morais complexos e atitudes típicas humanas, como a intuição (tudo 
isto em uma dimensão mais global). Isto limita a IA a transferir aprendizagem para cenários 
com combinações complexas de problemas não previstos, como a inteligência humana 
permitiria com grande facilidade e com arranjos cognitivos diversos, combinando 
complexamente lógica, criatividade, engenho e razão (Shabbir; Anwer. 2015). Note-se que 
aqui se fala em limites e não em impossibilidade. Ao longo do livro, algumas pesquisas serão 
relatadas justamente neste campo. 
2.2.1. Características associadas à IA: habilidades e riscos 
A IA, como subárea (subárea) da ciência da computação, ao buscar mecanismos de 
simulação de parte da inteligência humana, necessita o desenvolvimento de algumas 
habilidades. Estas habilidades são definidas por algumas perguntas14: 
1) Como reconhecer objetos? 
2) Como converter sons em palavras e vice versa? 
3) Como extrair sentido da linguagem e transmitir significado através de sentenças 
geradas? 
																																																								
14 Há uma figura descrevendo as ligações da habilidades de inteligência artificial em (Shabbir; Anwer. 2015. p. 
4) 
18	
	
4) Como ordenar informações de uma forma prática? 
5) Como combinar pedaços de informações para alcançar conclusões? 
6) Como programar uma sequência de ações para cumprir um determinado objetivo e 
ter certeza de que ela foi bem executada? 
Estas respostas e, portanto, as habilidades são especialmente fornecidas pela: 
computer vision; speech recognition and synthesis, natural language processing (NLP), 
knowledge representation; reasoning; planning. O desenvolvimento dessas habilidades será 
tema desenvolvido na segunda parte do livro, “Process”. Por outro lado, há, como em 
qualquer nova apresentação paradigmática, riscos associados à inteligência artificial. 
O primeiro deles é o uso para maus fins. Se por um lado a machine learning tem um 
enorme potencial para aplicação em cybersecurity, por outro lado, cyber criminosos também 
passaram a ter novas perspectivas. O campo para cyber criminosos é gigantesco. Dados 
indicam que dois terços dos quase dos decision markers em tecnologia da informação (TI) 
estão em alguma medida apoiados em IA. Um ataque neste campo, portanto, é impactante, até 
porque as ameaças estruturadas em IA se tornam mais complexas e de difícil detecção que um 
ataque tradicional. A IA em malwares pode ser utilizada, por exemplo para: geração de novas 
variantes de um malware a cada minuto, tornando mais difícil sua detecção [um algoritmos de 
machine learning poderia aprender quais as variantes recém criadas são as menos prováveis 
para detecção e a produção das novas linhagens de malwares reproduziriam características 
similares; auxiliar na criação de padrões de tráfego de rede semelhantes aos legítimos –
favorecendo sua camuflagem na rede da vítima; combinando várias técnicas de ataque, 
tornando mais efetivas as opções; implementando mecanismos de auto-destruição, pós-
detecção, evitando análise do maleware; detecção de buscadores de maleware para ativação 
de interrupções temporárias de atividade e proteção do maleware; aumento da velocidade de 
ataque; realizar uma espécie de escravização com o infectado para testar diferentes técnicas 
de infiltração, relatar e compartilhar resultados sobre o aprendizado obtido na infraestrutura 
infectada; etc. (KUBOVIC; KOSINÁR, JÁVOSIK. 2018). 
 Como fruto de programação, pode haver a projeção de elementos negativos da própria 
inteligência humana. Bright (2018) apresenta o contexto de um problema do funcionamento 
da IA pela métrica usada para a tomada de decisão refletir uma criação humana. Segundo ela, 
os preconceitos podem surgir muito facilmente em razão da necessidade de treinamento. Uma 
boa ideia sobre human bias pode vir da associação ao próprio conceito de machine learning, 
19	
	
como um subconjunto da AI, onde algoritmos dirigidos por redes neurais complexas ensinam 
computadores a pensar de forma semelhante aos humanos, enquanto processam big data e 
executam cálculos com precisão, velocidade e supostamente, protegidos de parcialidades 
(YAPO; WEISS. 2018. p. 5365). Como um sistema probabilístico, baseado numa alimentação 
de dados para determinada conduta, os algoritmos de machine learning podem trazerbenefícios ou problemas que refletem discriminação, parcialidades, escolhas ofensivas, 
desinformações, ou seja, human bias ocorre quando o sistema computacional basicamente 
reflete os valores implícitos de seu criador, distorcendo o conjunto de dados para o 
treinamento do sistema. 
Como a construção de uma solução em IA parte de representações abstratas e 
simbólicas deve existir uma projeção e uma aferição dos seus significados concretos. Shabbir; 
Anwer. (2015) mencionam a necessidade de uma flexibilidade nos métodos para dar conta da 
atuação puramente mecânica, fruto de aplicações algorítmicas irreflexivas ou, numa feliz 
metáfora “do intelecto à força bruta”. Este trato é eminentemente metodológico e deve ser 
consciente das características e dos limites da IA, bem como a necessária abordagem ética e 
consequencial sobre os efeitos e implicações na vida das pessoas das decisões tomadas a 
partir da aplicação tecnológica.	
 
2.3 IA e aspectos éticos 
Como a IA é uma área de amplas e multidisciplinares pesquisas, com implicações 
teóricas e práticas, fica muito claro que há aspectos éticos15 que devem ser considerados. Aqui 
se filiará a ideia de que não há ainda, claramente, uma definição comum sobre o que seria 
uma “ética da IA”, ou algo assim. Contudo, há muita reflexão teórica e filosófica sobre o 
tema, especialmente sobre o conceito de ética de máquina. Vakkuri; Abrahamsson (2018) 
escreveram sobre conceitos chave de ética e sua relação com a IA. Mencionando-se as 
aplicações comuns de IA, quer em algoritmos de redes sociais, sistemas autônomos de 
decisão ou veículos autônomos e outras aplicações está evidente que a IA não tem relações 
circunscritas ao universo tecnológico ou de engenharia. A IA está no mundo humano e os 
aspectos éticos e valorativos são urgentes. Desta forma, em estudos que envolvam IA, mais 
																																																								
15 Desnecessário reafirmar a importância dos aspectos éticos, deontológicos e regulativos para a disciplina. Ao 
ter com escopo uma área de conexão entre IA e Direito, especialmente desenvolvidas em aspectos de inovação, 
são necessários muitos estudos e ações nesses dois importantes aspectos. No presente livro, algumas 
considerações serão feitas, sem a intenção de uma abordagem geral sobre o aspecto ético, reafirmando ser um 
importante eixo de pesquisa da interação IA e Direito. 
20	
	
ainda que envolvam IA e ciência sociais aplicadas, é fundamental que se identifiquem e 
definam diretrizes estabelecidas em uma abordagem do discurso ético. 
De início é importante fazer uma distinção. A discussão acadêmica da relação entre IA 
e aspectos éticos não é nova. Não obstante, com o incremento de soluções em IA, acredita-se 
que o desenvolvimento de pesquisas com definição de diretrizes éticas, objetivamente 
metrificadas se tornaram um grande desafio. Vakkuri; Abrahamsson (2018) definem bem esta 
preocupação com a elaboração de uma pergunta: ao lado das discussões e pesquisas 
exploratórias do potencial da IA, como a ética deve ser implementada na prática? Portanto, 
ética e IA devem utilizar seus princípios entrelaçados é o conclusão fundamental. 
O panorama dos estudos sobre a discussão ética na IA indica que habitualmente as 
reflexões éticas são feitas em um plano teórico-filosófico, mas quando os casos se tornam 
reais os impactos éticos se tornam menos prioritários16 (Vakkuri; Abrahamsson 2018). Isto 
vem mudando, como dito, especialmente pelo incremento do impacto da IA no cotidiano. Se 
por um lado a capacidade de processamento de dados e, por consequência, a ampliação no 
campo de inovações permitem uma entrega maior de soluções de IA, por outro, cria-se, pelo 
impacto, pressões/custos em discussões éticas. 
Desde os mais simples chatbots que obtém uma série de informações de caráter 
privado e o armazenam ou encaminham soluções a partir desta relação direta e privada com 
seu interlocutor humano (privacidade); passando pela aplicação de IA nos diagnósticos 
médicos, com informações até então restritas ao médico pessoal do paciente (deontologia 
profissional) até outras aplicações autônomas (veículos autônomos, embarcações autônomas 
p.ex) a relação ética que marcava o comportamento interno das pessoas passa a estar no plano 
da Big Data, dos sistemas de recomendação, da mineração de dados, da clusterização 
(questões de policy) e assim por diante até o uso de armamento autônomo, com potencial letal 
(Como seria possível estabelecer uma possível autonomia neste campo? Como seria isto 
compatível com um sistema de direitos humanos?) 
Ao escrever sobre o que deve ser prioritário em pesquisas de IA, (Russell; Dewey; 
Tegmark. 2015), reforçaram alguns aspectos que a pesquisa em IA (que busque trazer 
benefícios para a humanidade) deve apresentar, fugindo de armadilhas camufladas na 
																																																								
16 Vakkuri; Abrahamsson (2018), ao fazer uma proposta de estudo sistemático sobre papers relevantes, 
mapearam um total de 1062 papers no campo da ética e IA. 
21	
	
tecnologia. Como um exemplo de prioridade deve existir a inclusão de etapas éticas nos 
processos de verificação, validação, segurança e controle: 
1) verificação: significa a aferição se o sistema atende aos requisitos formais de 
construção e, nesta etapa, a aferição de situações críticas de segurança. Isto é muito 
perceptível na etapa de desenvolvimento de veículos ou armamentos autônomos, 
equipamentos de diagnóstico, chatbots que trabalham com dados de circulação restrita ou 
privada. 
 Esta etapa inclusive, por envolver muitas aplicações matemáticas, é um fator limitador 
concreto dos pressupostos exigíveis para uma IA com consciência ampla. A exigência de 
verificações igualmente amplas e complexas de forma concreta restringe a aplicação de IA 
para problemas o mais específicos possíveis17. Russell; Dewey; Tegmark. (2015) reforçam o 
alerta de que projetos de sistemas de IA operam em ambientes apenas parcialmente 
conhecidos pelo projetista. Neste caso a verificação é um estágio que vai além da verificação 
tradicionalmente feitas nos softwares. 
2) Validação: ao projetar sistemas de maneira adequada, deve-se checar se a solução 
vai além de atender os requisitos, mas é adequada e compatível com um bom comportamento 
sob o ponto de vista ético. Além da confiabilidade da técnica para o atingimento de 
determinado objetivo, Russell; Dewey; Tegmark (2015) contextualizam com a hipótese de 
soluções para um veículo autônomo, que terá que ser capacitado tanto sob os aspectos ligados 
à dirigibilidade, quanto a aspectos éticos comportamentais envolvidos com o trânsito. 
3) Segurança: a IA é uma subárea (sub-subárea) da ciência da computação e representa 
uma das suas fronteiras de inovação. Inicialmente, sob o aspecto da segurança está a proteção 
que é necessária para evitar o mau uso da própria IA, crescente em ataques cibernéticos. Há, 
portanto, este viés defensivo da IA. Assim, os sistemas de desenvolvimento devem observar 
																																																								
17 Russell; Dewey; Tegmark (2015, p. 108) mencionam “Formal verification of software has advanced 
significantly in recent years: examples include the seL4 kernel (Klein et al. 2009), a complete, general-purpose 
operating system kernel that has been mathematically checked against a formal specification to give a strong 
guarantee against crashes and unsafe operations, and HACMS, DARPA’s “clean-slate, formal methods-based 
approach” to a set of high-assurance software tools (Fisher 2012). Not only should it be possible to build AI 
systems on top of verified substrates; it should also be possible to verify the designs of the AI systems themselves, 
particularly if they follow a componentized architecture, in which guarantees about individual components can 
be combined according to their connections to yield properties of the overall system. This mirrorsthe agent 
architectures used in Russell and Norvig (2010), which separate an agent into distinct modules (predictive 
models, state estimates, utility functions, policies, learning elements, and others), and has analogues in some 
formal results on control system designs. Research on richer kinds of agents — for example, agents with layered 
architectures, anytime components, overlapping deliberative and reactive elements, metalevel control, and so on 
— could contribute to the creation of verifiable agents, but we lack the formal algebra to properly define, 
explore, and rank the space of designs.” 
22	
	
protocolos de segurança, como comentam Russell; Dewey; Tegmark (2015), com segurança 
para memória, isolamento de falhas, integração hardware-software e protocolos de redução de 
vulnerabilidades.18 
4) Controle: em áreas consideradas sensíveis, esta etapa ganha ainda mais importância. 
Os projetos em IA devem prever etapas nas quais o trabalho técnico de controle humano deve 
ser aplicado. Há, nesta etapa, também o destaque para as oportunidades de arquitetura de 
protocolos de transição entre a atuação autônoma da máquina e o controle humano (Russell; 
Dewey; Tegmark.2015). 
Em outubro de 2018, houve a International Conference of Data Protection onde foi 
feita uma Declaration on Ethics and Protection in Artificial Intelligence. Dentro de um 
contexto maior de policy e todas as suas limitações para áreas fronteiriças do conhecimento, a 
declaração apresenta algumas diretrizes éticas importantes. 
A primeira delas é um dever de reduzir preconceitos ou discriminações no 
desenvolvimento e aplicação de soluções de IA. Isto vai de encontro com as necessidades 
éticas nas etapas de verificação e validação, acima expostas. Desta constatação, Polonski 
(2018), em seu artigo Mitigating algorithmic bias in predictive justice: 4 design principles for 
AI fairness, sugere alguns princípios que vão além de parâmetros tradicionais de avaliação da 
AI, como acurácia e matriz de confusão. O primeiro desses princípios é chamado de 
representation, que busca uma proteção contra preconceitos injustos e que todos os sujeitos 
devem ter a mesma oportunidade de serem representados nos dados. Este princípio deve ser 
verificado a priori buscando um equilíbrio nas populações com risco de sub-representação na 
fase de treinamento, quanto modelos eventualmente tendenciosos sejam submetidos a um 
novo treino, que sejam utilizados algoritmos para atenuar distorções ou tendências 
indesejadas metodologicamente. A segunda, protection, impõe aos sistemas de machine 
learning, mecanismos para evitar efeitos injustos a indivíduos vulneráveis. A protection 
demanda um projeto metodológico abrangente, que permita a prevenção de efeitos negativos 
																																																								
18 Russell; Dewey; Tegmark (2015, p. 108) também mencionam a possibilidade de soluções de IA para 
segurança: “At a higher level, research into specific AI and machine-learning techniques may become 
increasingly useful in security. These techniques could be applied to the detection of intrusions (Lane 2000), 
analyzing malware (Rieck et al. 2011), or detecting potential exploits in other programs through code analysis 
(Brun and Ernst 2004). It is not implausible that cyberattack between states and private actors will be a risk 
factor for harm from near-future AI systems, motivating research on preventing harmful events. As AI systems 
grow more complex and are networked together, they will have to intelligently manage their trust, motivating 
research on statisticalbehavioral trust establishment (Probst and Kasera 2007) and computational reputation 
models (Sabater and Sierra 2005. p. 109).’ 
 
23	
	
em função de gênero, raça, etnia, nacionalidade, orientação sexual, religião, vertentes 
políticas, entre outros, posto que o sistema treinará e será testado em referenciais de dados de 
uma realidade desigual e repleta de preconceitos. A terceira, stewardship, significa que os 
sistemas de machine learning têm a responsabilidade ativa pela realização de justiça e o 
compromisso com a inclusão em todas as etapas do desenvolvimento de modelos de IA. Por 
último, a authenticity, ou seja, além da confiança nos dados, deve existir uma autenticidade na 
visão da própria construção (autenticidade nas predições da IA), pois serão usadas para 
suporte a alguma decisão. 
 Como bem mencionou (YAPO; WEISS. 2018. p. 5368) o impacto da IA em nossas 
vidas faz com que os parâmetros, riscos, regulações e desenvolvimentos éticos sejam 
fundamentais em desenvolvimentos no setor. Não é possível se falar adequadamente em um 
projeto de IA sem um projeto ético (que coloque centralmente as discussões sobre ética e 
valores envolvidos), sem um reflexão das melhores formas de comunicação e esclarecimento 
sobre os objetivos e impactos do projeto, sem um sistema de controle (tanto para aferição de 
benefícios como para identificação e gestão de danos). Visualiza-se, inclusive, uma 
necessidade de suporte à projetos de P&D com certificação dessas etapas. A formalização das 
necessidades éticas, para a realização de projetos inovadores não pode ser vista de outra 
forma, senão crucial! 
2.4 IA e Direito 
Em um tradicional artigo da Professora Edwina L. Rissland, do Departamento de 
Ciência da Computação da University of Massachusetts, em 2003, já havia a detecção das 
sinergias entre a IA e o Direito. 
 Lá Rissland situou a IA e o Direito como um campo singular de pesquisa para a IA. 
Tais pesquisas permitiriam, segundo ela, uma acréscimo para além das questões próprias do 
Direito, nas quais se pode incluir a dogmática, a hermenêutica, as teorias de justiça ou da 
melhor decisão, a argumentação jurídica, mas especialmente quanto a insights e às lógicas 
inerentes a própria práxis jurídica de um modo amplo. 
 No panorama da pesquisa geral em IA pode-se identificar nuances e limitações das 
técnicas já existentes para a operabilidade do direito, bem como elementos catalisadores para 
o desenvolvimento de novas abordagens sustentáveis. 
 O referido trabalho de Rissland se reforça na observação de que houve um 
aprofundamento das teorias standards da argumentação jurídica, com refinamento na 
24	
	
construção de modelos para análise a avaliação do raciocínio jurídico. Deste mapeamento 
permite-se identificar que há uma sinergia entre IA e Direito, mas também entre IA com IA e 
Direito. Esse processo se intensificou a partir dos anos 1980.19 Importante desde já fixar a 
exata medida de sinergia, que não significa sobreposição ou sublimação, mas incremento em 
potencialidades.20 
 Em artigo da Universidade de Brighton, Reino Unido, J.K.C. Kingston (2018) 
concentrou as principais discussões, que poder-se-ia chamar de discussões jurídicas stricto 
sensu afetas ao Direito e IA: 1) as limitações dos sistemas de IA e o nível de informação ao 
público e ao consumidor; 2) se a IA é um produto ou um serviço? 3) Qual o enquadramento e 
natureza da responsabilização em caso de uma ofensa? 
 Das ocorrências em termos de especializações do Direito, quer sejam elas no civil, no 
empresarial, no consumerista, nas afetações sobre o direito trabalhista, no internacional 
privado, no penal, quer seja em discussões com algum nível de reflexo constitucional são 
inegáveis as inter-relações entre IA e Direito21. Para o presente livro, no entanto, quer se 
destacar um outro aspecto da IA e Direito (que evidentemente não se dissocia das disciplinas 
jurídicas), aspecto instrumental de performance ao Direito no encaminhamento de soluções 
para conflitos. 
 Simon Stern (2017), da Universidade de Toronto, escreveu sobre específicas 
aplicações de machine learning no Direito: ferramentas de E-Discovery, que pela grande 
quantidade de dados, habitualmente envolve uma grande quantidade de advogados e 
																																																								
19 Richter and AAmondt,em 2006, no paper intitulado Case-based reasoning foundations, desenvolveram um 
tema relevante para a interseção de disciplinas que trabalham com os campos do raciocínio da experiência, da 
memoria e da analogia. O Case-based reasoning CBR é uma dessas interseções.“CBR concerns the capturing 
and utilization of specific experiences. The major influence of cognitive science on CBR is centered around the 
terms experience, memory and analogy. These concepts have their roots outside of computer Science” 
 
20 Importante para essa passagem uma observação sobre a ideia de human learning e automatic-learning, e 
destaca o caráter único e insubstituível do comportamento humano está no paper de Maalel e Mabrouk (2012) 
intitulado Contribution of case based reasoning (CBR) in the exploitation of returno f experience, de no The 
ability to learn appears to be an essential component of the definition of intelligence which all human beings 
have the privilege of Indeed, man is pre-programmed to learn and he cannot do anything without memoring what 
he does, sometimes against his will. The newborn who has already attitudes and reflexes is fundamentally 
curious. Man, cannot help pursue information, all his life cannot help turne his eyes towards something that 
moves, cannot help to stretching his ear to an unusual sound [8]. The computer is a priori devoid of such a 
research and general learning program. In addition, methods and approaches to research currently developed 
through machine learning cannot, in any circumstances, replace the mechanisms of learning and intelligent 
behavior that men are endowed with indeed, most results obtained so far for machine learning are based on very 
simplistic assumptions compared to the actual mechanisms of human learning. 
21 Há um artigo interessante: “How Artificial Intelligence Will Affect the Pratice of Law”, escrito por Benjamin 
Alarie, Anthony Niblett and Albert Yoon. 
25	
	
empregados de firmas de advocacia e pode ser executado por ferramentas de IA em uma 
fração de tempo, a um custo muito mais reduzido e com grande acurácia. 
 Este raciocínio não válido exclusivamente para advogados, mas para o que foi 
convencionado chamar de operadores do direito. Atividades rotineiras e repetitivas na 
administração do direito que podem ser desenvolvidas em uma fração do tempo com um 
grande nível de acurácia, permitindo a concentração do talento humano em áreas estratégicas. 
 Este é um vasto espaço de pesquisa e desenvolvimento. Mas, a ideia de Stern (2017, p. 
13) é muito válida22: com o passar do tempo, a grande disponibilidade de dados pode ajudar a 
facilitar sua disseminação para outros domínios legais. E continua o pensamento afirmado que 
além deste efeito facilitador e otimizador da práxis, com o tempo, poderá se auxiliar às 
necessidades judiciais e legislativas, permitindo, por exemplo que os legisladores façam leis 
mais adequadas e precisas às circunstâncias. 
Um importante viés do estudo da IA e Direito são seus referenciais normativos. Com 
uma policy em estruturação e com uma regulação por ser feita é importante uma reflexão 
sobre princípios conectados a esta frente inovadora. Como dito e sabido, a IA não é um 
fenômeno novo. Mas as tecnologias hoje disponíveis, permitem, dentro de uma imensidão de 
dados produzidos a cada dia, visualizar uma nova dimensão à IA. 
Uma primeira abordagem pode ser feita a partir de uma condensação de princípios 
éticos. O The future word of work, realizado pela UNI Global Union, que reúne cerca de 150 
países estabeleceu uma série de princípios para políticas de inovação, tanto para iniciativa 
privada, quanto para governos. Suas orientações levam em conta aplicações da inteligência 
artificial para chatbots, robots, system analytics, bases de dados baseados em ações, 
movimentos e falas (comportamento não oriundo da programação, mas de bases de 
conhecimento). 
 
3 CONCLUSÕES 
	 Como um primeiro conjunto de dados, o presente Capítulo buscou um panorama sobre 
o raciocínio, as características e os fundamentos para o estudo da IA e o Direito. 
																																																								
22 No original “Over time, however, the great availability of data may help to facilitate its spread to other legal 
domains” e Just as such tools may help with the practice of law, they may also, in time, come to serve various 
judicial and legislative needs—allowing lawmakers, for instance, ‘to make laws that are better tailored to 
individual circumstances.’”(STERN, 2017, p. 13). 
26	
	
 A estruturação do capítulo tem inspiração justamente no pensamento de Bob 
MacPherson. Estes primeiros contorno para a IA e o Direito foram importantes para os 
autores, quando iniciaram seus estudos neste campo, conseguissem por ele transitar, já que a 
riqueza multidisciplinar apresenta tantos conceitos e paradigmas diferentes do estudo 
tradicional do Direito. 
 Assim, o capítulo buscou explicar a IA como o desenvolvimento de capacidade de 
reprodução artificial de habilidades e conhecimentos humanos destinados à resolução de 
problemas específicos. Envolve, portanto, habilidades de compreensão de linguagens, 
planejamento, memória, percepção, que podem ser executadas artificialmente. 
 Buscou-se igualmente uma situação “topográfica” da IA e sua relação com a machine 
learning. Como não se pode negar, apesar de estar na fronteira dos processos de inovação, 
tanto a IA, quanto a relação dela com o Direito têm traços históricos relevantes para uma 
compreensão adequada da temática. O presente capítulo não teve a pretensão de fazer uma 
amplo histórico, mas de destacar pontos para o leitor melhor formar um juízo sobre a 
dimensão da temática. 
 Nesta mesma toada, buscou-se subsidiar o leitor com diferenças entre a inteligência 
humana e a IA, fundamentais para a posterior idealização de projetos e soluções que 
envolvam IA e Direito e, especialmente útil, para se compreender melhor a suavização de 
mitos associados à IA, que será feita no próximo capítulo. 
 Por fim, mas crucial, especialmente em razão de malwares e de human human bias, os 
aspetos éticos associados à IA devem estar presentes em seus fundamentos, não somente em 
discussões acadêmicas ou teóricas sobre a disciplina, mas como etapas concretas da 
realização de qualquer projeto ou solução de IA. Verificação, validação, segurança e controle 
devem prever quesitos éticos, assim como a estruturação de sistemas de certificação devem 
ser considerados. 
Não é exagero pensar que a inteligência artificial – seu grande aperfeiçoamento nos 
últimos anos e sua difusão de usos e aplicações, tem a capacidade de produzir severas 
mudanças em nossos ambiente social e político, com efeitos revolucionários potencialmente 
semelhantes a outros fenômenos indutores de viradas paradigmáticas. Além do 
aperfeiçoamento de tarefas que ainda são realizadas pela aplicação de esforços e inteligência 
humana, a IA poderá impulsionar descobertas através do uso de máquinas para obtenção de 
conhecimentos impossíveis à capacidade e resistência da estrutura humana. 
 
27	
	
 
 
REFERÊNCIAS 
BLIGHT, KARIN JOHANSSON. Artificial Intelligence, AI biases and risks, and the need 
for AI-regulation and AI ethics: some examples. 2018DOI: 10.13140/RG.2.2.23455.00160 
disponível em https://www.researchgate.net/publication/326377798_Artificial_Intelligence 
_AI_biases_and_risks_and_the_need_for_AIregulation_and_AI_ethics_some_examples_17_
Nov_2018. último acesso em 11 de março de 2019. 
 
BRUNDAGE, Miles, et.al. Scaling Up Humanity: The Case for Conditional Optimism about 
Artificial Intelligence. In: EPRS. Euroepean Parliamentary Research Service. Should we fear 
artificial intelligence? Europian Parliament. 2018. Disponível em: 
http://www.europarl.europa.eu/RegData/etudes/IDAN/2018/614547/EPRS_IDA(2018)61454
7_EN.pdf. último acesso em 11/03/2019. 
 
GRAY, Pamela. Artificial Legal Intelligence. Aldershot: Brookfield, EUA.1997JAHANZAIB, Shabbir; ANWER, Tarique. Aritificial Intelligence and its Role Near 
Future. JOURNAL OF LATEX CLASS FILES, VOL. 14, NO. 8, AUGUST 2015. 
disponível em https://arxiv.org/pdf/1804.01396.pdf. último acesso em 25 de fevereiro de 
2019. 
 
KUBOVIC, Ondrej; KOSINÁR, Peter; JÁNOSIK, Juraj. Can Artificial Intelligence Power 
Future Malware? ESET White Paper. Enjoy Safer Technology. Disponível em 
https://www.welivesecurity.com/wp-content/uploads/2018/08/ Can_AI_Power_Future_ 
Malware.pdf. último acesso em 11 de março de 2019. (KUBOVIC; KOSINÁR, JÁVOSIK. 
2018) 
 
MAINI, Vishal;SABRI, Samer. Machine Learning for Humans. Published August 19, 
2017. Edited by Sachin Maini. disponível em 
https://everythingcomputerscience.com/books/Machine%20Learning%20for%20Humans.pdf. 
Último acesso em 08 de março de 2019. 
 
MCJOHN, Stephen M. Artificial Legal Intelligence. Harvard Journal of Law and 
Technology. Volume 12, Number 1 Fall 1998. Disponível em 
http://jolt.law.harvard.edu/articles/pdf/v12/12HarvJLTech241.pdf. Último acesso em 19 de 
fevereiro de 2019. 
 
POLONSKI, Vyacheslav. Mitigating algorithmic bias in predictive justice: 4 design 
principles for AI fairness. 2018. Disponível em https://towardsdatascience.com/mitigating-
28	
	
algorithmic-bias-in-predictive-justice-ux-design-principles-for-ai-fairness-machine-learning-
d2227ce28099. último acesso em 02/03/2019. 
 
RUSSELL, Stuart; NORVIG, Peter. Inteligência Artificial. Tradução Regina Celia Simille 
de Macedo. Elsevier. 8a tiragem. Ano...... 
 
RUSSELL, Stuart; DEWEY, Daniel; TEGMARK, Max. Research Priorities for Robust and 
Beneficial Artificial Intelligence. Cornell University. AI Magazine, 36 n. 4 (2015) 
Disponível em https://arxiv.org/pdf/1602.03506.pdf. Último acesso em 12 de março de 2019. 
 
VAKKURI, V.; ABRAHAMSSON, P. The Key Concepts of Ethics of Artificial Intelligence. 
In 2018 IEEE International Conference on Engineering, Technology and Innovation 
(ICE/ITMC). IEEE. http://dx.doi.org/10.1109/ICE.2018.8436265. último acesso em 
02/03/2019. 
 
YAPO, Adrienne; WEISS, Joseph. Ethical Implications of Bias in Machine Learning. 
Proceedings of the 51st Hawaii International Conference on System Sciences. 2018. 
disponível em https://core.ac.uk/download/pdf/143481503.pdf. Último acesso em 11 de 
março de 2019. URI: http://hdl.handle.net/10125/50557 P. 5365-5372. (YAPO; WEISS. 
2018). 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
29	
	
 
 
CAPÍTULO II 
INTELIGÊNCIA ARTIFICIAL E DIREITO: QUIMERA OU REALIDADE 
 
Applying just a bit of strain to a piece of semiconductor or other 
crystalline material can deform the orderly arrangement of atoms 
in its structure enough to cause dramatic changes in its 
properties, such as the way it 
conducts electricity, transmits light, or conducts heat. 
Now, a team of researchers at MIT and in Russia and Singapore 
have found ways to use artificial intelligence to help predict and 
control these changes, potentially opening up new avenues of 
research on advanced materials for future high-tech devices. 
MIT News, 11/02/2019 
 
 
1 INTRODUÇÃO 
Inteligência Artificial nos mais variados campos do conhecimento! Inclusive naquilo 
que conhecemos como fronteira do conhecimento de condução de eletricidade, transmissão de 
luz ou condutores. Anualmente, o MIT (Massachusetts Institute of Technology) organiza a 
HUBweek, um evento de inovação sob o slogan de “festival do futuro”. Nas centenas de 
atividades que envolvem, além da comunidade em sentido amplo e, especialmente, change-
makers, pode-se perceber um destaque às ações em policy hackathon23. Os fundamentos das 
reflexões sobre inovação partem de uma convergência: um referencial na big societal 
challenges. Nessa quadra é que serão encontradas as principais respostas para as relações 
entre conceitos tradicionais e inovadores. Isso passará, frequentemente, por soluções 
eminentemente interdisciplinares, reunindo a capacidade tecnológica com referenciais sociais 
e/ou sociais aplicados. 
Mas a reflexão acima não é direta e consquencial. Em uma outra rodada de eventos no 
MIT, denominada Future Forum será retomada a perspectiva da segunda Era da machine 
learning, justamente fundada no incremento da autonomia tecnológica e na análise da 
																																																								
23 Não se traduzirá ao longo do presente trabalho o termo policy posto que o significado não é, acredita-se, o 
mesmo que a tradução imporia. As relações entre inteligência artificial e direito ainda são extremamente 
indeterminadas para se estabelecer um significado mais restritivo que o termo sugeriria. 
30	
	
capacidade dos computadores para reconhecimento de padrões e a automação de muitas 
tarefas cognitivas. Daí, por uma compreensão rasa, a se aprofundar a mitificação da IA, 
especialmente em campos apegados à tradição, como o Direito. 
 Nos últimos meses também intensificaram-se no Brasil interesses, questionamentos, 
debates e alguns textos sobre as inter-relações entre IA e o Direito. Como a própria vanguarda 
mundial sobre o tema ainda é relativamente inconclusiva sobre as exatas possibilidades e 
limites de tal inter-relação, característica, aliás, de um processo de inovação, é natural que 
surjam incertezas, dúvidas, inseguranças e outros sentimentos típicos de áreas exploratórias. 
Felizmente, há relativo conforto quanto à atenuação ou descarte de alguns mitos associados à 
IA, que sempre contribuem para um cenário de instabilidades (e até mesmo rejeições), cenário 
esse infértil para o desenvolvimento de pesquisas, que podem implicar no afastamento do país 
da avant-garde. 
 O presente capítulo tem o objetivo de analisar24 o estudo feito pelo European 
Parliamentary Research Service (EPRS), publicado recentemente pela Scientific Foresight 
Unit (STOA) que busca abordar e dissipar mitos associados à IA bem como comentar a 
convergência entre a IA e um sistema de otimização racional para o Direito. É uma discussão 
que está sendo feita agora na União Européia e, portanto, estratégica para a pesquisa e 
desenvolvimento da IA e Direito. 
 
2 CONTEXTO DA IA: REFLEXÕES E ESTRATÉGIAS DE VANGUARDA 
Já no prefácio do trabalho do EPRS, María Teresa Giménez Barbat, Membro do 
Parlamento Europeu - MEP (2018) e representante da Espanha no Committee on Culture and 
Education, fala em desempenho e resultados notáveis que a IA25 tem alcançado recentemente 
em termos de reconhecimento e processamento de voz e imagem, além de textos e o 
incremento de softwares de controle autônomo. No mais alto e restrito nível do pensamento 
																																																								
24 A análise buscará detalhar o texto feito pelo EPRS. Assim, o presente texto estará centrado nessa referência 
bibliográfica, que apresenta atualidade e profundidade temática para ser o principal referencial. 
25 Stuart Russel define inteligência artificial (IA) como o estudo dos métodos para fazer computadores se 
comportar de forma inteligente. Afirma que, grosso modo, um computador é inteligente na medida em que faz a 
coisa certa ao invés de a coisa errada. Conceitua a coisa certa como a ação que é mais propensa a atingir um 
objetivo, ou, em termos mais técnicos, a ação que maximiza uma utilidade esperada. Sustenta que a Inteligência 
Artificial (IA) inclui tarefas como aprendizagem, raciocínio, planejamento, percepção, compreensão de 
linguagem e robótica. 
Miles Brundage define Inteligência Artificial como um corpo de pesquisa e engenharia com o objetivo de usar a 
tecnologia digital para criar sistemas aptos a desempenhar atividades para as quais se costuma exigir 
inteligência, ao ser realizada por um indivíduo. Afirma que este campo do conhecimento evoluiu muito 
rapidamente nos últimos anos, após décadas de apatia. 
31	
	
estratégico europeu, afirma-se que não é possível imaginar um futuro na Europa sem avanços 
nas pesquisas em IA. Discutem-se conceitos e abrangências sobre “intelligentautonomous 
robot” ou “eletronic personality”. 
Esse pensamento estratégico deve ser, ao menos, objeto de atenção na pesquisa 
jurídica com viés tecnológico. Na tradição jurídica brasileira, em contraste profundo com as 
atuais tendências tecnológicas, especialmente no âmbito de um sistema contencioso que 
poderia ser caracterizado como sui generis em termos de seu universo quantitativo, houve 
uma série de revoluções, evoluções, adaptações, e soluções (ousadas e brilhantes muitas 
vezes, repletas de críticas em outras), mas todas dentro do que poderia ser chamado de lógica 
analógica ou digital de primeiro nível. As soluções sempre foram imaginadas, por mais 
tecnológicas que fossem, na absoluta dependência da atividade imediata e supervisionada dos 
juristas. A realidade jurídica brasileira, especialmente na sua faceta contenciosa está posta em 
números e estatísticas que confirmam a insuficiência das soluções (vide a reforma do 
Judiciário, pela EC 45/2004 ou o próprio Código de Processo Civil CPC/2015). É necessária 
uma alternativa de sublimação desse modelo de primeiro nível. Sublimação no sentido de não 
negação de suas construções e caracterísitcas, mas de constatação de sua insuficiência para o 
encaminhamento das demandas sociais sobre o Direito e, especialmente, sobre o sistema 
contencioso. 
Nesse sentido, a inteligência artificial tem muito a contribuir. Acredita-se que a 
cristalização de uma policy, de uma maior maturidade de temas multidisciplinares, da 
estruturação de estudos e pesquisas com reflexões sobre ética, accountability, compliance e 
regulação, da identificação de soluções realmente utilizáveis, da evolução e do maior número 
de benefícios aos cidadãos e à cidadania passarão ao desenvolvimento de uma massa de 
expertise sobre o tema. Um primeiro passo seria a compreensão de alguns mitos associados à 
IA. 
2.1 Mitos em IA 
A IA é multidisciplinar e, sobre ela surgem igualmente opiniões multidisciplinares. A 
isso soma-se o comportamento pessimista em relação a algum tipo de progresso tecnológico 
compondo um cenário de medo e presunção de danos. Se por um lado não seria adequado um 
comportamento chauvinista tecnológico, por outro, o temor ancestral irracional também não 
ajuda muito. 
32	
	
De alguma forma, em outros campos, incorporou-se (talvez já de forma somatizada) 
os benefícios da tecnologia em diagnósticos e tratamentos de saúde, previsões, registros, 
contabilidades, transações, arquivos, conteúdos, etc., mas tem-se considerável receio de se 
imaginar tecnologias quando estão associadas alterações nas rotinas de trabalho ou nos 
mecanismos de tomada de decisão. Nesse cenário as discussões sobre ameaças, danos, riscos 
têm muito mais preponderância que o debate sobre enfrentamento de problemas de massa, 
priorização das atividades criativas e complexas, qualidade no ambiente de trabalho, 
transparência e substancialidade na tomada de decisões. 
Peter J. Bentley (2018), da University College London, apresenta uma visão dos 
cientistas da computação que trabalham no campo da criação de tecnologias em IA sobre 
muitos mitos criados pelo viés multidisciplinar da IA e pela amplitude de seu debate (que 
envolve pessoas leigas, políticos, filósofos, empresários, lobistas26, etc.). O pesquisador 
destaca os mitos associados à inteligência artificial e os refuta pela explicação técnica das leis 
da IA, como se aponta a seguir. 
2.1.1 A ameaça à humanidade e às humanidades 
Fruto de um roteiro de filme de ficção, a IA é associada a um risco a própria 
humanidade, já que não se pode fixar limites na capacidade de inteligência, a própria 
humanidade estaria se colocando em risco. Uma desdobramento desse mito à IA e o Direito 
seria no risco de inversão de valores e no subordinação das sensibilidade e sentimentos 
humanos à frieza da capacidade bruta de inteligência na IA. Neste contexto, os juristas 
estariam colocados a um segundo plano. 
 Bentley (2018) afirma existir dois tipos de IA: a real e a ficcional. A real é aquela que 
utiliza um grande número de softwares para resolver uma infinidade de problemas do dia-a-
dia e acrescentar uma série de comodidades as rotinas humanas. A IA real tem aplicações que 
vão da saúde à segurança bancária; desde a detecção de fraudes ao suporte à atividade 
policial. Não há sentido lógico na imaginação que tais produtos se transformassem (numa 
incorporação malévola), em ações de robô contra a humanidade. Tal qual as engrenagens de 
uma solução de primeiro nível, a centralidade dos sentimentos e sensibilidades humanos não 
está associada a uma involuntária submissão robótica. 
Bentley (2018) ainda reforça que a IA está mais para salvar vidas com mecanismos 
atentos e ágeis do que o contrário. Para tanto desenvolve, no estudo para o Parlamento 
																																																								
26 Lobistas são profissionais formais em alguns países e, por essa razão, são tratadas no texto. 
33	
	
Europeu, o que chama de Três Leis da IA, de modo a justificar o caráter fantasioso dos mitos 
associados à IA. 
2.1.2 Três leia da IA 
A inteligência só existe em razão de desafios. A primeira lei da IA, conforme Bentley 
(2018) diz que “desafio gera inteligência”. Sem a existência de problemas para serem 
solucionados a inteligência não surge ou se desenvolve. Segundo essa lei, para Bentley, a 
inteligência não seria condição, mas consequência da existência de desafios originados em 
problemas. E nessa lógica de condição e consequência, sem novos desafios para serem 
enfrentados (ou uma lógica de recompensa pelo sucesso), a IA não evoluiu. Bentley (2018, p. 
7) afirma: “sem uma necessidade urgente, a inteligência é simplesmente um desperdício de 
tempo e esforço”27. 
Assim, explicando a 1a lei da IA, Bentley (2018, p. 7) afirma que: “a IA é um objetivo 
tremendamente difícil, exigindo condições corretas e esforço considerável.” Prossegue 
afirmando não haver espaço para fugas desse cenário, que permitam algum tipo de 
desenvolvimento autônomo fora do controle humano. Sintetiza ao afirmar que “a IA será tão 
inteligente quanto nós a encorajarmos (ou forçarmos) a ser, mediante nossa pressão”28. 
Bentley (2018) encerra seus comentários sobre a primeira lei afirmando, em 
convergência, não haver evidências de que uma superinteligência seria movida por algum 
interesse em prejudicar a humanidade, e que talvez essa suposição seja fruto da constatação 
que o comportamento humano é muito violento. Contudo, dentro dessa lógica fatalista, não 
seria tal superinteligência uma inteligência humana. O mais plausível seria, assim como a 
própria evolução humana demonstra, uma co-evolução, nos moldes que há a manipulação de 
outras tecnologias (gado, animais de estimação, culturas), no sentido de atendimento às 
necessidades humanas. 
A 2a lei da IA deriva da equivocada percepção de que a quantidade de redes neurais 
está submetida à lógica do quanto mais melhor. Por esta ideia, a IA com mais conexões 
neurais que o cérebro humano poderia ter desempenho superior. Esse é um caminho 
																																																								
27 No original: “Without an urgent need, intelligence is simply a waste of time and effort”. (adaptação livre 
nossa). (BENTLEY, 2018, p. 7) 
28 No original: “The first law of AI tells us that artificial intelligence is a tremendously difficult goal, requiring 
exactly the right conditions and considerable effort. There will be no runaway AIs, there will be no self-
developing AIs out of our control. There will be no singularities. AI will only be as intelligent as we encourage 
(or force) it to be, under duress. ” (BENTLEY, 2018, p. 7) (adaptação livre nossa). 
 
34	
	
equivocado para Bentley e a 2a lei trata justamente da inexistência da lógica da quantidade. 
Cada desafio impõe conexões diferentes, isto é, designs específicos. O gatilho está na 
organização e não na quantidade. 
O grande desafio para

Continue navegando