Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 APRESENTAÇÃO Em um trecho do livro Mein Leben, Richard Wagner, narra um período da sua vida: Decidido a passar aqueles dias da maneira mais tranquila possível, tinha levado a Marienbad somente leituras fáceis, que se estendiam desde os poemas de Wolfram von Eschenbach difundidos por Simrock e San Marte, até a epopéia anônima de Lohengrin, com a vasta introdução de Goerres. Com um livro embaixo do braço, eu penetrava na floresta todas as manhãs; depois, deitado nas proximidades de um riacho, eu me distraia na companhia de Titurel e Parsifal, personagens desconhecidos, e contudo tão familiares a Wolfram. Rapidamente, o desejo de atribuir um formato pessoal a todas essas revelações se tornou tão imperioso que tive grande dificuldade em dominá-lo. Tinham-me recomendado que me afastasse de qualquer atividade excitante durante o período de tratamento: mas um nervosismo crescente se apoderou de mim. De improviso, o personagem de Lohengrin se apresentou, armado, diante de meus olhos. Ao mesmo tempo, delinearam-se, em minha mente, todos os particulares da forma dramática que deveria ser atribuída àquele argumento: a lenda do cisne agitou imediatamente minha imaginação, despertando uma atração irresistível. Embora muito menos alegórico que a narrativa acima, o contexto de elaboração deste livro foi mais ou menos semelhante. Passado o turbilhão do início de um projeto de pesquisa e desenvolvimento, com toda uma organização metodológica, sucedida por muito trabalho de estruturação de dados e muitas tentativas e erros da equipes multidisciplinares de Direito, Engenharia de Software e Ciência da Computação envolvidas na realização de um projeto inovador em Inteligência Artificial e Direito, chegara um momento (ainda de trabalho), mas de ver fazer relatos e consolidações – metaforicamente nossa Marienbad. Mas toda a inquietude e necessidade de buscar conhecimentos, habilidades e entendimentos que foram presentes no início daquele projeto floresceram. Não se poderia esperar!. Foi justamente este espírito e o resgate de dificuldades que enfrentamos (guardadas as devidas proporções com o mestre da Ópera Lohengrin), que se idealizou o presente livro para, singelamente, buscar uma contribuição para os juristas que se interessam ou se aventuram na busca de ideias, projetos, desenvolvimentos e conhecimento nas/das relações entre Inteligência Artificial e Direito. Leituras realizadas em 2017 e 2018, originaram o presente livro, que tem a intenção de colaborar com os estudos em língua portuguesa desta temática tão intrigante e apaixonante 2 que é a Inteligência Artificial e o Direito, buscando, com seriedade, mas com consciência da limitação que um livro tem, os conhecimentos e debates mais fronteiriços envolvendo a relação das duas disciplinas. Os mais ousados atribuem um caráter tão impactante à inteligência artificial quanto foi, no passado, o início da modelagem para uso da eletricidade. Outros associam um grau de equivalência a própria internet. Por outro lado, há escritos sobre os malwares e o mau uso da inteligência artificial. O presente trabalho buscou fazer um panorama sobre várias discussões e uma proposta metodológica para realização de projetos e/ou pesquisas para o bom uso da Inteligência Artificial, estruturadas com princípios de responsabilidade e respaldo ético. Boa leitura! Viena, Outono 2018 Brasília, Verão 2019. os Autores 3 “By far the greatest danger of Artificial Intelligence is that people conclude too early that they understand it.” - Eliezer Yudkowsky. 4 INTRODUÇÃO INTELIGÊNCIA ARTIFICIAL E DIREITO O livro está estruturado em três partes, homenageando uma representação tradicional utilizada na análise de sistemas e engenharia de software: o modelo Input-Process-Output (IPO). Na primeira parte, chamada Input, dois capítulos tratarão da organização de temas e tópicos de fundamento para a temática. Neles serão tratados aspectos do raciocínio jurídico e da comparação entre inteligência artificial e humana, traços históricos, tanto da Inteligência Artificial quanto da sua relação com o Direito, aspectos éticos ligados ao desenvolvimento de pesquisas na área, entre outros. No segundo capítulo, ainda de base, será reservado espaço para discussão sobre alguns mitos e leis associados à Inteligência Artificial. O capítulo buscará situar o leitor sobre a realidade da Inteligência Artificial e Direito. Na segunda parte, chamada de Process, embora sejam tratados aspectos conceituais importantes para a Inteligência Artificial, buscar-se-á apresentar ao leitor aspectos da dinâmica do funcionamento de técnicas e soluções de IA. Nesta parte, haverá exposição ao leitor de elementos da inteligência artificial geral, específica e superinteligência, machine learning, redes neurais, deep learning, algoritmos, processamento de linguagem natural Na parte final, chamada de Output está reservado espaço para tendências da Inteligência Artificial e Direito, nas mais diversas aplicações para a advocacia, na administração pública e na atividade dos juízes, na pesquisa e desenvolvimento e a dinâmica provocada em aspectos da teoria do Direito. No encerramento da Output, como capítulo final, o livro apresentará um proposta metodológica para aplicação em projetos de pesquisa e desenvolvimento que envolvam Inteligência Artificial e Direito. 5 PARTE I “INPUT” 6 CAPÍTULO I INTELIGÊNCIA ARTIFICIAL E DIREITO: RACIOCÍNIO, CARACTERÍSTICAS e FUNDAMENTOS Only a problem found by yourself can really interest and drive you to the final solution. Bob MacPherson - Harvard University - Princeton University 1 INTRODUÇÃO Há muito tempo a Inteligência Artificial (IA) vem interagindo com diversas áreas do conhecimento e permitindo o desenvolvimento de inúmeras soluções, utilizando conceitos, por exemplo, da machine learning, para a realização de tarefas repetitivas, complexas que demandariam uma utilização de esforços humanos, com uma acurácia superior e em tempo e custo inferiores. Na interação com o Direito, inúmeras temáticas também foram trabalhadas e – a cada dia- aperfeiçoadas ou inovadas: due diligence, prediction technology, legal analytics, document automation têm um campo amplo para aplicação das técnicas de IA. Para iniciar um estudo de elementos da IA e o Direito são importantes algumas reflexões sobre a IA e o raciocínio jurídico e, especialmente, o estabelecimento sobre quais princípios deve estar estruturado o desenvolvimento da IA, quando associada ao Direito. No presente capítulo, para se construir uma ideia dos aspectos sensíveis do raciocínio jurídico para a IA e sobre os princípios de desenvolvimento da IA no Direito, serão apresentadas algumas informações sobre o que se imaginava, na virada do milênio, que seria a relação IA e o Direito. Este distanciamento de aproximadamente duas décadas permite algumas importantes observações. O capítulo também informará sobre um breve histórico da IA (que se desenvolve de forma multidisciplinar desde os anos 50 – portanto permitindo um histórico oceânico), com vistas da fornecer um backgroud aos próximos capítulos do livro. Elegeu-se igualmente como importante para o início deste estudo estabelecer alguns marcos 7 sobre habilidades associadas à IA, riscos reconhecidos ou atribuídos e, associados a eles, alguns aspectos éticos que devem estar muito fortemente presentes ao se falar de IA e Direito. Marcará o presente capítulo a intenção de diferenciar a inteligência humana e a inteligência artificial, especialmente no sentido de enfrentar, mais adiante, alguns mitos associados à IA, bem como questões maisconcretas relativas à personalidade e responsabilidade jurídicas. 2 INTELIGÊNCIA ARTIFICIAL NO RACIOCÍNIO JURÍDICO Poderia se reduzir os custos provocados pelos danos causados em uma tempestade? Como se poderia incrementar os cuidados à saúde? Haveria um forma de se ampliar a capacidade cognitiva humana? Ao mesmo tempo que o presente capítulo está sendo escrito, no sul da China, em Seattle, em Amsterdã ou em qualquer outro lugar do mundo onde a informação alcance, a IA está em discussão. Há, na intenção de conhecimento humano, intrigantes desafios na compreensão das experiências, da memória, da organização do raciocínio e do trato das informações. E as abordagens são discutidas pelas ciências exatas, humanas ou biológicas1. A IA é atividade multidisciplinar e, portanto, a intenção de delimitá-la implicará em necessários recortes. Ela é estudada tanto a partir de uma ótica da tecnologia da informação, como é o caso do Professor Thomas Malone, do MIT, quanto, como se pode perceber, no próprio MIT, pela ótica da ciência computacional, como se percebe nos trabalhos de Harini Suresh (MIT CSAIL)2. Dessa forma, a IA pode ser observada como uma practical groundig 1 Essa divisão tripartite das áreas do conhecimento humano é questionada/questionável e somente foi indicada nessa passagem com a intenção de apontar a amplitude do tema. 2 Harini Suresh tem um interessante estudo de como fazer algoritmos de machine learning mais confiáveis em determinadas áreas muito específicas. Isso pode envolver implicações legais, éticas e filosóficas que devem ser muito bem enfrentadas. A confiabilidade passa necessariamente pelo caminho em múltiplas camandas, ou seja, segundo Suresh, para o MIT News, em 24 de abril de 2018, “is investigating this multilayered puzzle: how to create fair and accurate machine learning algorithms that let users obtain the data they need. Suresh studies the societal implications of automated systems in MIT Professor John Guttag’s Data-Driven Inference Group, which uses machine learning and computer vision to improve outcomes in medicine, finance, and sports. Here, she discusses her research motivations, how a food allergy led her to MIT, and teaching students about deep learning.” Continuando sua explicação, ela foi perguntada ainda e respondeu: “Q: What are you currently working on? A: I’m studying how to make machine learning algorithms more understandable and easier to use responsibly. In machine learning, we typically use historical data and train a model to detect patterns in the data and make new predictions. If the data we use is biased in a particular way, such as “women tend to receive less pain treatment”, then the model will learn that. Even if the data isn’t biased, if we just have way less data on a certain group, predictions for that group will be worse. If that model is then integrated into a hospital (or any other real-world system), it’s not going to perform equally across all groups of people, which is problematic. 8 in a business applications, como estratégia de performance, ou como delegação de funções roboticamente praticáveis, isto é, que envolvam repetição, padrões e volumes em atividades não supervisionadas, mas sempre com fundo ético e responsável. Segundo Shabbir e Anwer (2015) a IA se refere a capacidade de reprodução artificial da capacidade de adquirir e aplicar diferentes habilidades e conhecimentos para resolver um dado problema, resolvendo-o, raciocinando e aprendendo com as situações. Há suporte para o êxito desta reprodução, pois a inteligência envolve a aplicação de funções cognitivas, tais como linguagem, atenção, planejamento, memória e percepção (Shabbir; Anwer. 2015). Todas estas funções executáveis artificialmente. O grau de evolução na capacidade de integração de funções cognitivas artificiais e os limites em graus variados de complexidade são as chaves principais nos estudos de IA. Até agora, só há respostas e caminhos que reproduzem parcialmente a capacidade da inteligência humana. Objetivamente, IA será considerada como uma constelação de tecnologias – da machine learning para o processamento de linguagem natural, que permitem à máquina percepções, compreensões, ações e aprendizado. Embora os conceitos serão trabalhados na parte II deste livro (“Process”) é oportuna uma organização dos campos da IA e machine learning: I’m working on creating algorithms that utilize data effectively but fairly. This involves both detecting bias or underrepresentation in the data as well as figuring out how to mitigate it at different points in the machine learning pipeline. I’ve also worked on using predictive models to improve patient care.” MIT News, em 24 de abril de 2018. 9 fonte: (MAINI;SABRI, 2017) A IA é uma subárea da ciência da computação e busca fazer simulações de processos específicos da inteligência humana através de recursos computacionais. Está estruturada sobre conhecimentos de estatística e probabilidade, lógica e linguística. Miles Brundage (2018) define IA como um corpo de pesquisa e engenharia com o objetivo de usar tecnologia digital para criar sistemas aptos a desempenhar atividades para as quais se usa a inteligência humana. fonte: https://mc.ai/machine-learning-a-strategy-to-learn-and-understand/ Por sua vez, a machine learning, pode ser apresentada como um conjunto de métodos que pode detectar padrões em dados de forma automática, utilizando esses padrões para projetar dados futuros ou desempenhar formas de tomada de decisão (MURPHY, 2012). A machine learning é, portanto, uma subárea da IA destinada a permitir que computadores possam aprender por conta própria, utilizando algoritmo de identificação de padrões em dados fornecidos (MAINI;SABRI, 2017). A IA permite, a partir da tecnologia, em uma considerável medida, alterar a relação entre pessoas, potencializando suas capacidades criativas e habilidades. Tem, assim, uma função disruptiva e está diretamente associada à produtividade de ações e conhecimentos. A IA associa-se a engenhosidade humana, contribuindo com velocidade e precisão, 10 especialmente em tarefas que demandariam muito tempo, repetição de esforços e fidelidade a parâmetros. Para melhor se estabelecer o campo da IA, uma lenda antiga é resgatada no paper do Prof. Shoumen P. Austin Datta, do Auto-ID MIT. Trata-se da história de sete homens sábios indianos cegos e um elefante, que mostra que as discussões fragmentárias podem levar a equívocos.3 Confirmando a ideia de que existem definições de IA de acordo com o viés profissional de sua utilização, Datta (2015), opta por um conceito indutivo de IA, no sentido de que IA não é um ponto específico, mas uma linha. IA seria4 um arranjo de sistemas de rede que não poderia ser encaixado com habilidades tipicamente humanas, ainda. Nesta ideia de linha, uma melhor compreensão sobre IA é que trata-se de da subárea da ciência da computação que faz modelagens computacionais do comportamento humano5. Tal construção se dá por iniciativas de modelagem de inteligência, identificando-se formatos comportamentais em determinadas situações e buscando, no computador, comportamentos da mesma maneira. A diferença será, destacadamente sob o aspecto técnico, a velocidade e a acurácia. Contudo, para a acurácia, uma questão crucial é identificar/decidir qual é o nível de simetria entre a atividade computacional e o que ocorre realmente na inteligência humana, que processa visão e demais sentidos, memória, cognição, sensibilidades, etc. Com essa percepção, a ideia da história dos sete sábios cegos volta a fazer todo sentido. As especificidades, contingencialidades,parcialidades, embora possivelmente existentes ou verdadeira (no sentido da história indiana) não correspondem ao conceito holístico, global ou coletivo. Essa percepção é fundamental para definir qualquer método de trabalho entre IA e Direito, como se reforçará ao longo deste livro.6 3 Eles viviam a aconselhar a população sobre uma variável ordem de problemas, mas sempre viviam discutindo sobre quem, dos sete, era o mais inteligente. Até que um deles, cansando dessa espécie de competição, deixou o grupo e foi para as montanhas. Chega então um comerciante montado em um elefante gigantesco. Cada um dos seis sábios apalpa uma parte diferente do elefante e afirma ser o “objeto desconhecido” algo diferente: cobra, parede, árvore, abano, lança.... O sétimo sábio, descendo das montanhas, pede que uma criança desenhe no chão a figura completa e afirma ser o objeto um elefante. Afirma que os homens se comportam muitas vezes assim, pegando fragmentos e pensando ser o todo. Adaptado das narrativas de Heloisa Prieto e John Godfrey, acessível em https://otempotemhistorias. wordpress.com. 4 No original, a integralidade do pensamento: “an array or collective continuum of network systems which may not be boxed with human skills, yet (the latter is by far the most ludicrous and incredible claim at the present time under our known circumstances)” Datta (2015). 5 Melhor detalhamento pode ser obtido no https://ocw.mit.edu/courses/electrical-engineering-and-computer- science/6-825-techniques-in-artificial-intelligence-sma-5504-fall-2002/lecture-notes/Lecture1Final.pdf 6 Um detalhado histórico do processo de desenvolvimento e perspectivas de IA está descrito no paper: “A review of artificial intelligence”, de E.S. Brunette, R.C. Flemmer and C.L.Flemmer. School of Engineering and 11 2.1 IA e aspectos históricos Russell7 (2018) faz todo um detalhamento histórico no seu livro sobre Inteligência Artificial, dividindo a história em período gestacional (1943-1955); período de nascimento (1956), atribuído à John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester, do Dartmouth College; período do entusiasmo (1953-1969); período do realismo (1966- 1973); período dos sistemas baseados em conhecimento (1969-1979) e, por fim o período industrial da IA (1980 até hoje). Segundo Shabbir e Anwer (2015), a origem da IA veio com Alan Turing a partir da Segunda Guerra Mundial e o serviço de decodificação de mensagens. O termo foi usado a partir dos anos 50, pelo denominação feita por Turing no artigo Computational Machinery and Intelligence. Contudo, apenas três décadas depois ganhou impulso pela resoluções de equações e análise de textos em diferentes linguagens. O impulso definitivo da inteligência artificial veio na década passada com a evolução da internet e dos microprocessadores, redução dos custos de armazenagem em nuvens, novos algoritmos e outras inovações. Após Turing, John Von Neumann, nos Estados Unidos, contribuiu com a ideia central de que os computadores podem ser desenhados usando-se o cérebro humano como modelo e iniciou uma concepção antropomórfica da computação, com linguagem, memória e termos típicos ao funcionamento das redes neurais humanas. Ainda na década de 50, um pressuposto básico para o desenvolvimento da IA surgiu com o estabelecimento de teorias que reconheceram a possibilidade de pensamento fora do cérebro humano. Foi em 1958 que surgiu o primeiro programa inteligente baseado em modelos de processamento de informação (Shabbir; Anwer .2015). Depois de um período habitualmente chamado de inverno da IA (MAINI;SABRI, 2017), que para muitos durou por quatro décadas, ela desabrochou num espetáculo de aplicações chamado primavera, com rápidos avanços especialmente creditados ao incremento da capacidade de armazenagem de dados e processamento computacional. Em 2015, há o Advanced Technology of Massey University, New Zeland. No trabalho, além da perspectiva histórica, há o registro do trabalho de Mikawa (2004), sobre variáveis da mente humana: “consciousness, preconsciousness and unconsciousness. In this model most data processing is done in the non-conscious states. He therefore proposed a system where the level of information processing changed, based on visual information being received. In his model, external information processing is conducted when the robot is awake. However, when the robot is in sleep mode, external information processing is reduced and more internal information possessing is conducted.” (BRUNETTE, 2009, p. 386) [All content following the pages of the paper was uploaded by Claire Flemmer on 25 March 2014.] 7 Em seu livro Inteligência Artificial, há o relato detalhado do que Russell considera marcante em cada período. (RUSSELL; NORVIG. 2018). 12 experimento do Google em IA, que construiu um agente de IA com capacidade de interação com humanos, inclusive habilitado em discussões sobre aspectos de moralidade, opinião própria e respostas em geral (MAINI;SABRI, 2017). Os exemplo de conversas são muito interessantes para se ter uma dimensão do alcance de uma aplicação de IA: fonte: (MAINI;SABRI, 2017) créditos: (Vinyals & Le, 2017) destacada conversation 4 13 fonte: (MAINI;SABRI, 2017) créditos: (Vinyals & Le, 2017) destacada conversation 5 No mesmo ano, a DeepMind desenvolveu uma IA para superar a performance humana em 49 jogos de Atari, tendo como input apenas pixels e pontuações do jogo. A evolução foi rápida para a solução chamada A3C. AlphaGo derrotou um dos melhores jogadores de Go, marcante feito após o notório caso do DeepBlue. Muitos mestres não conseguiam acreditar na capacidade da máquina em um jogo tão complexo de estratégia em que é possível 10170posições. Em 2017, o Facebook anunciou uma bem sucedida aplicação para negociação. O Google também lançou um aplicativo de tradução com tratamento de imagem para escrita. Haveria uma série de relatos em aplicações em diagnóstico médico, pesquisas de fármacos, pesquisa aeroespacial (MAINI;SABRI, 2017). 2.1.1 IA e Direito na virada do milênio Pela multidisciplinariedade do desenvolvimento da IA e pelo escopo do presente livro, não seria adequado um levantamento histórico8 da aplicação da IA no Direito. Contudo, pode ser interessante um recorte de pensamentos sobre IA e Direito na virada do milênio. Aliás, estas duas décadas de distanciamento auxiliam os entendimentos necessários para o que será tratado no segundo capítulo deste livro: IA e Direito, quimera ou realidade. Com este distanciamento temporal também será possível ver o que se desenvolveu ou consolidou-se, bem como as utopias e frustrações. Em seu trabalho para a Harvard Journal of Law and Technology, McJohn (1998) fez um contraponto interessante entre expectativas e realidades, à época, da chamada artificial legal intelligence, fruto do desenvolvimento dos computadores de uma forma geral e a identificação da possibilidade de seu uso para modelagens do raciocínio humano. Três grandes campos da IA despertaram interesses na área do Direito: raciocínio baseado em casos, sistemas especialistas e redes neurais9. A primeira área, muito adequada à operação do Direito, utiliza os precedentes no raciocínio jurídico. Neste sentido McJonh relata programas 8 Para referenciais nesta temática: Edwina L. Rissland. Artificial Intelligence and Law: Stepping Stones to a Model of Legal Reasoning, 99 Yale L. J. 1990. 9 Esta temática será aprofundada na parte II “Process” do livro. 14 utilizados na busca de distinguir hard cases na área jurídica de contratos;de modelar diferentes pesos para diferentes fatores que poderiam influenciar na aplicação de normas; bem como programa para comparação de precedentes, exame de similaridades e atribuição de fatores. Este caminho não foi abandonado. Note-se que a provável limitação de resultados esta associada à capacidade de processamento e obtenção de volume de padrões, à época. Note-se também que esta área obteve ao longo das duas décadas seguintes progressivos avanços e está afinada a sistemas baseados em precedentes – algo mais recente (mas cada vez mais forte), em nossa raciocínio jurídico originalmente formado em outra tradição. A segunda área – sistemas especialistas, isto é, a reprodução artificial da forma como o humano com habilidades específicas (especialista) resolve problemas, também era repleta de projetos, como aponta McJohn. Havia o programa taxman, que buscava auxiliar a formulação de argumentos em casos tributários, desenvolvendo uma representação formal dos conceitos e argumentos jurídicos; o finder10, que auxiliava, através de análise à respostas de perguntas, a determinar a propriedade de algo que fora encontrado. A terceira área foi o trabalho com redes neurais. McJohn (1998, p. 243-244) sintetizara as redes neurais como aquelas destinadas a funcionar de forma análoga às redes de neurônios que compõem o cérebro. Por ela, os pontos de entrada são conectados aos pontos de saída por uma rede simulada. Ela pode ser treinada ajustando as interconexões ou adicionando novas conexões na rede, até que uma determinada entrada produza a saída desejada11. O relato dos problemas, naquela época, era justamente a amplitude da “entrada” em se tratando de tema jurídico, bem como a necessidade de justificativas para escolhas. McJonh também relata uma importante abordagem sobre a artificial legal intelligence da época, com duas visões inter-relacionadas: 1) holistic legal intelligence e 2) cyclic paradigms of legal intelligenge. A primeira divisão pressupõe o raciocínio jurídico como 10 O Finder procurava automatizar a análise de decidir se uma parte da propriedade encontrada pertencia ao seu descobridor, fazendo dez perguntas-chave e tentando determinar o resultado do caso a partir das respostas. (McJohn, 1998) 11 McJonh expôs que como uma rede neural deve aprender uma regra com base em vários casos e deve ser flexível o suficiente para se adaptar a novos casos, a aplicação do conceito ao raciocínio jurídico foi prontamente notada. No entanto, tem havido poucas tentativas de implementar redes neurais artificiais que executam o raciocínio legal. A maior dificuldade é que a entrada de um caso jurídico é muito mais ampla e difícil de definir do que em outras aplicações. Além disso, uma rede neural daria um resultado sem as razões para isso o que não seria muito adequado com a necessidade de justificativas para decisões, como é a prática do mundo jurídico. No entanto, tem havido passos no sentido de usar redes neurais artificiais para determinar o peso dado a fatores em um conjunto de decisões legais. 15 único e autônomo. O raciocínio do jurista expressaria um grau de especialização, com conceitos e regras de inferência próprios que poderiam ser representado de forma simbólica. Assim, haveria a combinação da autonomia com a representação formal e, portanto, caminho teórico aberto para a utilização de um único programa de computador. A segunda visão, como fundamento para a convergência computacional ao Direito seria a teoria sobre o desenvolvimento histórico dos sistema legais, pela qual cada sistema legal evolui através de sucessivos ciclos e estágios (costumes, common law, teoria, casuística e codificação)12. Estas métricas com conceitos, regras, ciclos, estágios e delimitações são importantes para se ter uma visão adequada, hoje, das relações e possibilidades da IA com o Direito. Autonomia e representação formal possuem um outro viés. O aspecto de diferenciação do raciocínio jurídico, ligado anteriormente a um conceito de singularidade, é associado a uma impar complexidade (plurívocos/plurivocidade). Toda a observação que se faz no cenário que apontava para uma desenvolvimento iminente da IA com o Direito era baseado na generalização que se fazia do raciocínio jurídico, reforçado na formação do jurista. Havia a visão de que tanto era simples a interface entre a IA 12 No original, McJohn (1998.p. 246) “Gray accordingly describes the history of the Roman and English legal systems as respectively divided into these five stages. In the ritual stage of Roman law, blood feuds between clans were supplanted as dispute mechanisms by the decision-making of patrician priests, who performed the tasks of the legal system through formalized rituals and invocation of memorized rules (p. 116). The formation of the Roman republic saw a transition to the common law stage, where the principles of written civil law and specialization of administrative and judicial officials replaced the arbitrary decision-making of priests (pp. 118- 19). The stage of theory began when Roman jurists developed Roman natural law, influenced by theoretical approaches adopted from Greek philosophy and rhetoric (pp. 121-23). In the succeeding stage of casuistry, the spread of Roman law across the empire to peoples unfamiliar with Roman legal theory opened the way to judicial proceedings geared more to particularized, fact-based reasoning than application of the abstractions of the theory stage (pp. 127-28). The final stage , codification, came with the Theodosian Code and the Justinian Code which succeeded earlier, less comprehensive efforts. (pp. 132-135). The Roman legal system, in Gray’s view, was succeeded in evolutionary fashion by the English legal system, likewise divided into five stages. The ritual stage, in the ninth to eleventh centuries, saw efficient, if arbitrary, trials by ordeal – determining guilt or innocence by whether the accused would heal after being burned by a hot iron or a cauldron of boiling water, or by whether the accused floated when dropped in a stream (p. 117). Less violent was the ritual of oath, where success of a claim depended simply on how many “oath-helpers” a party could recruit in support (pp.116-17). The common law stage, running from the twelfth to fourteenth centuries in Gray’s model, replaced trials by ordeal or oath with advocacy in verbal form before itinerant royal justices, or in more vigorous form with trial by battle (pp. 119-21). […] The theory stage coincided with an increase of the powers of Parliament during the fifteenth through seventeenth centuries (pp. 123-26). Rather than adhering strictly and literally to customary law, courts took a more abstract approach, with two important developments: analogical reasoning from precedents permitted broader applications of legal principles, and the institution of courts of Chancery permitted equitable considerations to override mechanical legal results (pp.124-26). Gray sees the stage of casuistry in English law as extending from the eighteenth century to the present. Systematic reporting of judicial decisions, together with the tomes of Blackstone and other, permitted the construction of a comprehensive body of law resting on legal principles defined through particular cases (pp. 128-30). The English legal system, in Gray’s view, now stands on the brink of the codification stage. Gray notes that some areas of English law have been reduced to consolidated legislation or to systematically organized judicial precedent (p. 135). 16 e o Direito, quanto seria uma oportunidade pela possibilidade de sistematização, consolidação e organização de precedentes, para se revisar e evoluir a própria aplicação do Direito. McJohn (1998), sempre fazendo o contraponto crítico ao trabalho de Pamela Gray, descreve o Surmet– SURvival METasystem, que seria espécie de automatização de uma inteligência jurídica coletiva. O Surmet seria algo como um conjunto que reunisse um sistema de informações jurídicas baseados em todos os processos e conhecimentos oriundos da inteligência humana, quase como uma expertise jurídica global e o que é melhor, universalmente acessível. Como o próprio McJohn construiu argumentativamente, o quadro seria – e é, muito mais complexo que a arquitetura proposta por Gray, à época. De toda forma é possível ver muitas convergências com o cenário atual e esse distanciamento também nos permite ter mais claro algumas opções metodológicas, como vai se ver mais adiante. 2.2 a Inteligência Humana é diferente da IA? Talvez o nome tradicional e impactante de da inteligência artificial tenha causado mais prejuízo que ganhos. Embora a IA se destine à modelagem do raciocínio humano e a execução de tarefas inteligentes, as inteligências humana e “da máquina” são incomparáveis. Para Shabbir e Anwer (2015) a IA se refere ao potencial de um computador executar tarefas que reproduzam a inteligência humana. A IA daria características intelectuais humanas a um robô. Assim, seriam reproduzidos comportamentos, seria possível o aprendizado com experiências passadas (há o clássico exemplo do pequeno robô, que está em processo de aprendizado de andar e vai aperfeiçoando seus passos após quedas sucessivas. Como horas de aprendizado e as mais variadas formas de quedas, ele segue progredindo no aprendizado13), seriam possíveis experiências sensoriais e o desenvolvimento de habilidades para qualificações e significações de determinadas situações. De uma forma conceitual, IA busca permitir, pela combinação de várias tecnologias que a máquina entenda, aprenda, identifique ou complete a atividade humana. Realizada para propósitos específicos, em atividades repetitivas, a IA é construída para aprender e agir. Por outro lado, a inteligência humana alcança níveis que exigem habilidades multitarefas (Shabbir e Anwer. 2015). Assim, embora a IA tenha o potencial de imitar em alguma medida o comportamento humano, ela é limitada devido a diferenças no cérebro humano com os 13 A experiência com o robô Leo (2012) é muito interessante. Ela pode ser acessada no endereço: https://www.youtube.com/watch?v=SBf5-eF-EIw . Último acesso em 09 de março de 2019. 17 computadores. A IA é ideal para propósitos específicos, em atividades repetitivas, que exijam alto grau de atenção e memória. Se estruturalmente há diferenças com o cérebro humano, por outro lado, há capacidade de desenvolvimento autônomo na IA. Isto não é contraditório com a habilidade multitarefa do cérebro humano. A questão é que a IA historicamente sempre foi muito foi desenvolvida com limitações de aprendizagem autônoma, mais próxima com identificação de padrões. A autonomia pode estaria estar associada ao desenvolvimento de sensibilidades, emoções. Por outro lado, pelo desenvolvimento parametrizado, acentua-se o problema a ser enfrentado dos possíveis preconceitos introjetados na alimentação de dados para o desenvolvimento da IA. Não obstante, há muito espaço para evolução da contribuição da IA mesmo em atividades mais distantes dos sentimentos e das emoções, com relevância prática e com encaminhamentos éticos mais definidos. Assim, embora possa existir semelhanças fragmentárias, as máquinas não funcionam como o cérebro humano, especialmente na habilidade comportamental, tais como senso de humor, posicionamentos morais complexos e atitudes típicas humanas, como a intuição (tudo isto em uma dimensão mais global). Isto limita a IA a transferir aprendizagem para cenários com combinações complexas de problemas não previstos, como a inteligência humana permitiria com grande facilidade e com arranjos cognitivos diversos, combinando complexamente lógica, criatividade, engenho e razão (Shabbir; Anwer. 2015). Note-se que aqui se fala em limites e não em impossibilidade. Ao longo do livro, algumas pesquisas serão relatadas justamente neste campo. 2.2.1. Características associadas à IA: habilidades e riscos A IA, como subárea (subárea) da ciência da computação, ao buscar mecanismos de simulação de parte da inteligência humana, necessita o desenvolvimento de algumas habilidades. Estas habilidades são definidas por algumas perguntas14: 1) Como reconhecer objetos? 2) Como converter sons em palavras e vice versa? 3) Como extrair sentido da linguagem e transmitir significado através de sentenças geradas? 14 Há uma figura descrevendo as ligações da habilidades de inteligência artificial em (Shabbir; Anwer. 2015. p. 4) 18 4) Como ordenar informações de uma forma prática? 5) Como combinar pedaços de informações para alcançar conclusões? 6) Como programar uma sequência de ações para cumprir um determinado objetivo e ter certeza de que ela foi bem executada? Estas respostas e, portanto, as habilidades são especialmente fornecidas pela: computer vision; speech recognition and synthesis, natural language processing (NLP), knowledge representation; reasoning; planning. O desenvolvimento dessas habilidades será tema desenvolvido na segunda parte do livro, “Process”. Por outro lado, há, como em qualquer nova apresentação paradigmática, riscos associados à inteligência artificial. O primeiro deles é o uso para maus fins. Se por um lado a machine learning tem um enorme potencial para aplicação em cybersecurity, por outro lado, cyber criminosos também passaram a ter novas perspectivas. O campo para cyber criminosos é gigantesco. Dados indicam que dois terços dos quase dos decision markers em tecnologia da informação (TI) estão em alguma medida apoiados em IA. Um ataque neste campo, portanto, é impactante, até porque as ameaças estruturadas em IA se tornam mais complexas e de difícil detecção que um ataque tradicional. A IA em malwares pode ser utilizada, por exemplo para: geração de novas variantes de um malware a cada minuto, tornando mais difícil sua detecção [um algoritmos de machine learning poderia aprender quais as variantes recém criadas são as menos prováveis para detecção e a produção das novas linhagens de malwares reproduziriam características similares; auxiliar na criação de padrões de tráfego de rede semelhantes aos legítimos – favorecendo sua camuflagem na rede da vítima; combinando várias técnicas de ataque, tornando mais efetivas as opções; implementando mecanismos de auto-destruição, pós- detecção, evitando análise do maleware; detecção de buscadores de maleware para ativação de interrupções temporárias de atividade e proteção do maleware; aumento da velocidade de ataque; realizar uma espécie de escravização com o infectado para testar diferentes técnicas de infiltração, relatar e compartilhar resultados sobre o aprendizado obtido na infraestrutura infectada; etc. (KUBOVIC; KOSINÁR, JÁVOSIK. 2018). Como fruto de programação, pode haver a projeção de elementos negativos da própria inteligência humana. Bright (2018) apresenta o contexto de um problema do funcionamento da IA pela métrica usada para a tomada de decisão refletir uma criação humana. Segundo ela, os preconceitos podem surgir muito facilmente em razão da necessidade de treinamento. Uma boa ideia sobre human bias pode vir da associação ao próprio conceito de machine learning, 19 como um subconjunto da AI, onde algoritmos dirigidos por redes neurais complexas ensinam computadores a pensar de forma semelhante aos humanos, enquanto processam big data e executam cálculos com precisão, velocidade e supostamente, protegidos de parcialidades (YAPO; WEISS. 2018. p. 5365). Como um sistema probabilístico, baseado numa alimentação de dados para determinada conduta, os algoritmos de machine learning podem trazerbenefícios ou problemas que refletem discriminação, parcialidades, escolhas ofensivas, desinformações, ou seja, human bias ocorre quando o sistema computacional basicamente reflete os valores implícitos de seu criador, distorcendo o conjunto de dados para o treinamento do sistema. Como a construção de uma solução em IA parte de representações abstratas e simbólicas deve existir uma projeção e uma aferição dos seus significados concretos. Shabbir; Anwer. (2015) mencionam a necessidade de uma flexibilidade nos métodos para dar conta da atuação puramente mecânica, fruto de aplicações algorítmicas irreflexivas ou, numa feliz metáfora “do intelecto à força bruta”. Este trato é eminentemente metodológico e deve ser consciente das características e dos limites da IA, bem como a necessária abordagem ética e consequencial sobre os efeitos e implicações na vida das pessoas das decisões tomadas a partir da aplicação tecnológica. 2.3 IA e aspectos éticos Como a IA é uma área de amplas e multidisciplinares pesquisas, com implicações teóricas e práticas, fica muito claro que há aspectos éticos15 que devem ser considerados. Aqui se filiará a ideia de que não há ainda, claramente, uma definição comum sobre o que seria uma “ética da IA”, ou algo assim. Contudo, há muita reflexão teórica e filosófica sobre o tema, especialmente sobre o conceito de ética de máquina. Vakkuri; Abrahamsson (2018) escreveram sobre conceitos chave de ética e sua relação com a IA. Mencionando-se as aplicações comuns de IA, quer em algoritmos de redes sociais, sistemas autônomos de decisão ou veículos autônomos e outras aplicações está evidente que a IA não tem relações circunscritas ao universo tecnológico ou de engenharia. A IA está no mundo humano e os aspectos éticos e valorativos são urgentes. Desta forma, em estudos que envolvam IA, mais 15 Desnecessário reafirmar a importância dos aspectos éticos, deontológicos e regulativos para a disciplina. Ao ter com escopo uma área de conexão entre IA e Direito, especialmente desenvolvidas em aspectos de inovação, são necessários muitos estudos e ações nesses dois importantes aspectos. No presente livro, algumas considerações serão feitas, sem a intenção de uma abordagem geral sobre o aspecto ético, reafirmando ser um importante eixo de pesquisa da interação IA e Direito. 20 ainda que envolvam IA e ciência sociais aplicadas, é fundamental que se identifiquem e definam diretrizes estabelecidas em uma abordagem do discurso ético. De início é importante fazer uma distinção. A discussão acadêmica da relação entre IA e aspectos éticos não é nova. Não obstante, com o incremento de soluções em IA, acredita-se que o desenvolvimento de pesquisas com definição de diretrizes éticas, objetivamente metrificadas se tornaram um grande desafio. Vakkuri; Abrahamsson (2018) definem bem esta preocupação com a elaboração de uma pergunta: ao lado das discussões e pesquisas exploratórias do potencial da IA, como a ética deve ser implementada na prática? Portanto, ética e IA devem utilizar seus princípios entrelaçados é o conclusão fundamental. O panorama dos estudos sobre a discussão ética na IA indica que habitualmente as reflexões éticas são feitas em um plano teórico-filosófico, mas quando os casos se tornam reais os impactos éticos se tornam menos prioritários16 (Vakkuri; Abrahamsson 2018). Isto vem mudando, como dito, especialmente pelo incremento do impacto da IA no cotidiano. Se por um lado a capacidade de processamento de dados e, por consequência, a ampliação no campo de inovações permitem uma entrega maior de soluções de IA, por outro, cria-se, pelo impacto, pressões/custos em discussões éticas. Desde os mais simples chatbots que obtém uma série de informações de caráter privado e o armazenam ou encaminham soluções a partir desta relação direta e privada com seu interlocutor humano (privacidade); passando pela aplicação de IA nos diagnósticos médicos, com informações até então restritas ao médico pessoal do paciente (deontologia profissional) até outras aplicações autônomas (veículos autônomos, embarcações autônomas p.ex) a relação ética que marcava o comportamento interno das pessoas passa a estar no plano da Big Data, dos sistemas de recomendação, da mineração de dados, da clusterização (questões de policy) e assim por diante até o uso de armamento autônomo, com potencial letal (Como seria possível estabelecer uma possível autonomia neste campo? Como seria isto compatível com um sistema de direitos humanos?) Ao escrever sobre o que deve ser prioritário em pesquisas de IA, (Russell; Dewey; Tegmark. 2015), reforçaram alguns aspectos que a pesquisa em IA (que busque trazer benefícios para a humanidade) deve apresentar, fugindo de armadilhas camufladas na 16 Vakkuri; Abrahamsson (2018), ao fazer uma proposta de estudo sistemático sobre papers relevantes, mapearam um total de 1062 papers no campo da ética e IA. 21 tecnologia. Como um exemplo de prioridade deve existir a inclusão de etapas éticas nos processos de verificação, validação, segurança e controle: 1) verificação: significa a aferição se o sistema atende aos requisitos formais de construção e, nesta etapa, a aferição de situações críticas de segurança. Isto é muito perceptível na etapa de desenvolvimento de veículos ou armamentos autônomos, equipamentos de diagnóstico, chatbots que trabalham com dados de circulação restrita ou privada. Esta etapa inclusive, por envolver muitas aplicações matemáticas, é um fator limitador concreto dos pressupostos exigíveis para uma IA com consciência ampla. A exigência de verificações igualmente amplas e complexas de forma concreta restringe a aplicação de IA para problemas o mais específicos possíveis17. Russell; Dewey; Tegmark. (2015) reforçam o alerta de que projetos de sistemas de IA operam em ambientes apenas parcialmente conhecidos pelo projetista. Neste caso a verificação é um estágio que vai além da verificação tradicionalmente feitas nos softwares. 2) Validação: ao projetar sistemas de maneira adequada, deve-se checar se a solução vai além de atender os requisitos, mas é adequada e compatível com um bom comportamento sob o ponto de vista ético. Além da confiabilidade da técnica para o atingimento de determinado objetivo, Russell; Dewey; Tegmark (2015) contextualizam com a hipótese de soluções para um veículo autônomo, que terá que ser capacitado tanto sob os aspectos ligados à dirigibilidade, quanto a aspectos éticos comportamentais envolvidos com o trânsito. 3) Segurança: a IA é uma subárea (sub-subárea) da ciência da computação e representa uma das suas fronteiras de inovação. Inicialmente, sob o aspecto da segurança está a proteção que é necessária para evitar o mau uso da própria IA, crescente em ataques cibernéticos. Há, portanto, este viés defensivo da IA. Assim, os sistemas de desenvolvimento devem observar 17 Russell; Dewey; Tegmark (2015, p. 108) mencionam “Formal verification of software has advanced significantly in recent years: examples include the seL4 kernel (Klein et al. 2009), a complete, general-purpose operating system kernel that has been mathematically checked against a formal specification to give a strong guarantee against crashes and unsafe operations, and HACMS, DARPA’s “clean-slate, formal methods-based approach” to a set of high-assurance software tools (Fisher 2012). Not only should it be possible to build AI systems on top of verified substrates; it should also be possible to verify the designs of the AI systems themselves, particularly if they follow a componentized architecture, in which guarantees about individual components can be combined according to their connections to yield properties of the overall system. This mirrorsthe agent architectures used in Russell and Norvig (2010), which separate an agent into distinct modules (predictive models, state estimates, utility functions, policies, learning elements, and others), and has analogues in some formal results on control system designs. Research on richer kinds of agents — for example, agents with layered architectures, anytime components, overlapping deliberative and reactive elements, metalevel control, and so on — could contribute to the creation of verifiable agents, but we lack the formal algebra to properly define, explore, and rank the space of designs.” 22 protocolos de segurança, como comentam Russell; Dewey; Tegmark (2015), com segurança para memória, isolamento de falhas, integração hardware-software e protocolos de redução de vulnerabilidades.18 4) Controle: em áreas consideradas sensíveis, esta etapa ganha ainda mais importância. Os projetos em IA devem prever etapas nas quais o trabalho técnico de controle humano deve ser aplicado. Há, nesta etapa, também o destaque para as oportunidades de arquitetura de protocolos de transição entre a atuação autônoma da máquina e o controle humano (Russell; Dewey; Tegmark.2015). Em outubro de 2018, houve a International Conference of Data Protection onde foi feita uma Declaration on Ethics and Protection in Artificial Intelligence. Dentro de um contexto maior de policy e todas as suas limitações para áreas fronteiriças do conhecimento, a declaração apresenta algumas diretrizes éticas importantes. A primeira delas é um dever de reduzir preconceitos ou discriminações no desenvolvimento e aplicação de soluções de IA. Isto vai de encontro com as necessidades éticas nas etapas de verificação e validação, acima expostas. Desta constatação, Polonski (2018), em seu artigo Mitigating algorithmic bias in predictive justice: 4 design principles for AI fairness, sugere alguns princípios que vão além de parâmetros tradicionais de avaliação da AI, como acurácia e matriz de confusão. O primeiro desses princípios é chamado de representation, que busca uma proteção contra preconceitos injustos e que todos os sujeitos devem ter a mesma oportunidade de serem representados nos dados. Este princípio deve ser verificado a priori buscando um equilíbrio nas populações com risco de sub-representação na fase de treinamento, quanto modelos eventualmente tendenciosos sejam submetidos a um novo treino, que sejam utilizados algoritmos para atenuar distorções ou tendências indesejadas metodologicamente. A segunda, protection, impõe aos sistemas de machine learning, mecanismos para evitar efeitos injustos a indivíduos vulneráveis. A protection demanda um projeto metodológico abrangente, que permita a prevenção de efeitos negativos 18 Russell; Dewey; Tegmark (2015, p. 108) também mencionam a possibilidade de soluções de IA para segurança: “At a higher level, research into specific AI and machine-learning techniques may become increasingly useful in security. These techniques could be applied to the detection of intrusions (Lane 2000), analyzing malware (Rieck et al. 2011), or detecting potential exploits in other programs through code analysis (Brun and Ernst 2004). It is not implausible that cyberattack between states and private actors will be a risk factor for harm from near-future AI systems, motivating research on preventing harmful events. As AI systems grow more complex and are networked together, they will have to intelligently manage their trust, motivating research on statisticalbehavioral trust establishment (Probst and Kasera 2007) and computational reputation models (Sabater and Sierra 2005. p. 109).’ 23 em função de gênero, raça, etnia, nacionalidade, orientação sexual, religião, vertentes políticas, entre outros, posto que o sistema treinará e será testado em referenciais de dados de uma realidade desigual e repleta de preconceitos. A terceira, stewardship, significa que os sistemas de machine learning têm a responsabilidade ativa pela realização de justiça e o compromisso com a inclusão em todas as etapas do desenvolvimento de modelos de IA. Por último, a authenticity, ou seja, além da confiança nos dados, deve existir uma autenticidade na visão da própria construção (autenticidade nas predições da IA), pois serão usadas para suporte a alguma decisão. Como bem mencionou (YAPO; WEISS. 2018. p. 5368) o impacto da IA em nossas vidas faz com que os parâmetros, riscos, regulações e desenvolvimentos éticos sejam fundamentais em desenvolvimentos no setor. Não é possível se falar adequadamente em um projeto de IA sem um projeto ético (que coloque centralmente as discussões sobre ética e valores envolvidos), sem um reflexão das melhores formas de comunicação e esclarecimento sobre os objetivos e impactos do projeto, sem um sistema de controle (tanto para aferição de benefícios como para identificação e gestão de danos). Visualiza-se, inclusive, uma necessidade de suporte à projetos de P&D com certificação dessas etapas. A formalização das necessidades éticas, para a realização de projetos inovadores não pode ser vista de outra forma, senão crucial! 2.4 IA e Direito Em um tradicional artigo da Professora Edwina L. Rissland, do Departamento de Ciência da Computação da University of Massachusetts, em 2003, já havia a detecção das sinergias entre a IA e o Direito. Lá Rissland situou a IA e o Direito como um campo singular de pesquisa para a IA. Tais pesquisas permitiriam, segundo ela, uma acréscimo para além das questões próprias do Direito, nas quais se pode incluir a dogmática, a hermenêutica, as teorias de justiça ou da melhor decisão, a argumentação jurídica, mas especialmente quanto a insights e às lógicas inerentes a própria práxis jurídica de um modo amplo. No panorama da pesquisa geral em IA pode-se identificar nuances e limitações das técnicas já existentes para a operabilidade do direito, bem como elementos catalisadores para o desenvolvimento de novas abordagens sustentáveis. O referido trabalho de Rissland se reforça na observação de que houve um aprofundamento das teorias standards da argumentação jurídica, com refinamento na 24 construção de modelos para análise a avaliação do raciocínio jurídico. Deste mapeamento permite-se identificar que há uma sinergia entre IA e Direito, mas também entre IA com IA e Direito. Esse processo se intensificou a partir dos anos 1980.19 Importante desde já fixar a exata medida de sinergia, que não significa sobreposição ou sublimação, mas incremento em potencialidades.20 Em artigo da Universidade de Brighton, Reino Unido, J.K.C. Kingston (2018) concentrou as principais discussões, que poder-se-ia chamar de discussões jurídicas stricto sensu afetas ao Direito e IA: 1) as limitações dos sistemas de IA e o nível de informação ao público e ao consumidor; 2) se a IA é um produto ou um serviço? 3) Qual o enquadramento e natureza da responsabilização em caso de uma ofensa? Das ocorrências em termos de especializações do Direito, quer sejam elas no civil, no empresarial, no consumerista, nas afetações sobre o direito trabalhista, no internacional privado, no penal, quer seja em discussões com algum nível de reflexo constitucional são inegáveis as inter-relações entre IA e Direito21. Para o presente livro, no entanto, quer se destacar um outro aspecto da IA e Direito (que evidentemente não se dissocia das disciplinas jurídicas), aspecto instrumental de performance ao Direito no encaminhamento de soluções para conflitos. Simon Stern (2017), da Universidade de Toronto, escreveu sobre específicas aplicações de machine learning no Direito: ferramentas de E-Discovery, que pela grande quantidade de dados, habitualmente envolve uma grande quantidade de advogados e 19 Richter and AAmondt,em 2006, no paper intitulado Case-based reasoning foundations, desenvolveram um tema relevante para a interseção de disciplinas que trabalham com os campos do raciocínio da experiência, da memoria e da analogia. O Case-based reasoning CBR é uma dessas interseções.“CBR concerns the capturing and utilization of specific experiences. The major influence of cognitive science on CBR is centered around the terms experience, memory and analogy. These concepts have their roots outside of computer Science” 20 Importante para essa passagem uma observação sobre a ideia de human learning e automatic-learning, e destaca o caráter único e insubstituível do comportamento humano está no paper de Maalel e Mabrouk (2012) intitulado Contribution of case based reasoning (CBR) in the exploitation of returno f experience, de no The ability to learn appears to be an essential component of the definition of intelligence which all human beings have the privilege of Indeed, man is pre-programmed to learn and he cannot do anything without memoring what he does, sometimes against his will. The newborn who has already attitudes and reflexes is fundamentally curious. Man, cannot help pursue information, all his life cannot help turne his eyes towards something that moves, cannot help to stretching his ear to an unusual sound [8]. The computer is a priori devoid of such a research and general learning program. In addition, methods and approaches to research currently developed through machine learning cannot, in any circumstances, replace the mechanisms of learning and intelligent behavior that men are endowed with indeed, most results obtained so far for machine learning are based on very simplistic assumptions compared to the actual mechanisms of human learning. 21 Há um artigo interessante: “How Artificial Intelligence Will Affect the Pratice of Law”, escrito por Benjamin Alarie, Anthony Niblett and Albert Yoon. 25 empregados de firmas de advocacia e pode ser executado por ferramentas de IA em uma fração de tempo, a um custo muito mais reduzido e com grande acurácia. Este raciocínio não válido exclusivamente para advogados, mas para o que foi convencionado chamar de operadores do direito. Atividades rotineiras e repetitivas na administração do direito que podem ser desenvolvidas em uma fração do tempo com um grande nível de acurácia, permitindo a concentração do talento humano em áreas estratégicas. Este é um vasto espaço de pesquisa e desenvolvimento. Mas, a ideia de Stern (2017, p. 13) é muito válida22: com o passar do tempo, a grande disponibilidade de dados pode ajudar a facilitar sua disseminação para outros domínios legais. E continua o pensamento afirmado que além deste efeito facilitador e otimizador da práxis, com o tempo, poderá se auxiliar às necessidades judiciais e legislativas, permitindo, por exemplo que os legisladores façam leis mais adequadas e precisas às circunstâncias. Um importante viés do estudo da IA e Direito são seus referenciais normativos. Com uma policy em estruturação e com uma regulação por ser feita é importante uma reflexão sobre princípios conectados a esta frente inovadora. Como dito e sabido, a IA não é um fenômeno novo. Mas as tecnologias hoje disponíveis, permitem, dentro de uma imensidão de dados produzidos a cada dia, visualizar uma nova dimensão à IA. Uma primeira abordagem pode ser feita a partir de uma condensação de princípios éticos. O The future word of work, realizado pela UNI Global Union, que reúne cerca de 150 países estabeleceu uma série de princípios para políticas de inovação, tanto para iniciativa privada, quanto para governos. Suas orientações levam em conta aplicações da inteligência artificial para chatbots, robots, system analytics, bases de dados baseados em ações, movimentos e falas (comportamento não oriundo da programação, mas de bases de conhecimento). 3 CONCLUSÕES Como um primeiro conjunto de dados, o presente Capítulo buscou um panorama sobre o raciocínio, as características e os fundamentos para o estudo da IA e o Direito. 22 No original “Over time, however, the great availability of data may help to facilitate its spread to other legal domains” e Just as such tools may help with the practice of law, they may also, in time, come to serve various judicial and legislative needs—allowing lawmakers, for instance, ‘to make laws that are better tailored to individual circumstances.’”(STERN, 2017, p. 13). 26 A estruturação do capítulo tem inspiração justamente no pensamento de Bob MacPherson. Estes primeiros contorno para a IA e o Direito foram importantes para os autores, quando iniciaram seus estudos neste campo, conseguissem por ele transitar, já que a riqueza multidisciplinar apresenta tantos conceitos e paradigmas diferentes do estudo tradicional do Direito. Assim, o capítulo buscou explicar a IA como o desenvolvimento de capacidade de reprodução artificial de habilidades e conhecimentos humanos destinados à resolução de problemas específicos. Envolve, portanto, habilidades de compreensão de linguagens, planejamento, memória, percepção, que podem ser executadas artificialmente. Buscou-se igualmente uma situação “topográfica” da IA e sua relação com a machine learning. Como não se pode negar, apesar de estar na fronteira dos processos de inovação, tanto a IA, quanto a relação dela com o Direito têm traços históricos relevantes para uma compreensão adequada da temática. O presente capítulo não teve a pretensão de fazer uma amplo histórico, mas de destacar pontos para o leitor melhor formar um juízo sobre a dimensão da temática. Nesta mesma toada, buscou-se subsidiar o leitor com diferenças entre a inteligência humana e a IA, fundamentais para a posterior idealização de projetos e soluções que envolvam IA e Direito e, especialmente útil, para se compreender melhor a suavização de mitos associados à IA, que será feita no próximo capítulo. Por fim, mas crucial, especialmente em razão de malwares e de human human bias, os aspetos éticos associados à IA devem estar presentes em seus fundamentos, não somente em discussões acadêmicas ou teóricas sobre a disciplina, mas como etapas concretas da realização de qualquer projeto ou solução de IA. Verificação, validação, segurança e controle devem prever quesitos éticos, assim como a estruturação de sistemas de certificação devem ser considerados. Não é exagero pensar que a inteligência artificial – seu grande aperfeiçoamento nos últimos anos e sua difusão de usos e aplicações, tem a capacidade de produzir severas mudanças em nossos ambiente social e político, com efeitos revolucionários potencialmente semelhantes a outros fenômenos indutores de viradas paradigmáticas. Além do aperfeiçoamento de tarefas que ainda são realizadas pela aplicação de esforços e inteligência humana, a IA poderá impulsionar descobertas através do uso de máquinas para obtenção de conhecimentos impossíveis à capacidade e resistência da estrutura humana. 27 REFERÊNCIAS BLIGHT, KARIN JOHANSSON. Artificial Intelligence, AI biases and risks, and the need for AI-regulation and AI ethics: some examples. 2018DOI: 10.13140/RG.2.2.23455.00160 disponível em https://www.researchgate.net/publication/326377798_Artificial_Intelligence _AI_biases_and_risks_and_the_need_for_AIregulation_and_AI_ethics_some_examples_17_ Nov_2018. último acesso em 11 de março de 2019. BRUNDAGE, Miles, et.al. Scaling Up Humanity: The Case for Conditional Optimism about Artificial Intelligence. In: EPRS. Euroepean Parliamentary Research Service. Should we fear artificial intelligence? Europian Parliament. 2018. Disponível em: http://www.europarl.europa.eu/RegData/etudes/IDAN/2018/614547/EPRS_IDA(2018)61454 7_EN.pdf. último acesso em 11/03/2019. GRAY, Pamela. Artificial Legal Intelligence. Aldershot: Brookfield, EUA.1997JAHANZAIB, Shabbir; ANWER, Tarique. Aritificial Intelligence and its Role Near Future. JOURNAL OF LATEX CLASS FILES, VOL. 14, NO. 8, AUGUST 2015. disponível em https://arxiv.org/pdf/1804.01396.pdf. último acesso em 25 de fevereiro de 2019. KUBOVIC, Ondrej; KOSINÁR, Peter; JÁNOSIK, Juraj. Can Artificial Intelligence Power Future Malware? ESET White Paper. Enjoy Safer Technology. Disponível em https://www.welivesecurity.com/wp-content/uploads/2018/08/ Can_AI_Power_Future_ Malware.pdf. último acesso em 11 de março de 2019. (KUBOVIC; KOSINÁR, JÁVOSIK. 2018) MAINI, Vishal;SABRI, Samer. Machine Learning for Humans. Published August 19, 2017. Edited by Sachin Maini. disponível em https://everythingcomputerscience.com/books/Machine%20Learning%20for%20Humans.pdf. Último acesso em 08 de março de 2019. MCJOHN, Stephen M. Artificial Legal Intelligence. Harvard Journal of Law and Technology. Volume 12, Number 1 Fall 1998. Disponível em http://jolt.law.harvard.edu/articles/pdf/v12/12HarvJLTech241.pdf. Último acesso em 19 de fevereiro de 2019. POLONSKI, Vyacheslav. Mitigating algorithmic bias in predictive justice: 4 design principles for AI fairness. 2018. Disponível em https://towardsdatascience.com/mitigating- 28 algorithmic-bias-in-predictive-justice-ux-design-principles-for-ai-fairness-machine-learning- d2227ce28099. último acesso em 02/03/2019. RUSSELL, Stuart; NORVIG, Peter. Inteligência Artificial. Tradução Regina Celia Simille de Macedo. Elsevier. 8a tiragem. Ano...... RUSSELL, Stuart; DEWEY, Daniel; TEGMARK, Max. Research Priorities for Robust and Beneficial Artificial Intelligence. Cornell University. AI Magazine, 36 n. 4 (2015) Disponível em https://arxiv.org/pdf/1602.03506.pdf. Último acesso em 12 de março de 2019. VAKKURI, V.; ABRAHAMSSON, P. The Key Concepts of Ethics of Artificial Intelligence. In 2018 IEEE International Conference on Engineering, Technology and Innovation (ICE/ITMC). IEEE. http://dx.doi.org/10.1109/ICE.2018.8436265. último acesso em 02/03/2019. YAPO, Adrienne; WEISS, Joseph. Ethical Implications of Bias in Machine Learning. Proceedings of the 51st Hawaii International Conference on System Sciences. 2018. disponível em https://core.ac.uk/download/pdf/143481503.pdf. Último acesso em 11 de março de 2019. URI: http://hdl.handle.net/10125/50557 P. 5365-5372. (YAPO; WEISS. 2018). 29 CAPÍTULO II INTELIGÊNCIA ARTIFICIAL E DIREITO: QUIMERA OU REALIDADE Applying just a bit of strain to a piece of semiconductor or other crystalline material can deform the orderly arrangement of atoms in its structure enough to cause dramatic changes in its properties, such as the way it conducts electricity, transmits light, or conducts heat. Now, a team of researchers at MIT and in Russia and Singapore have found ways to use artificial intelligence to help predict and control these changes, potentially opening up new avenues of research on advanced materials for future high-tech devices. MIT News, 11/02/2019 1 INTRODUÇÃO Inteligência Artificial nos mais variados campos do conhecimento! Inclusive naquilo que conhecemos como fronteira do conhecimento de condução de eletricidade, transmissão de luz ou condutores. Anualmente, o MIT (Massachusetts Institute of Technology) organiza a HUBweek, um evento de inovação sob o slogan de “festival do futuro”. Nas centenas de atividades que envolvem, além da comunidade em sentido amplo e, especialmente, change- makers, pode-se perceber um destaque às ações em policy hackathon23. Os fundamentos das reflexões sobre inovação partem de uma convergência: um referencial na big societal challenges. Nessa quadra é que serão encontradas as principais respostas para as relações entre conceitos tradicionais e inovadores. Isso passará, frequentemente, por soluções eminentemente interdisciplinares, reunindo a capacidade tecnológica com referenciais sociais e/ou sociais aplicados. Mas a reflexão acima não é direta e consquencial. Em uma outra rodada de eventos no MIT, denominada Future Forum será retomada a perspectiva da segunda Era da machine learning, justamente fundada no incremento da autonomia tecnológica e na análise da 23 Não se traduzirá ao longo do presente trabalho o termo policy posto que o significado não é, acredita-se, o mesmo que a tradução imporia. As relações entre inteligência artificial e direito ainda são extremamente indeterminadas para se estabelecer um significado mais restritivo que o termo sugeriria. 30 capacidade dos computadores para reconhecimento de padrões e a automação de muitas tarefas cognitivas. Daí, por uma compreensão rasa, a se aprofundar a mitificação da IA, especialmente em campos apegados à tradição, como o Direito. Nos últimos meses também intensificaram-se no Brasil interesses, questionamentos, debates e alguns textos sobre as inter-relações entre IA e o Direito. Como a própria vanguarda mundial sobre o tema ainda é relativamente inconclusiva sobre as exatas possibilidades e limites de tal inter-relação, característica, aliás, de um processo de inovação, é natural que surjam incertezas, dúvidas, inseguranças e outros sentimentos típicos de áreas exploratórias. Felizmente, há relativo conforto quanto à atenuação ou descarte de alguns mitos associados à IA, que sempre contribuem para um cenário de instabilidades (e até mesmo rejeições), cenário esse infértil para o desenvolvimento de pesquisas, que podem implicar no afastamento do país da avant-garde. O presente capítulo tem o objetivo de analisar24 o estudo feito pelo European Parliamentary Research Service (EPRS), publicado recentemente pela Scientific Foresight Unit (STOA) que busca abordar e dissipar mitos associados à IA bem como comentar a convergência entre a IA e um sistema de otimização racional para o Direito. É uma discussão que está sendo feita agora na União Européia e, portanto, estratégica para a pesquisa e desenvolvimento da IA e Direito. 2 CONTEXTO DA IA: REFLEXÕES E ESTRATÉGIAS DE VANGUARDA Já no prefácio do trabalho do EPRS, María Teresa Giménez Barbat, Membro do Parlamento Europeu - MEP (2018) e representante da Espanha no Committee on Culture and Education, fala em desempenho e resultados notáveis que a IA25 tem alcançado recentemente em termos de reconhecimento e processamento de voz e imagem, além de textos e o incremento de softwares de controle autônomo. No mais alto e restrito nível do pensamento 24 A análise buscará detalhar o texto feito pelo EPRS. Assim, o presente texto estará centrado nessa referência bibliográfica, que apresenta atualidade e profundidade temática para ser o principal referencial. 25 Stuart Russel define inteligência artificial (IA) como o estudo dos métodos para fazer computadores se comportar de forma inteligente. Afirma que, grosso modo, um computador é inteligente na medida em que faz a coisa certa ao invés de a coisa errada. Conceitua a coisa certa como a ação que é mais propensa a atingir um objetivo, ou, em termos mais técnicos, a ação que maximiza uma utilidade esperada. Sustenta que a Inteligência Artificial (IA) inclui tarefas como aprendizagem, raciocínio, planejamento, percepção, compreensão de linguagem e robótica. Miles Brundage define Inteligência Artificial como um corpo de pesquisa e engenharia com o objetivo de usar a tecnologia digital para criar sistemas aptos a desempenhar atividades para as quais se costuma exigir inteligência, ao ser realizada por um indivíduo. Afirma que este campo do conhecimento evoluiu muito rapidamente nos últimos anos, após décadas de apatia. 31 estratégico europeu, afirma-se que não é possível imaginar um futuro na Europa sem avanços nas pesquisas em IA. Discutem-se conceitos e abrangências sobre “intelligentautonomous robot” ou “eletronic personality”. Esse pensamento estratégico deve ser, ao menos, objeto de atenção na pesquisa jurídica com viés tecnológico. Na tradição jurídica brasileira, em contraste profundo com as atuais tendências tecnológicas, especialmente no âmbito de um sistema contencioso que poderia ser caracterizado como sui generis em termos de seu universo quantitativo, houve uma série de revoluções, evoluções, adaptações, e soluções (ousadas e brilhantes muitas vezes, repletas de críticas em outras), mas todas dentro do que poderia ser chamado de lógica analógica ou digital de primeiro nível. As soluções sempre foram imaginadas, por mais tecnológicas que fossem, na absoluta dependência da atividade imediata e supervisionada dos juristas. A realidade jurídica brasileira, especialmente na sua faceta contenciosa está posta em números e estatísticas que confirmam a insuficiência das soluções (vide a reforma do Judiciário, pela EC 45/2004 ou o próprio Código de Processo Civil CPC/2015). É necessária uma alternativa de sublimação desse modelo de primeiro nível. Sublimação no sentido de não negação de suas construções e caracterísitcas, mas de constatação de sua insuficiência para o encaminhamento das demandas sociais sobre o Direito e, especialmente, sobre o sistema contencioso. Nesse sentido, a inteligência artificial tem muito a contribuir. Acredita-se que a cristalização de uma policy, de uma maior maturidade de temas multidisciplinares, da estruturação de estudos e pesquisas com reflexões sobre ética, accountability, compliance e regulação, da identificação de soluções realmente utilizáveis, da evolução e do maior número de benefícios aos cidadãos e à cidadania passarão ao desenvolvimento de uma massa de expertise sobre o tema. Um primeiro passo seria a compreensão de alguns mitos associados à IA. 2.1 Mitos em IA A IA é multidisciplinar e, sobre ela surgem igualmente opiniões multidisciplinares. A isso soma-se o comportamento pessimista em relação a algum tipo de progresso tecnológico compondo um cenário de medo e presunção de danos. Se por um lado não seria adequado um comportamento chauvinista tecnológico, por outro, o temor ancestral irracional também não ajuda muito. 32 De alguma forma, em outros campos, incorporou-se (talvez já de forma somatizada) os benefícios da tecnologia em diagnósticos e tratamentos de saúde, previsões, registros, contabilidades, transações, arquivos, conteúdos, etc., mas tem-se considerável receio de se imaginar tecnologias quando estão associadas alterações nas rotinas de trabalho ou nos mecanismos de tomada de decisão. Nesse cenário as discussões sobre ameaças, danos, riscos têm muito mais preponderância que o debate sobre enfrentamento de problemas de massa, priorização das atividades criativas e complexas, qualidade no ambiente de trabalho, transparência e substancialidade na tomada de decisões. Peter J. Bentley (2018), da University College London, apresenta uma visão dos cientistas da computação que trabalham no campo da criação de tecnologias em IA sobre muitos mitos criados pelo viés multidisciplinar da IA e pela amplitude de seu debate (que envolve pessoas leigas, políticos, filósofos, empresários, lobistas26, etc.). O pesquisador destaca os mitos associados à inteligência artificial e os refuta pela explicação técnica das leis da IA, como se aponta a seguir. 2.1.1 A ameaça à humanidade e às humanidades Fruto de um roteiro de filme de ficção, a IA é associada a um risco a própria humanidade, já que não se pode fixar limites na capacidade de inteligência, a própria humanidade estaria se colocando em risco. Uma desdobramento desse mito à IA e o Direito seria no risco de inversão de valores e no subordinação das sensibilidade e sentimentos humanos à frieza da capacidade bruta de inteligência na IA. Neste contexto, os juristas estariam colocados a um segundo plano. Bentley (2018) afirma existir dois tipos de IA: a real e a ficcional. A real é aquela que utiliza um grande número de softwares para resolver uma infinidade de problemas do dia-a- dia e acrescentar uma série de comodidades as rotinas humanas. A IA real tem aplicações que vão da saúde à segurança bancária; desde a detecção de fraudes ao suporte à atividade policial. Não há sentido lógico na imaginação que tais produtos se transformassem (numa incorporação malévola), em ações de robô contra a humanidade. Tal qual as engrenagens de uma solução de primeiro nível, a centralidade dos sentimentos e sensibilidades humanos não está associada a uma involuntária submissão robótica. Bentley (2018) ainda reforça que a IA está mais para salvar vidas com mecanismos atentos e ágeis do que o contrário. Para tanto desenvolve, no estudo para o Parlamento 26 Lobistas são profissionais formais em alguns países e, por essa razão, são tratadas no texto. 33 Europeu, o que chama de Três Leis da IA, de modo a justificar o caráter fantasioso dos mitos associados à IA. 2.1.2 Três leia da IA A inteligência só existe em razão de desafios. A primeira lei da IA, conforme Bentley (2018) diz que “desafio gera inteligência”. Sem a existência de problemas para serem solucionados a inteligência não surge ou se desenvolve. Segundo essa lei, para Bentley, a inteligência não seria condição, mas consequência da existência de desafios originados em problemas. E nessa lógica de condição e consequência, sem novos desafios para serem enfrentados (ou uma lógica de recompensa pelo sucesso), a IA não evoluiu. Bentley (2018, p. 7) afirma: “sem uma necessidade urgente, a inteligência é simplesmente um desperdício de tempo e esforço”27. Assim, explicando a 1a lei da IA, Bentley (2018, p. 7) afirma que: “a IA é um objetivo tremendamente difícil, exigindo condições corretas e esforço considerável.” Prossegue afirmando não haver espaço para fugas desse cenário, que permitam algum tipo de desenvolvimento autônomo fora do controle humano. Sintetiza ao afirmar que “a IA será tão inteligente quanto nós a encorajarmos (ou forçarmos) a ser, mediante nossa pressão”28. Bentley (2018) encerra seus comentários sobre a primeira lei afirmando, em convergência, não haver evidências de que uma superinteligência seria movida por algum interesse em prejudicar a humanidade, e que talvez essa suposição seja fruto da constatação que o comportamento humano é muito violento. Contudo, dentro dessa lógica fatalista, não seria tal superinteligência uma inteligência humana. O mais plausível seria, assim como a própria evolução humana demonstra, uma co-evolução, nos moldes que há a manipulação de outras tecnologias (gado, animais de estimação, culturas), no sentido de atendimento às necessidades humanas. A 2a lei da IA deriva da equivocada percepção de que a quantidade de redes neurais está submetida à lógica do quanto mais melhor. Por esta ideia, a IA com mais conexões neurais que o cérebro humano poderia ter desempenho superior. Esse é um caminho 27 No original: “Without an urgent need, intelligence is simply a waste of time and effort”. (adaptação livre nossa). (BENTLEY, 2018, p. 7) 28 No original: “The first law of AI tells us that artificial intelligence is a tremendously difficult goal, requiring exactly the right conditions and considerable effort. There will be no runaway AIs, there will be no self- developing AIs out of our control. There will be no singularities. AI will only be as intelligent as we encourage (or force) it to be, under duress. ” (BENTLEY, 2018, p. 7) (adaptação livre nossa). 34 equivocado para Bentley e a 2a lei trata justamente da inexistência da lógica da quantidade. Cada desafio impõe conexões diferentes, isto é, designs específicos. O gatilho está na organização e não na quantidade. O grande desafio para
Compartilhar