Buscar

TCC20(IA)2022.2-120(1)-2

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 26 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 26 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 26 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

26
UNIVERSIDADE ESTÁCIO DE SÁ
Curso de Direito
OS DESAFIOS DA INTELIGÊNCIA ARTIFICIAL (IA) NO ÂMBITO DA RESPONSAILIDADE CIVIL NO BRASIL
SERGIO LUIZ MACHADO FRIESS
CABO FRIO – RJ
2022.2
SERGIO LUIZ MACHADO FRIESS
OS DESAFIOS DA INTELIGÊNCIA ARTIFICIAL (IA) NO ÂMBITO DA RESPONSABILIDADE CIVIL NO BRASIL
Artigo Científico apresentado à Universidade Estácio de Sá, Curso de Direito, como requisito parcial para conclusão da disciplina Trabalho de Conclusão de Curso. Orientador(a): Profa. Manuela Chagas Manhães e Profa. Larissa Clare Pochmann da Silva .
CABO FRIO - RJ
2022.2
OS DESAFIOS DA INTELIGÊNCIA ARTIFICIAL (IA) NO ÂMBITO DA RESPONSABILIDADE CIVIL NO BRASIL
Sergio Luiz Machado Friess[footnoteRef:1] [1: Acadêmico 9° período do Curso de Graduação em Direito pela Universidade Estácio de Sá, Campus Cabo Frio – RJ. E-mail: sergiofriess63@gmail.com] 
RESUMO
O objetivo desta pesquisa é analisar como o Direito brasileiro pode ser aplicado no que diz respeito à responsabilidade civil por danos causados pelo uso de sistemas completamente autônomos de Inteligência Artificial (IA). Apesar dos benefícios trazidos pelo desenvolvimento dessa tecnologia, é importante considerar os possíveis danos que ela pode causar e como isso poderá ser regulado pelas leis brasileiras. Uma das formas de se lidar com essa questão é através do PL 5.051/2019, que propõe diretrizes e princípios para o uso dessa ferramenta nos órgãos jurisdicionais. A metodologia utilizada foi a qualitativa e descritiva, fundamentada em um levantamento bibliográfico. Como resultados, espera-se contribuir para o debate acerca da responsabilidade civil por danos causados pelo uso da inteligência artificial, bem como para o aperfeiçoamento da legislação brasileira a respeito do tema.
Palavras-chave: Tecnologia. Inteligência. Artificial. Responsabilidade. Legislação.
SUMÁRIO: Introdução; 2 Noções introdutórias sobre inteligência artificial; 3 A inteligência artificial no Poder Judiciário; 4 Decisões autônomas em IA; 5 Responsabilidade civil no ordenamento jurídico brasileiro; 6 Responsabilidade civil e inteligência artificial; 7 Medidas preventivas para redução dos riscos; Conclusão. Referências.
INTRODUÇÃO
A interação entre humanos e aparelhos inteligentes é uma realidade inescapável. Desde as primeiras teorias edificadas nos anos 1950, quando os progressos estavam restritos ao campo da pesquisa, a tecnologia atingiu mudanças muito importantes, mostrando-se como um fenômeno em ascensão em vários setores da vida humana, diante das diversas vantagens oferecidas a partir do uso da denominada inteligência artificial (IA).
A Inteligência Artificial é um sistema computacional que imita a capacidade humana de raciocinar e solucionar problemas, através da interpretação e aprendizagem de dados externos, a fim de completar funções específicas. Isso é possível pelo fato de se aplicarem técnicas de machine learning (aprendizado de máquina) e deep learning (aprendizagem profunda) ao sistema, aprimorando sua capacidade de raciocínio e processamento dos dados obtidos. Com isso, a máquina adquire capacidade para aprender com base nas suas próprias experiências.
Apesar do otimismo da comunidade científica e da sociedade quanto as diversas externalidades positivas geradas pelo emprego dessa tecnologia, uma questão precisa ser abordada: a atribuição de responsabilização civil pelos danos que venham a ser causados pelo uso de sistemas completamente autônomos. Isto é relevante porque os dispositivos mencionados possuem a habilidade de aprendizado a partir da acumulação de informações e experiências, de forma que as decisões tomadas independentemente por eles produzem um alto nível de imprevisibilidade e de danos potenciais. Nesse sentido, o objetivo geral do presente estudo é analisar como o Direito brasileiro pode ser aplicado para lidar com a responsabilidade civil em matéria de IA e os possíveis desafios sobre a questão.
A tecnologia de sistemas inteligentes e autônomos consegue aprender e tirar o resultado daquilo que lhes é ensinado e consegue abreviar caminhos, simplificar problemas das mais variadas áreas humanas e uma delas se dá no âmbito do Poder Judiciário, que, de uma forma abstrata, poderá resultar em decisões mais precisas e rápidas. No cenário brasileiro, o PL 5.051/2019 propõe estabelecer diretrizes e princípios no uso dessa ferramenta nos órgãos jurisdicionais, bem como, cuida do implemento dessa tecnologia e na adoção de medidas na sua utilização.
Para o desenvolvimento desta pesquisa, optou-se por uma metodologia qualitativa e descritiva, que foi fundamentada em um levantamento bibliográfico a fim de identificar os assuntos relevantes que sustentassem os argumentos apresentados. Esta metodologia permitiu uma análise mais aprofundada do tema, bem como a obtenção de um resultado mais preciso.
1 NOÇÕES INTRODUTÓRIAS SOBRE INTELIGÊNCIA ARTIFICIAL
Nos dias atuais, a crescente utilização das tecnologias computacionais modernas proporciona um acesso cada vez maior a diferentes graus de conhecimento, sejam novos ou não, permitindo diversas fontes e instrumentos de troca de informações. Assim, o progresso e o desenvolvimento tecnológico deram origem a muitas possibilidades, como a edificação de máquinas com grande amplitude de ações, que são capazes de executar diversas tarefas ao mesmo tempo, seja em âmbito comercial, financeiro, bélico, dentre outros.
Devido a isso, surge a acepção da criação de uma máquina autônoma através dos progressos dos estudos de Inteligência Artificial, com o objetivo não só de recompor a capacidade de processamento mental do ser humano, como ainda de ter uma inteligência capaz de aprender com suas próprias experiências. Nessa toada, é plausível imaginar que, em um momento específico, as máquinas sejam capazes de nivelar suas ações às dos humanos, sobretudo, assumindo suas particularidades.[footnoteRef:2] [2: SANCTIS, Fausto Martin de. Inteligência Artificial e Direito. São Paulo: Almedina, 2020. p. 26.] 
Desta feita, atualmente é possível ter contato com várias pesquisas e experiências que têm como objetivo a aplicação da teoria e da prática da Inteligência Artificial. Hawking, aduz em sua obra sobre a evolução dos sistemas computacionais, afirmando que:
Os computadores obedecem ao que é conhecido como lei de Moore: a velocidade e a complexidade deles duplicam a cada dezoito meses. É um desses crescimentos exponenciais que claramente não podem continuar de maneira indefinida. Porém, ele continuará até os computadores terem uma complexidade semelhante à do cérebro humano.[footnoteRef:3] [3: HAWKING, Stephen. O universo numa casca de noz. São Paulo: Ed. Intrínseca, 2016. p. 175.] 
Ainda conforme o autor supracitado, há quem diga que eles nunca serão capazes de demonstrar inteligência genuína dos seres humanos. Mas para ele, parece que, bem como moléculas químicas muito complexas podem funcionar nos indivíduos para torná-los inteligentes, circuitos eletrônicos igualmente complexos podem fazer com que os computadores hajam de maneira inteligente. E, se forem inteligentes, é possível presumir que serão aptos a projetar outros computadores investidos de complexidade e inteligência ainda maiores.[footnoteRef:4] [4: Ibidem. p. 176.] 
Dado essa premissa, nota-se que o começo das pesquisas ligadas à Inteligência Artificial está intimamente relacionado com a evolução dos meios tecnológicos computacionais. Nesse cenário, James Bernal (1969), considerado como um dos inovadores dos estudos ligados à tecnologia aplicada à robótica, no ano de 1929, questionou qual seria a correlação entre o homem e a máquina, desse modo, “o homem normal é um ponto final da evolução; o homem mecânico, à primeira vista, uma ruptura na evolução orgânica; realmente é um salto no sentido de uma evolução adicional, capaz de instaurar uma verdadeira tradição”.[footnoteRef:5] [5: LÓSSIO, Claudio Joel Brito. Manual Descomplicado de Direito Digital: guia para profissionais do direitoe da tecnologia. Salvador: Editora Juspodivm, 2020. p. 60. ] 
A guerra e o pós-guerra tiveram grande reflexo nas pesquisas de Inteligência Artificial; desse modo, durante a Segunda Guerra (1939-1945), vários cientistas e estudiosos, sobretudo norte-americanos, como Alan Turing e Vannevar Bush, promoveram notáveis esforços e pesquisas com objetivo de desenvolver sistemas de análise computacional, alguns com a finalidade de decifrar códigos de espionagem que foram interceptados.[footnoteRef:6] [6: Ibidem. p. 55.] 
Nesse sentido, logo após a Segunda Guerra Mundial diversos estudos foram conduzidos a respeito da possibilidade de um cérebro artificial ser criado para fins de armazenamento e processamento de inteligência semelhante à humana. O cientista Vannevar Bush (1945), em um ensaio intitulado "As we may think" (Como poderemos pensar), debateu acerca da aplicação e elaboração de "máquinas pensantes":
Há uma enorme quantidade de pesquisas em andamento. Mas parece que estamos ficando atrasados nessa corrida. O pesquisador é inundado pelos resultados e conclusões de milhares de outros colegas, conclusões que ele não consegue arranjar tempo para dominar, muito menos para lembrar, assim que elas surgem. Dado que a especialização se torna cada vez mais necessária para o progresso, os esforços para construir uma ponte entre as disciplinas são tão insuficientes. Profissionalmente, os nossos métodos de transmissão e revisão dos resultados das pesquisas estão ultrapassados há gerações e são totalmente inadequados para o seu propósito.[footnoteRef:7] [7: BUSH, V. As we may think. Disponível em: <www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/>. Acesso em: 15 set. 2022.] 
Ocorre que, ao longo dos anos, diversas informações foram criadas através de estudos e pesquisas sobre esse tema. Sendo assim, hodiernamente é demonstrada a possibilidade de organização dessas informações para que se opere comandos físicos em máquinas, viabilizando também o seu aprendizado e, consequentemente, a geração de agentes inteligentes, aptos para a compreensão do seu ambiente e para tomar decisões fundadas na conclusão de uma ação anteriormente escolhida, de forma a aumentar as suas chances de êxito.
A atitude de elevar conceitos para as coisas ainda não compreendidas, em geral, costuma causar mais danos que benesses. Outrossim, somente na lógica e na matemática as definições são capazes de conter por completo conceitos exatos. As questões com as quais lidamos no cotidiano são, muitas vezes, tão complexas que não permitem uma representação mais objetiva. Não obstante, não é possível negar a procura de uma definição para as coisas, no sentido de compreender o que de fato elas são.
Sendo assim, é possível sustentar que a inteligência artificial é, essencialmente, uma base de dados contendo o conhecimento humano, comumente com alguma predeterminação específica, bem como denominações, condições, como, por exemplo, uma base jurídica. Ademais, ao procurar referências da aplicação da IA no âmbito jurídico, é possível efetuar um paralelo com a tecnologia quando Reale, apud Lóssio diz respeito a um “autômato com uma base de dados jurídica norteado a resolução de lides”, sendo factível a suposição de que o autor estaria se referindo à IA.[footnoteRef:8] [8: LÓSSIO, Claudio Joel Brito. Manual Descomplicado de Direito Digital: guia para profissionais do direito e da tecnologia. Salvador: Editora Juspodivm, 2020. p. 64.] 
A Inteligência Artificial pode ser dividida de acordo com sua tipologia e forma de aprendizado, podendo ser classificada em duas formas, segundo Medon, quais sejam, a forte e a fraca. Nesse panorama, a IA fraca está ligada à edificação de sistemas que, a seu modo, são "inteligentes", contudo, não são dotados de autonomia, assim, não são capazes de promover um raciocínio ou tomar decisões sozinhos, o que ocorre, por exemplo, com chatbots.[footnoteRef:9] [9: MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. Salvador: Editora Juspodivm, 2020. p. 102.] 
Sendo assim, não há nem compreensão nem vontade, uma vez que a máquina utiliza a entrada do conhecimento disponibilizada por um ser humano. Por outro lado, todavia, há a inteligência artificial forte, que é capaz de tomar decisões por si mesma, relativa à consciência e ao poder de pensamento, podendo, inclusive, delinear novas finalidades independentemente, sendo inclusas situações de incerteza ou vaguidade, como é o caso de não somente ser capaz de organizar palavras e sons, mas também de dissertar uma poesia e/ou compor uma canção.[footnoteRef:10] [10: Ibidem. p. 103.] 
Portanto, ainda que o uso da IA não seja tão recente no âmbito global, suas balizas de utilização e a sua capacidade ainda não são completamente conhecidas, surgindo uma nova questão no cerne do Direito quanto à responsabilidade civil do ente dotado de IA, uma vez que cabe a ele a tarefa de organizar a sociedade, mas não apenas isso, de se amoldar a ela e aos novos costumes sociais.
2 A INTELIGÊNCIA ARTIFICIAL NO PODER JUDICIÁRIO
No campo jurídico não é diferente existem diversas formas de se aplicar a IA ao Direito, sendo que isso é facilitado pelo fato de que algumas tarefas dos profissionais da área são parcialmente automatizáveis. Hodiernamente, pode-se citar alguns usos relevantes, tais como: a) geração de modelos preditivos que, através do aprendizado com eventos passados, podem prever decisões judiciais e possíveis resultados da ação; b) automação, classificação e gestão de documentos, sendo a situação na qual o algoritmo de machine learning constata documentos em uma categoria e os agrupa em determinadas classes; c) gestão de escritórios e departamentos jurídicos; d) resolução de conflitos online e geração de bots (robôs capazes de simular o comportamento humano e ter interações com os indivíduos, por exemplo, respondendo a indagações) e e) automação de contratos e peças.[footnoteRef:11] [11: MAGRANI, E. Entre dados e robôs: ética e privacidade na era da hiperconectividade. Porto Alegre: Arquipélago Editorial, 2019. p. 143.] 
Apesar de existirem vários métodos contemporâneos de aplicação, muitas controvérsias surgem quando se decide usar a IA no Direito. De um lado, pode-se mencionar diversos benefícios, como, por exemplo, a criação de um grande banco de dados para algoritmos que podem diagnosticar vários problemas e contribuir para a melhoria da administração da justiça; o tratamento igualitário em relação ao tempo das demandas que chegam ao Poder Judiciário; o aperfeiçoamento na gestão de processos e diminuição de gastos financeiros e temporais, a melhoria na administração de escritórios, a diminuição de casos judicializado, dentre muitos outros. Além disso, nota-se inúmeras críticas que podem ser realizadas a respeito dos grandes riscos que a programação pode acarretar, como a formação do elevado risco edificado com a utilização de dados e com a previsão de julgados.[footnoteRef:12] [12: MAIA FILHO, Mamede Said; JUNQUILHO, Tainá Aguiar. Projeto Victor: perspectivas de aplicação da inteligência artificial ao direito. Revista de Direitos e Garantias Fundamentais, v. 19, n. 3, 2018. p. 235.] 
Apesar dessa apreensão, já é possível mencionar exemplificações de aplicação da Inteligência Artificial ao Direito brasileiro e mundial. A criação do Ross, foi uma das iniciativas pioneiras construídas utilizando-se do sistema Watson pela IBM. Vale ressaltar, assim, que o Ross é um robô que efetua buscas jurisprudenciais e demonstra respostas aos conflitos jurídicos que lhe são dispostos, o que já acarretou a substituição de muitos advogados em escritórios dos Estados Unidos da América (EUA).[footnoteRef:13] [13: GIUFFRIDA, Iria; LEDERER, Fredric; VERMEYS, Nicolas. A legal perspective on the trials and tribulations of AI: how artificial intelligence, the internet of things, smart contracts, and other technologies will affect the law. Case Western Reserve Law Review, v. 68, n. 3, 2018. p. 749.] 
No contexto brasileiro, o PoderJudiciário tem criado consideráveis investimentos em programas que usam IA como um mecanismo que de certo modo contribua na gestão processual e aumente a eficiência da prestação jurisdicional. É possível destacar, como exemplo, o Projeto Victor, elevado no Supremo Tribunal Federal (STF); o Projeto Sócrates do Superior Tribunal de Justiça (STJ); o mecanismo RADAR edificado no Tribunal de Justiça de Minas Gerais (TJMG); a articulação do Tribunal de Justiça de São Paulo (TJSP) para iniciativa de um projeto em IA. Vale aferir que, no âmbito da iniciativa privada, o país também tem mais de cem lawtechs e legaltechs que oferecem diversos serviços jurídicos.[footnoteRef:14] [14: A Associação Brasileira de Lawtechs e Legaltechs produz um “radar” que apresenta algumas dessas iniciativas privadas. Disponível em: www.ab2l.org.br. Acesso em: 19 set. 2022.] 
Nos Estados Unidos, o Estado de Wisconsin faz uso do controvertido instrumento algorítmico chamado COMPAS, que sugere aos magistrados como determinar a pena e o regime prisional para o réu, sem, contudo, justificar os motivos pelos quais essas sugestões são apresentadas. A cautela determina o cuidado com o controle da IA e com a desenvoltura de princípios éticos que respondam aos desafios de humanização criados pelas tecnologias denominadas inteligentes. Esse tema tem surgido no mundo e gerou uma seara de estudo específica chamada Explainable, ou seja, estudos que investigam e têm como objetivo evoluir na explicação das decisões tomadas pela IA.[footnoteRef:15] [15: CERVANTES, J. A. et al. Artificial Moral Agents: A Survey of the Current Status. Springer Netherlands, 2019. p. 22.] 
Em um contexto recente, o Brasil tem mostrado preocupação com a temática da responsabilidade no uso da inteligência artificial (IA) no Poder Judiciário. Por isso, em agosto de 2020, foram publicadas duas resoluções pelo Conselho Nacional de Justiça (CNJ), ambas com muita importância para a conjuntura de aplicação da IA ao Poder Judiciário brasileiro e, no mês posterior foi publicada a Recomendação 74/2020.[footnoteRef:16] [16: BRASIL. Conselho Nacional de Justiça. Recomendação nº 74, de 21 de setembro de 2020. Recomenda medidas para implementação de política de dados abertos no âmbito do Poder Judiciário. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3487#:~:text=1%C2%BA%20Esta%20Recomenda%C3%A7%C3%A3o%20estabelece%20diretrizes,exce%C3%A7%C3%A3o%20do%20Supremo%20Tribunal%20Federal. Acesso em: 19 set. 2022.] 
A primeira é a Resolução 331/2020[footnoteRef:17], a qual determinou que a Base Nacional de Dados do Poder Judiciário - DataJud seja a fonte primária de dados do Sistema de Estatística do Poder Judiciário (SIESPJ) para os tribunais apresentados nos incisos II a VII do art. 92 da CF/88[footnoteRef:18] (ou seja, o Superior Tribunal de Justiça (STJ), o Tribunal Superior do Trabalho (TST), os Tribunais Regionais Federais e a Justiça Federal, os Tribunais e a Justiça do Trabalho, os Tribunais e a Justiça Eleitoral, os Tribunais e a Justiça Militar, os Tribunais e a Justiça dos Estados e do Distrito Federal e Territórios). [17: BRASIL. Resolução nº 331, de 20 de agosto de 2020. Institui a Base Nacional de Dados do Poder Judiciário – DataJud como fonte primária de dados do Sistema de Estatística do Poder Judiciário – SIESPJ para os tribunais indicados nos incisos II a VII do art. 92 da Constituição Federal. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3428. Acesso em: 19 set. 2022. ] [18: BRASIL. Constituição da República Federativa do Brasil de 1988. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicaocompilado.htm. Acesso em: 19 set. 2022. ] 
Tal medida é imprescindível para desenvolver projetos tecnológicos que usam dados do Poder Judiciário e apresenta conceitos relevantes para aqueles que lidam com essas informações. A segunda normativa trata-se da Resolução 332/2020[footnoteRef:19], que prescreveu quatorze considerandos e 31 artigos sobre a ética aferida aos projetos de Inteligência Artificial realizados no Poder Judiciário, além de dispor princípios fundamentais que orientam a criação de IA. [19: BRASIL. Resolução nº 332, de 21 de agosto de 2020. Dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário e dá outras providências. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 20 set. 2022.] 
Portanto, com uma nítida inspiração expressa na Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seu ambiente, aderida pela CEPEJ (Comissão Europeia pela Eficiência da Justiça) em 2018, regula, assim, a utilização da IA em diversos aspectos, como, por exemplo, em matéria penal, a qual, segundo a resolução citada, não deve ter seu uso incentivado (art. 23). Assim, também trata de temáticas como as sentenças judiciais sustentadas por Inteligência Artificial no Poder Judiciário, predeterminando que devem ser mantidas a igualdade, a não discriminação, a pluralidade e a solidariedade e que quando identificadas imperfeições no modelo, essas sejam imediatamente suprimidas ou se tal remoção não for possível, que a execução do projeto seja interrompida (art. 7º).[footnoteRef:20] [20: Ibidem.] 
3 DECISÕES AUTÔNOMAS EM IA
Uma parcela considerável da vida social é cada dia mais afetada por determinações que não são tomadas diretamente por seres humanos. Neste sentido, sistemas que dispensam processos decisórios para a inteligência artificial podem ser usados em uma infinidade de aplicações, desde as mais básicas, como os presentes nos ODRs (resoluções de conflitos online), que permitem a troca de decisões humanas em processos de mediação de controvérsias, até as mais elaboradas, como nas ferramentas usadas em veículos autônomos, nos quais não é necessária a condução humana.
A autonomia tem sido questão de interesse filosófico por centenas de anos. O filósofo Kant[footnoteRef:21] a conceituou como sendo uma ação moral determinada pelo livre arbítrio do indivíduo. De modo mais genérico, pode ser definida como a capacidade de uma pessoa racional de tomar decisões baseadas nas informações que possui. Quando aplicada a IA, ocasiona que o sistema inteligente deve atuar de forma isolada, sem que seja preciso a entrada contínua de dados por um humano. [21: KANT, Immanuel. Crítica da razão prática. São Paulo: Martin Claret, 2003. p. 101.] 
Um sistema autônomo opera através do triângulo sentir-pensar-agir, ele recebe feedbacks do seu entorno por meio de sensores, processa os dados por softwares e, com base em seu exame, realiza uma ação autônoma, sem intervenção externa, por um grande lapso de tempo. Dessa forma, a autonomia de um sistema de Inteligência Artificial se caracteriza basicamente pela capacidade de age, de forma total ou parcial, sem haver interferência humana direta.[footnoteRef:22] [22: MULHOLLAND, Caitlin. Responsabilidade Civil e Processos Decisórios Autônomos em Sistemas de Inteligência Artificial (IA): Autonomia, Imputabilidade e Responsabilidade. Inteligência Artificial e Direito: Ética, Regulação e Responsabilidade. Revista dos Tribunais. 2ª Tiragem. 2019. p. 27.] 
A autonomia de um sistema está situada numa escala constante de “não autônoma” a “completamente autônoma”, conforme o nível de envolvimento humano no processo. Em consonância, alguns estudos apresentam uma análise taxonômica do nível de autonomia de sistemas, dividindo-os desde os mais simplificados, que fornecem assistência à decisão humana ou assistência remota; até aquele com maior autonomia, que ainda é algo desejado, observado em operações totalmente autônomas, nas quais nenhuma interação humana é preciso.[footnoteRef:23] [23: Ibidem. p. 28.] 
Consequentemente, como a elevação da autonomia, as máquinas deixam de ser apenas instrumentos auxiliares para o homem e se transformarem em sistemas com capacidades para agir sem as instruções humanas diretas, a partir de dados que são coletados e analisados pela própria máquina, o que pode levar adecisões que em muitas situações não poderão ser antecipadas por seu desenvolvedor.
Dessa forma, a atuação diversa de sistemas inteligentes pode acarretar danos a terceiros, que muitas vezes não poderão ser atribuídos diretamente à ação humana. Esse é o ponto mais diferenciado entre os sistemas de diversos níveis de autonomia: em sistemas semi-autônomos, o homem mantém a capacidade de tomar decisões em relação ao uso da IA e pode identificar erros humanos no processo, enquanto, em sistemas completamente autônomos, todos os processos decisórios são delegados à máquina, tornando mais complexa a atribuição de culpa pelos danos potencialmente causados.[footnoteRef:24] [24: TEPEDINO, Gustavo; SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de responsabilidade civil. Revista Brasileira de Direito Civil – RBDCivil, Belo Horizonte, v. 21, 2019. p. 65.] 
Portanto, tendo em vista que a inteligência artificial liga a tecnologia de aprendizagem de máquina à capacidade de conseguir dados do ambiente em que está incluída, sem a interferência humana no processo, as decisões completamente autônomas tomadas por ela levam à falta de previsibilidade dos resultados. Isto conduziria, a princípio, à conclusão de que os danos causados por ela impediriam a adequada responsabilização do agente. Por tal razão, é necessário um exame mais aprofundado no tocante à questão da responsabilidade por atos de sistemas totalmente autônomos, que é exatamente o objeto deste estudo.
4 RESPONSABILIDADE CIVIL NO ORDENAMENTO JURÍDICO BRASILEIRO
Em relação à definição de responsabilidade civil, pode-se aferir que ela nada mais é senão o reflexo jurídico oriundo do descumprimento de uma obrigação. De toda forma, cumpre evidenciar que obrigação e responsabilidade, apesar de estarem interligadas, detêm sua existência independente, isto é, pode existir responsabilidade sem obrigação e vice-versa.[footnoteRef:25] [25: GAGLIANO, Pablo Stolze; PAMPLONA FILHO, Rodolfo. Novo curso de direito civil: responsabilidade civil. V. 3. 17 ed. rev. ampl. e atual. São Paulo: Saraiva Educação, 2019. p. 56.] 
Nesse sentido, o instituto da responsabilidade civil alcançou uma nítida relevância no Direito moderno. Atualmente, seu âmbito é um dos mais amplos, sendo estendido ao Direito Público e Privado, contratual e extracontratual. Continuamente, seus domínios são acrescidos com o transcorrer da atividade humana, suas descobertas e conquistas. A importância do tema é tanta que inúmeros princípios desde instituto alcançaram a categoria de norma constitucional com a promulgação da CF/88. 
Para tanto, em conformidade ao entendimento de Diniz, a responsabilidade civil se define como sendo a aferição das medidas que submetam um indivíduo a reparar o dano moral ou patrimonial gerado a terceiro em virtude e ato por ele mesmo realizado, “por pessoa por quem ela responde, por alguma coisa a ela pertencente ou de pura imposição legal.”[footnoteRef:26] [26: DINIZ, Maria Helena Diniz. Curso de Direito Civil Brasileiro: Responsabilidade Civil. 32 Ed. Vol. 7. São Paulo: Saraiva, 2018. p. 34.] 
A responsabilidade civil ainda pode ser classificada em objetiva e subjetiva. Na subjetiva, encontra-se sempre presente o fundamento da culpa ou dolo. Assim, para sua identificação devem existir simultaneamente os seguintes pressupostos: conduta, nexo causal, culpa e dano. Por seu turno, na responsabilidade objetiva, no entendimento de Gagliano e Pamplona Filho “desconsidera-se o elemento culpa, as teorias objetivistas da responsabilidade civil procuram encará-la como mera questão de reparação de danos, fundada diretamente no risco da atividade realizada pelo agente.”[footnoteRef:27] [27: GAGLIANO, Pablo Stolze; PAMPLONA FILHO, Rodolfo. Novo curso de direito civil: responsabilidade civil. V. 3. 17 ed. rev. ampl. e atual. São Paulo: Saraiva Educação, 2019. p. 58.] 
Dessa forma, os estudos de Gagliano e Pamplona Filho revelam que a responsabilidade, no cerne do Direito, diz respeito a uma obrigação derivada, ou seja, “um dever jurídico sucessivo, de arcar com os efeitos jurídicos de um fato, efeito estes que podem variar (reparação dos danos e/ou punição pessoal do agente lesionante) em consonância com os interesses prejudicados.”[footnoteRef:28] [28: Ibidem. p. 51.] 
Assim, a responsabilidade civil se consiste em uma consequência da própria evolução jurídica. A acepção de responsabilidade encontra-se ligada à de não prejudicar o outro, podendo ser conceituada como a aplicação de medidas que obriguem um indivíduo a reparar o dano ocasionado em virtude de sua ação ou omissão. No que tange aos pressupostos da responsabilidade civil, de acordo com lições de Gonçalves, verifica-se que “a análise do artigo 186 do CC/2002 evidencia que quatro são os elementos essenciais da responsabilidade civil: ação ou omissão, culpa ou dolo do agente, relação de causalidade e o dano experimentado pela vítima.”[footnoteRef:29] [29: GONÇALVES, Carlos Roberto. Direito Civil Brasileiro: Responsabilidade Civil - Vol. 4. 14ª Ed. São Paulo: Saraiva. 2019. p. 122.] 
Destarte, ao analisar detalhadamente a referida norma, excepciona-se que os pressupostos acima mencionados são apenas imprescindíveis à elaboração da teoria da responsabilidade civil subjetiva. Por seu turno, sabe-se que a responsabilidade civil objetiva se condiciona ao elemento culpa e, desta forma, ela não poderia ser elevada a pressuposto geral desse ramo jurídico, já que lhe falta univocidade conceitual.[footnoteRef:30] [30: CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 11. ed. São Paulo: Atlas, 2014. p. 19.] 
Com efeito, sem dano inexiste responsabilidade, visto que para que esta se configure é imprescindível a existência de uma ação ou omissão juridicamente qualificada, vale salientar, que a prática de um ato ilícito (responsabilidade subjetiva), em que se verificará a existência de dolo ou culpa, ou um ato lícito (responsabilidade objetiva) não se examinará o elemento culpa, diante do risco da atividade. Esse é o primeiro pressuposto.
Com base nos estudos de Farias et. al., a culpa consiste em um elemento nuclear do instituto da responsabilidade civil, “ocupando uma posição essencial na etiologia do ilícito, uma vez que quando a ele fazemos referência, sempre estarão envolvidos os modelos da culpa e do dolo.”[footnoteRef:31] [31: FARIAS, Cristiano Chaves de; ROSENVALD, Nelson; BRAGA NETTO, Felipe Peixoto. Curso de Direito Civil: responsabilidade civil. São Paulo: Atlas. 2015. p. 158.] 
Destarte, inexistirá responsabilidade civil na falta de dano (segundo pressuposto), o que significa dizer que a prevenção de danos não compõe o rol dos pressupostos da responsabilidade civil, tampouco a ameaça a direitos, apesar de integrarem a noção do princípio neminem laedere. Assim sendo, o segundo pressuposto é a existência de um dano.
A respeito desse pressuposto, Venosa preleciona que:
Dano consiste no prejuízo sofrido pelo agente. Pode ser individual ou coletivo, moral ou material, ou melhor, econômico e não econômico. A noção de dano sempre foi objeto de muita controvérsia. Na noção de dano está sempre presente a noção de prejuízo. Nem sempre a transgressão de uma norma ocasiona dano. Somente haverá possibilidade de indenização, como regra, se o ato ilícito ocasionar dano.[footnoteRef:32] [32: VENOSA, Sílvio de Salvo. Direito civil: obrigações e responsabilidade civil. 17 ed. São Paulo: Atlas, 2017. p. 403.] 
O dano que interessa para fins de responsabilização civil é o dano indenizável, que se traduz em redução de patrimônio e prejuízo, de maneira que não existe diferença entre dano contratual e extracontratual, distinguindo-se apenas o dano patrimonial e moral. 
De acordo com Cavalieri Filho a obrigação de indenizar só acontece quando o ato ilícito de outrem causar danos, prejuízos à vítima, sendo o dano o epicentro da responsabilidade civil. No entanto, ressalta-se que o dano deve ser efetivo, ou seja, lesivo ao patrimônio moral ou econômico.[footnoteRef:33] [33: CAVALIERI FILHO, Sergio.Programa de Responsabilidade Civil. 11. ed. São Paulo: Atlas, 2014. p. 22.] 
O terceiro pressuposto da responsabilidade civil é o nexo de causalidade, isto é, para que exista o dever de reparar um eventual dano é preciso que este seja resultante da ação ou omissão do agente, exercendo a função de conectar os dois elementos anteriores, ato ilícito e dano, perfazendo a tríade que consolida o múnus indenizatório. Em resumo, o dano apenas acarreta responsabilização quando for viável consolidar nexo causal entre ele e o agente que praticou a conduta.[footnoteRef:34] [34: GONÇALVES, Carlos Roberto. Direito Civil Brasileiro: Responsabilidade Civil - Vol. 4. 14ª Ed. São Paulo: Saraiva. 2019. p. 125.] 
Nesta senda, Wald e Giancoli ensinam que:
O conceito de nexo causal não é jurídico; decorre das leis naturais. É um vínculo, da causa e seu efeito, relacionando a conduta com o seu resultado, diretamente ou como sua consequência previsível. Todavia, não será necessário que o dano resulte apenas imediatamente do fato ou ato que o produziu. Bastará que se verifique que o dano não ocorreria se o fato ou o ato não tivesse acontecido. [...] Assim, a relação causal pode ser vista como um processo equacionado num determinado espaço-tempo que une um comportamento a um evento atribuindo responsabilidade. Em suma, o nexo causal é um elemento de ligação entre uma conduta ou uma situação determinada, e o resultado, através do qual é possível concluir quem é o indivíduo responsável pelo dano, ou seja, aquele do qual se imputa o dever de indenizar.[footnoteRef:35] [35: WALD, A., GIANCOLI, B. P., Cavalcanti, A. E. L. W., & Paesani, L. M. Responsabilidade civil. Editora Saraiva. 2015. p. 58.] 
Nesse contexto, a responsabilização somente será possível se estabelecer um nexo causal entre o agente causador do dano e a vítima, motivo pela qual o artigo 186 do CC exige o verbo “causar”. O Código Civil adota a teoria dos danos diretos e imediatos, nos termos do artigo 403 do Código Civil, uma vez que o agente responderá apenas pelos danos que resultam diretamente e imediatamente, desde que haja uma relação de causa e efeito.[footnoteRef:36] [36: BRASIL. Código Civil brasileiro. Lei n° 10.406, de 10 de janeiro de 2002. Disponivel em: <http://www.planalto.gov.br/ccivil_03/LEIS/2002/L10406.htm>. Acesso em: 18 set. 2022.] 
Portanto, em linhas gerais, o nexo de causalidade é o elo de ligação entre a conduta do agente e o dano sofrido pela vítima. Conforme anteriormente explanado, a responsabilidade exige que a conduta do indivíduo tenha sido o motivo do dano.
5 RESPONSABILIDADE CIVIL E INTELIGÊNCIA ARTIFICIAL
Acerca dos critérios de atribuição de responsabilidade civil por danos que possam surgir, quem será atribuído o dever de reparar? Na legislação civil do Brasil, é levado em conta o critério da previsibilidade, isto é, só é devida a responsabilidade se existir uma margem de previsão do surgimento de dano. Como já estabelecido por Pires e Silva, “para comprovar o dano causado por uma IA é necessária a constatação de seu funcionamento lesivo, bem como a existência de uma relação causal entre o dano e a parte lesada”.[footnoteRef:37] [37: PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade Civil Pelos Atos Autônomos da Inteligência Artificial: Notas Iniciais Sobre a Resolução do Parlamento Europeu. Revista Brasileira de Políticas Públicas, Brasília, v. 7, n. 3, 2017. p. 251.] 
Há três figuras jurídicas elevadas no emprego da IA: Designer, programador e operador. Tanto o criador, quanto o programador, seriam responsabilizados civilmente apenas em caso de dolo ou de falha na programação (mais margem de previsibilidade). Para Pires e Silva, a inteligência artificial é um sistema de autoaprendizagem, logo, pode ser impossível identificar a tênue linha entre os danos causados pelo processo de autoaprendizagem da IA e o defeito que já existia no produto.[footnoteRef:38] [38: CHAVES, Natália Cristina. Inteligência Artificial: Os Novos Rumos da Responsabilidade Civil, Braga, 2017. Anais. Florianópolis: Conselho Nacional de Pesquisa e Pós-Graduação em Direito Florianópolis, 2017. p. 54] 
Assim, entra-se num debate em que, por um lado, defende-se o reconhecimento da personalidade jurídica do robô, uma vez que este é consciente e autônomo, capaz de assumir os danos causados pelas suas ações e omissões; por outro lado, há aqueles que discordam, sustentando como principal fundamento que robôs não são pessoas.
Os pedidos a favor do reconhecimento da personalidade das inteligências artificiais advêm muito da resolução 2015/2103 Legislative initiative procedure (INL) – editada pelo Parlamento Europeu, fevereiro de 2017, na qual se determinam balizas éticas e recomendações no uso dessa tecnologia, procurando, também, dirimir o debate sobre a responsabilidade em sua utilização.[footnoteRef:39] [39: Disponível em: www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html. Acesso em: 22 set. 2022.] 
Existem expectativas de que a inteligência artificial pode ultrapassar a capacidade intelectual humana. Sendo assim, a corrente que defende a responsabilidade objetiva é a majoritária. Nesse sentido, ela dispõe a edificação de um estatuto próprio e que a inteligência artificial tenha conhecimento deste, autonomamente, para ter consciência dos seus atos e poder se responsabilizar por eles.[footnoteRef:40] [40: PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade Civil Pelos Atos Autônomos da Inteligência Artificial: Notas Iniciais Sobre a Resolução do Parlamento Europeu. Revista Brasileira de Políticas Públicas, Brasília, v. 7, n. 3, 2017. p. 252.] 
É importante notar que a resolução mencionada defende a responsabilização do robô, quando não puder ser aferida a um interventor humano específico, e as ações ou omissões puderem ser evitadas. Nos termos desta, a atribuição de personalidade poderia funcionar de maneira similar às fundações, empresas privadas e associações, no que diz respeito ao isolamento de um patrimônio. Nesse sentido, seria criado um fundo financeiro e registro da IA, de modo que qualquer dano eventualmente ocasionado seja reparado ou compensado através da reserva patrimonial daquele robô.[footnoteRef:41] [41: DONEDA, Danilo Cesar Maganhoto; MENDES, Laura Schertel; SOUZA, Carlos Affonso Pereira de; ANDRADE, Norberto Nuno Gomes de. Considerações Iniciais Sobre Inteligência Artificial, Ética e Autonomia Pessoal. Pensar: Revista de Ciências Jurídicas, Fortaleza, v. 23, n. 4, dez. 2018. p. 15.] 
O fundamento para esse entendimento é o de que a atividade é altamente arriscada, ao mesmo tempo em que beneficia a sociedade e, especialmente, a própria empresa que a promove, mas também oferece grande possibilidade de causar danos. Devido a isso, a discussão em torno da atribuição de personalidade ou da falta dela é mais relacionado a questões patrimoniais do que à consciência e autonomia da inteligência artificial.[footnoteRef:42] [42: Ibidem. p. 17.] 
Determina-se que os argumentos em benefício do reconhecimento da personalidade não têm como objetivo considerar as IA's como indivíduos. Ou seja, traz uma significância de substituição por meio do qual as pessoas trocam uma atuação humana por uma atuação de máquina, porém sempre para funções bem determinadas. 
Segundo Tepedino e Silva, em termos da exclusão de responsabilidade do criador e do programador, existem embasamentos que se fundam no denominado "risco do desenvolvimento", sendo uma expressão que procura aludir à possibilidade de que o progresso científico traga novas e mais seguras tecnologias que antes não poderiam ser conhecidas pelo agente, o que fundamentaria a exclusão de sua responsabilidade por eventuais danos.[footnoteRef:43] [43: TEPEDINO, Gustavo; SILVA, Rodrigo da Guia. Inteligência Artificial e Elementos da Responsabilidade Civil. Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019. p. 311.] 
Além disso, eleva-se uma contra-argumentação que se desenvolve com ênfase na crítica quea aferição da personalidade jurídica em nada acrescenta ao objetivo principal da resolução, que é prevenir riscos e compensar possíveis vítimas. Também, é importante citar a ideia de responsabilização do Direito Romano, que não considerava os escravos como pessoas, mas sim como um status de coisa, assim, quando eles causavam danos, o dono ou proprietário era o responsável pela reparação, sendo perfeitamente possível que algo edificado pelo homem não seja equiparado à personalidade, por ser uma coisa.[footnoteRef:44] [44: PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade Civil Pelos Atos Autônomos da Inteligência Artificial: Notas Iniciais Sobre a Resolução do Parlamento Europeu. Revista Brasileira de Políticas Públicas, Brasília, v. 7, n. 3, 2017. p. 247.] 
As leis brasileiras vigentes somente alcançam as IA's que não possuam autonomia para fazer ações não programadas. A elaboração de uma Lex Robótica nacional não deve excluir o ordenamento jurídico nacional em sua unidade, isto é, deve seguir e respeitar as normas adequadas sobre responsabilidade civil. Porquanto, elas, apesar de estarem desatualizadas nessa matéria, determinam balizas precisas e diretrizes para a elaboração desse tipo de norma.[footnoteRef:45] [45: CHAVES, Natália Cristina. Inteligência Artificial: Os Novos Rumos da Responsabilidade Civil. In: ENCONTRO INTERNACIONAL DO CONPEDI/BRAGA, 7, Braga, 2017. Anais. Florianópolis: Conselho Nacional de Pesquisa e Pós-Graduação em Direito Florianópolis, 2017. p. 55.] 
Dessa forma, a seara jurídica tem o complexo papel de impedir que o dano provocado por essas tecnologias permaneça sem compensação, e que a regulamentação não prejudique o progresso tecnológico, científico e de inovação. Assim, deve-se mudar a Teoria Geral da Responsabilidade Civil nessa questão, para passar a considerar não a previsibilidade, mas sim a causalidade e imputabilidade.[footnoteRef:46] [46: TEPEDINO, Gustavo; SILVA, Rodrigo da Guia. Inteligência Artificial e Elementos da Responsabilidade Civil. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (Orgs.). Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019. p. 304.] 
Portanto, em uma proposta legislativa, o senador Styvenson Valentim (PODEMOS/RN) apresentou em setembro de 2019 o Projeto de Lei nº 5.051/19[footnoteRef:47], que dispõe os princípios para a utilização da Inteligência Artificial no Brasil. No artigo 4º, no § 2º, fica explicitado que a responsabilidade civil por danos decorrentes da utilização de sistemas de Inteligência Artificial será de seu supervisor. Assim, propõe a não responsabilização, nem do criador e nem do programador, mas do Estado, por ser o operador de tal tecnologia. [47: BRASIL. Projeto de Lei nº 5051/2019. Estabelece os princípios para o uso da Inteligência Artificial no Brasil. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/138790. Acesso em: 22 set. 2022.] 
6 MEDIDAS PREVENTIVAS PARA REDUÇÃO DE RISCOS
Sem a finalidade de exaurir o debate sobre as medidas de prevenção pelos possíveis danos que as decisões judiciais com suporte da IA ocasionem, é possível ser aferidas formas preventivas. Como observou Sperandio, se o custo de elevar a precaução for menor que o custo de reparar eventuais danos, então a norma que obrigue a uma maior precaução estará sendo economicamente viável e efetiva.[footnoteRef:48] [48: SPERANDIO, Henrique Raimundo do Carmo. Desafios da inteligência artificial para a profissão jurídica. Dissertação de Mestrado – Curso de Direito, Escola de Direito de São Paulo da Fundação Getúlio Vargas, São Paulo, 2018. p. 46.] 
Existem métodos que devem ser seguidos para que o uso da inteligência artificial como um recurso para a tomada de decisões judiciais seja, pelo menos, seguro. O termo accountability é muito discutido quanto ao seu significado em português, no presente estudo, utilizar-se-á o significado de prestar contas. No entanto, Gutierrez apresenta um conceito mais preciso do que significa esse termo, que inclui práticas que se referem à responsabilidade ética, à obrigação, à transparência e à prestação de contas.[footnoteRef:49] [49: GUTIERREZ, Andriei. É Possível Confiar Em Um Sistema de Inteligência Artificial? Práticas Em Torno da Melhoria da Sua Confiança, Segurança e Evidências de Accountability. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (Orgs.). Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019. p. 88.] 
Por seu turno, o já supracitado PL nº 5.051/19 estipula em seu artigo 4º que os sistemas decisórios fundamentados em IA serão, sempre, utilizados como um auxílio para a tomada de decisão do humano. Sendo assim, a proposta de lei amadurece a concepção de que as decisões automatizadas nos órgãos jurisdicionais brasileiros (1º e 2º graus de jurisdição) somente serão um mecanismo disponível para a confecção da entrega da tutela jurisdicional, não possuindo força vinculativa no tocante à tese fixada por elas.[footnoteRef:50] [50: BRASIL. Projeto de Lei nº 5051/2019. Estabelece os princípios para o uso da Inteligência Artificial no Brasil. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/138790. Acesso em: 22 set. 2022.] 
Em seguida, em uma medida mais imediatista, dispõe o art. 2º do supracitado Projeto de Lei:
Art. 2º A disciplina do uso da Inteligência Artificial no Brasil tem como fundamento o reconhecimento de que se trata de tecnologia desenvolvida para servir as pessoas com a finalidade de melhorar o bem-estar humano em geral, bem como: 
[...] 
Inc. V – A supervisão humana.[footnoteRef:51] [51: Ibidem.] 
Nesse sentido, é possível juntar os benefícios que essa inovação tecnológica traz com a imprescindível segurança, impedindo que eventuais erros do sistema automatizado tragam efeitos nocivos. É importante também relembrar que o recurso presente aos cidadãos em processos judiciais brasileiros funciona, e continuará funcionando, como uma medida de segurança preventiva contra eventuais equívocos e falhas, no que diz respeito à tese adotada ou ao caso base. 
Dessa forma, tendo como objetivo a aplicabilidade do Raciocínio Baseado em Casos (RBC), de acordo com o sistema de precedentes mencionado no caput do art. 926 do CPC: “Os tribunais devem tornar sua jurisprudência uniforme e mantê-la estável, completa e coerente”.[footnoteRef:52] [52: BRASIL. Lei nº 13.105, de 16 de março de 2015. Código de Processo Civil. Disponível em: <http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2015/lei/l13105.htm> Acesso em: 22 set. 2022.] 
É claro que, se o supervisor da inteligência artificial constatar que há uma aplicação incorreta de alguma premissa jurídica, pode dispor ao robô a aplicação ou compreensão corretas, e ele prontamente efetuará a correção, assim como poderá se ajustar corretamente às próximas decisões. Por outro lado, a título de precaução mediata, ainda é possível ver no artigo 2º, inciso IV, do PL nº 5.051/19[footnoteRef:53] que a transparência, a confiabilidade e a possibilidade de auditoria nos sistemas são requisitos. Portanto, entende-se que os três termos abordados no referido inciso integram um processo único que diz respeito à questão do accountability.[footnoteRef:54] [53: BRASIL. Projeto de Lei nº 5051/2019. Estabelece os princípios para o uso da Inteligência Artificial no Brasil. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/138790. Acesso em: 22 set. 2022.] [54: VALENTINI, Rômulo Soares. Julgamento por Computadores? Tese (Doutorado) – Curso de Programa de Pós-graduação em Direito, Universidade Federal de Minas Gerais, Belo Horizonte, 2017. p. 70.] 
Dado que a Machine Learning é capaz de aprender sozinha através de sua interação e experiência, em um processo autônomo, não é absurdo questionar se, para ter certeza dos rumos tomados pela IA, as auditorias regulares deverão, indispensavelmente, checar a calibragem dos logs de inputs paramétricos, isto é, da forma como o caso será analisado, uma vez que irá operar como RBC. Nesse panorama,Gutierrez aduz que a construção e a revisão desses critérios por equipes interdisciplinares e diversificadas tem sido um instrumento alternativo por empresas “para afastar evitar by default que esses sistemas tenham vícios de origem ou incorram em decisões ética ou legalmente condenáveis”.[footnoteRef:55] [55: GUTIERREZ, Andriei. É Possível Confiar Em Um Sistema de Inteligência Artificial? Práticas Em Torno da Melhoria da Sua Confiança, Segurança e Evidências de Accountability. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (Orgs.). Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019. p. 90.] 
Contudo, as auditorias podem enfrentar dificuldades na apresentação dos relatórios ao introduzirem as IA's não supervisionadas, pelo seu elemento intrínseco de aprendizagem a partir de lógicas e raciocínios não aceitos pelos humanos, presentes na Deep Learning. Sendo assim, haverá uma enorme dificuldade para se explicar de forma compreensível para como tais sistemas chegaram a determinadas correlações ou resultados. Desse modo, fica prejudicado, em algumas situações, o princípio da transparência.[footnoteRef:56] [56: Ibidem. p. 91.] 
Segundo a crítica de Mulholland e Frajhof:
[...] um dos mais graves questionamentos que se faz ao uso de sistemas de autoaprendizagem é justamente o fato de que a transparência dos métodos utilizados e, consequentemente, dos resultados alcançados, fica deslocada, abrindo espaço para uma opacidade típica de sistemas autoritários não regulados.[footnoteRef:57] [57: MULHOLLAND, Caitlin; FRAJHOF, Isabella Z. Inteligência Artificial e a Lei Geral de Proteção de Dados Pessoais: Breves Anotações Sobre o Direito à Explicação Perante a Tomada de Decisões por Meio de Machine Learning. São Paulo: Thomson Reuters Brasil, 2019. p. 273.] 
Além disso, é preciso ter cuidado ao processar informações e dados sensíveis nas redes neurais e autônomas das IA’s, para que as precauções e medidas de segurança não sejam inúteis contra vazamentos, assim como, elencam em seus objetivos a Lei Geral de Proteção de Dados Pessoais (LGPD) que, de acordo com Bioni e Luciano, essas leis denotam-se como uma porta de entrada para a aferição do princípio da precaução, em sua acepção de deliberação pública, sobre a aderência ou não de IA em vista da definição da espécie de riscos que lhe são implícitos.[footnoteRef:58] [58: BIONI, Bruno Ricardo; LUCIANO, Maria. O Princípio da Precaução na Regulação de Inteligência Artificial: seriam as leis de proteção de dados o seu portal de entrada. Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2019. p. 217.] 
Em última análise, é possível identificar uma concordância entre o inciso IV, art. 2º, do PL 5.051/2019[footnoteRef:59] e o art. 20 da LGPD[footnoteRef:60], pelo que se denomina de "direito à explicação", que se confunde com os princípios de transparência e confiabilidade. Logo, o direito à revisão das decisões efetuadas pela IA, o instituto da recorribilidade recursal, as auditorias rotineiras e outros meios e procedimentos de asseguração de prevenção na área da justiça, apontam o caminho para a implementação segura da tecnologia da inteligência artificial nas decisões judiciais no Brasil. [59: BRASIL. Projeto de Lei nº 5051/2019. Estabelece os princípios para o uso da Inteligência Artificial no Brasil. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/138790. Acesso em: 22 set. 2022.] [60: BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em: 23 set. 2022.] 
CONCLUSÃO
Após a realização deste estudo, é possível comprovar que o crescimento dos sistemas inteligentes leva à inescapável conclusão de que, em um determinado momento, as decisões tomadas por eles causarão danos a outras pessoas. Dado que atualmente não há nenhuma regulamentação sobre este assunto, a atribuição de responsabilidade pelos prejuízos gerados é tão indefinida quanto os impactos que a utilização desta tecnologia pode acarretar na sociedade.
Dessa maneira, o objetivo deste trabalho foi identificar algumas das possíveis soluções para o problema da responsabilização por danos decorrentes de decisões completamente autônomas tomadas por sistemas equipados com inteligência artificial. Para isso, verificou-se se os dispositivos jurídicos existentes seriam apropriados para regulamentar os danos potencialmente causados pelo uso de dispositivos inteligentes, ou se um novo sistema mais eficiente seria necessário para lidar com tais desafios.
Como foi demonstrado, o Direito Civil, quando aplicado à luz dos princípios constitucionais, mostra-se apto, inicialmente, a fornecer as respostas adequadas para a conformação da responsabilidade por danos ocasionados por atos de sistemas autônomos. A Teoria da Responsabilidade Civil alcançou progressos no que diz respeito ao desvio do foco do ato ilícito e do causador para a vítima do evento danoso. Em consonância com a procura da tutela mais efetiva do ofendido, a responsabilidade objetiva imposta aos criadores e fabricantes de robôs aparece como a solução mais conveniente, visto que são eles os que estão melhor posicionados para minimizar os riscos e oferecer garantias.
Desta feita, é relevante salientar que este estudo não pretendeu esgotar todas as nuances de tal discussão rica, sendo imperativo avançar nos debates sobre o assunto. Espera-se que, pelo contrário, o interesse da doutrina e dos operadores do direito aumentem à medida que os softwares se desenvolverem, fornecendo subsídios aos legisladores para a regulamentação futura de sistemas inteligentes, que leve em consideração a reparação integral dos futuros prejudicados com os indispensáveis avanços tecnológicos tão essenciais à sociedade.
É constatado, finalmente, que poucas pesquisas acadêmicas lidam diretamente com o impacto da Inteligência Artificial no Poder Judiciário. Portanto, algumas previsões jurídicas trazidas pelo Projeto de Lei 5.051/2019 enfatizam ideias de segurança e fiscalização humana, em conformidade com os dispositivos da Lei Geral de Proteção de Dados (LGPD), como o direito à explicação. No entanto, o debate a respeito da regulamentação da Inteligência Artificial é recente, motivo pelo qual o tempo e o aprofundamento das pesquisas podem mensurar seus impactos com maior precisão.
REFERÊNCIAS
BIONI, Bruno Ricardo; LUCIANO, Maria. O Princípio da Precaução na Regulação de Inteligência Artificial: seriam as leis de proteção de dados o seu portal de entrada. Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2019.
BRASIL. Código Civil brasileiro. Lei n° 10.406, de 10 de janeiro de 2002. Disponivel em: <http://www.planalto.gov.br/ccivil_03/LEIS/2002/L10406.htm>. Acesso em: 18 set. 2022.
BRASIL. Conselho Nacional de Justiça. Recomendação nº 74, de 21 de setembro de 2020. Recomenda medidas para implementação de política de dados abertos no âmbito do Poder Judiciário. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3487#:~:text=1%C2%BA%20Esta%20Recomenda%C3%A7%C3%A3o%20estabelece%20diretrizes,exce%C3%A7%C3%A3o%20do%20Supremo%20Tribunal%20Federal. Acesso em: 19 set. 2022.
BRASIL. Constituição da República Federativa do Brasil de 1988. Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicaocompilado.htm. Acesso em: 19 set. 2022.
BRASIL. Lei nº 13.105, de 16 de março de 2015. Código de Processo Civil. Disponível em: <http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2015/lei/l13105.htm> Acesso em: 22 set. 2022.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em: 23 set. 2022.
BRASIL. Projeto de Lei nº 5051/2019. Estabelece os princípios para o uso da Inteligência Artificial no Brasil. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/138790.Acesso em: 22 set. 2022.
BRASIL. Resolução nº 331, de 20 de agosto de 2020. Institui a Base Nacional de Dados do Poder Judiciário – DataJud como fonte primária de dados do Sistema de Estatística do Poder Judiciário – SIESPJ para os tribunais indicados nos incisos II a VII do art. 92 da Constituição Federal. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3428. Acesso em: 19 set. 2022. 
BRASIL. Resolução nº 332, de 21 de agosto de 2020. Dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário e dá outras providências. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 20 set. 2022.
BUSH, V. As we may think. Disponível em: <www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/>. Acesso em: 15 set. 2022.
CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil. 11. ed. São Paulo: Atlas, 2014.
CERVANTES, J. A. et al. Artificial Moral Agents: A Survey of the Current Status. Springer Netherlands, 2019.
CHAVES, Natália Cristina. Inteligência Artificial: Os Novos Rumos da Responsabilidade Civil, Braga. Anais. Florianópolis: Conselho Nacional de Pesquisa e Pós-Graduação em Direito Florianópolis, 2017.
DONEDA, Danilo Cesar Maganhoto; MENDES, Laura Schertel; SOUZA, Carlos Affonso Pereira de; ANDRADE, Norberto Nuno Gomes de. Considerações Iniciais Sobre Inteligência Artificial, Ética e Autonomia Pessoal. Pensar: Revista de Ciências Jurídicas, Fortaleza, v. 23, n. 4, dez. 2018.
FARIAS, Cristiano Chaves de; ROSENVALD, Nelson; BRAGA NETTO, Felipe Peixoto. Curso de Direito Civil: responsabilidade civil. São Paulo: Atlas. 2015.
GAGLIANO, Pablo Stolze; PAMPLONA FILHO, Rodolfo. Novo curso de direito civil: responsabilidade civil. V. 3. 17 ed. rev. ampl. e atual. São Paulo: Saraiva Educação, 2019.
GIUFFRIDA, Iria; LEDERER, Fredric; VERMEYS, Nicolas. A legal perspective on the trials and tribulations of AI: how artificial intelligence, the internet of things, smart contracts, and other technologies will affect the law. Case Western Reserve Law Review, v. 68, n. 3, p. 747–782, 2018.
GONÇALVES, Carlos Roberto. Direito Civil Brasileiro: Responsabilidade Civil - Vol. 4. 14ª Ed. São Paulo: Saraiva. 2019.
GUTIERREZ, Andriei. É Possível Confiar Em Um Sistema de Inteligência Artificial? Práticas Em Torno da Melhoria da Sua Confiança, Segurança e Evidências de Accountability. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (Orgs.). Inteligência Artificial e Direito. São Paulo: Thomson Reuters Brasil, 2019.
HAWKING, Stephen. O universo numa casca de noz. São Paulo: Ed. Intrínseca, 2016.
KANT, Immanuel. Crítica da razão prática. São Paulo: Martin Claret, 2003.
LÓSSIO, Claudio Joel Brito. Manual Descomplicado de Direito Digital: guia para profissionais do direito e da tecnologia. Salvador: Editora Juspodivm, 2020.
MAGRANI, E. Entre dados e robôs: ética e privacidade na era da hiperconectividade. Porto Alegre: Arquipélago Editorial, 2019. 
MAIA FILHO, Mamede Said; JUNQUILHO, Tainá Aguiar. Projeto Victor: perspectivas de aplicação da inteligência artificial ao direito. Revista de Direitos e Garantias Fundamentais, v. 19, n. 3, 2018.
MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. Salvador: Editora Juspodivm, 2020.
MULHOLLAND, Caitlin. Responsabilidade Civil e Processos Decisórios Autônomos em Sistemas de Inteligência Artificial (IA): Autonomia, Imputabilidade e Responsabilidade. Inteligência Artificial e Direito: Ética, Regulação e Responsabilidade. Revista dos Tribunais. 2ª Tiragem. 2019.
MULHOLLAND, Caitlin; FRAJHOF, Isabella Z. Inteligência Artificial e a Lei Geral de Proteção de Dados Pessoais: Breves Anotações Sobre o Direito à Explicação Perante a Tomada de Decisões por Meio de Machine Learning. São Paulo: Thomson Reuters Brasil, 2019.
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade Civil Pelos Atos Autônomos da Inteligência Artificial: Notas Iniciais Sobre a Resolução do Parlamento Europeu. Revista Brasileira de Políticas Públicas, Brasília, v. 7, n. 3, 2017.
SANCTIS, Fausto Martin de. Inteligência Artificial e Direito. São Paulo: Almedina, 2020.
SPERANDIO, Henrique Raimundo do Carmo. Desafios da inteligência artificial para a profissão jurídica. Dissertação de Mestrado – Curso de Direito, Escola de Direito de São Paulo da Fundação Getúlio Vargas, São Paulo, 2018.
TEPEDINO, Gustavo; SILVA, Rodrigo da Guia. Desafios da inteligência artificial em matéria de responsabilidade civil. Revista Brasileira de Direito Civil – RBDCivil, Belo Horizonte, v. 21, 2019.
VALENTINI, Rômulo Soares. Julgamento por Computadores? Tese (Doutorado) – Curso de Programa de Pós-graduação em Direito, Universidade Federal de Minas Gerais, Belo Horizonte, 2017.
VENOSA, Sílvio de Salvo. Direito civil: obrigações e responsabilidade civil. 17 ed. São Paulo: Atlas, 2017.
WALD, A., GIANCOLI, B. P., Cavalcanti, A. E. L. W., & Paesani, L. M. Responsabilidade civil. Editora Saraiva. 2015.

Continue navegando