Prévia do material em texto
UNIVERSIDADE CIDADE DE SÃO PAULO - UNICID Curso de Direito TANYA ALVES DA HORA A INTELIGÊNCIA ARTIFICIAL NO MUNDO JURÍDICO: ASPECTOS ÉTICOS E A PROTEÇÃO DE DADOS À LUZ DA LGPD SÃO PAULO 2025 UNIVERSIDADE CIDADE DE SÃO PAULO - UNICID Curso de Direito TANYA ALVES DA HORA A INTELIGÊNCIA ARTIFICIAL NO MUNDO JURÍDICO: ASPECTOS ÉTICOS E A PROTEÇÃO DE DADOS À LUZ DA LGPD Trabalho de Curso apresentado ao curso de Direito da Universidade Cidade de São Paulo (UNICID), como requisito parcial para obtenção do grau de bacharel em Direito, sob a orientação do Professor Me. Luís Eduardo Meurer Azambuja CONCEITO: [___] SATISFATÓRIO – [___] INSATISFATÓRIO SÃO PAULO – 2025 DEDICATÓRIA Dedico este trabalho à Camila, grande amiga, parceira e mulher que acreditou em mim, me motivando a conquistar este sonho: concluir a faculdade. Aos meus pais, que com seu esforço constante me proporcionaram o essencial para estudar e crescer. Aos meus irmãos, Yuri e Talliany, que são minha inspiração diária para ser uma pessoa melhor. E aos meus sobrinhos, que me fazem desejar realizar sonhos cada vez maiores, por nós. AGRADECIMENTOS Dedico este trabalho a Deus, por ser minha força, meu propósito e minha luz, por me fazer acreditar em mim mesma, nos meus sonhos e na minha capacidade de me tornar advogada. Aos meus pais, que com amor e esforço me deram o que podiam para que eu pudesse estudar e crescer, meu eterno reconhecimento e gratidão. À Camila, que estará sempre no meu coração: por acreditar em mim quando eu duvidava de mim mesma, por segurar minha mão nos primeiros desafios e me mostrar que eu era capaz. Seu carinho, cuidado e amizade são tesouros que levarei para a vida inteira. Aos meus irmãos, que torceram, oraram e vibraram comigo a cada passo desta jornada, minha inspiração para seguir sempre em frente e realizar sonhos maiores. ““A educação é a arma mais poderosa que você pode usar para mudar o mundo.” (Nelson Mandela) RESUMO DA HORA, Tanya Alves: A Inteligência Artificial No mundo Jurídico: Aspectos Éticos e a Proteção de Dados a Luz da LGPD. xx p. Trabalho de Curso (Graduação em Direito). Curso de Direito, UNICID – Universidade Cidade de São Paulo. São Paulo, 2024. Neste trabalho, em tese, falaremos sobre o crescente uso da Inteligência Artificial (IA) no mundo jurídico, analisando como essa tecnologia vem transformando a atuação dos profissionais do direito e impactando diversos aspectos do sistema legal. Embora muitos possam acreditar que a IA seja um tema puramente tecnológico, veremos que sua aplicação possui nuances jurídicas profundas, exigindo atenção especial às questões de privacidade, proteção de dados e conformidade com a legislação vigente, especialmente a Lei Geral de Proteção de Dados (LGPD). Ao longo deste estudo, analisaremos os principais impactos da IA no setor jurídico, incluindo a automatização de pesquisas e a identificação de precedentes legais, que promovem maior agilidade e eficiência, assim como os desafios éticos e legais que surgem com sua implementação. Serão exploradas questões como transparência, responsabilidade, prevenção de vieses e segurança de dados, essenciais para garantir que a tecnologia seja utilizada de forma ética e segura. Ao final, espera-se compreender como a IA pode ser incorporada ao direito de maneira responsável, considerando tanto os benefícios em termos de eficiência e inovação quanto as implicações jurídicas e sociais de sua aplicação. Palavras-chave: Inteligência Artificial. Direito. LGPD. Ética. Proteção de Dados. ABSTRACT DA HORA, Tanya Alves. Artificial Intelligence in the Legal World: Ethical Aspects and Data Protection considering the LGPD. xx p. Undergraduate Course Work (Law). Law Course, UNICID – Universidade Cidade de São Paulo. São Paulo, 2024. In this work, we will discuss the growing use of Artificial Intelligence (AI) in the legal field, analyzing how this technology has been transforming the work of legal professionals and impacting various aspects of the legal system. Although many may consider AI to be a purely technological subject, its application involves deep legal nuances, requiring special attention to issues of privacy, data protection, and compliance with current legislation, especially the General Data Protection Law (LGPD). Throughout this study, we will examine the main impacts of AI in the legal sector, including the automation of legal research and the identification of legal precedents, which promote greater speed and efficiency, as well as the ethical and legal challenges that arise from its implementation. Issues such as transparency, accountability, bias prevention, and data security will be explored, as they are essential to ensure that the technology is used ethically and safely. In the end, the study aims to understand how AI can be incorporated into the legal field responsibly, considering both the benefits in terms of efficiency and innovation, as well as the legal and social implications of its application. Keywords: Artificial Intelligence. Law. LGPD. Ethics. Data Protection. SUMÁRIO 1. INTRODUÇÃO 2. CONCEITO E EVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL 2.1. Histórico e conceitos fundamentais 2.2. A evolução tecnológica e o impacto no Direito 3. A INTELIGÊNCIA ARTIFICIAL NO MUNDO JURÍDICO 3.1. Uso da IA nos Tribunais Brasileiros 3.2. Ferramentas de IA em escritórios de advocacia 4. ASPECTOS ÉTICOS DA UTILIZAÇÃO DA IA NO DIREITO 4.1. O papel do advogado e a dignidade da profissão 4.2. Responsabilidade civil e accountability 5. A LEI GERAL DE PROTEÇÃO DE DADOS (LGPD) NO USO DA IA 5.1. Princípios e fundamentos da LGPD 5.2. Obrigações de empresas e escritórios de advocacia 5.3. Bases legais e consentimento informado 5.4. Direitos dos titulares e decisões automatizadas 5.5. Fiscalização, sanções e compliance corporativo 6. MARCO REGULATÓRIO E PERSPECTIVAS FUTURAS 6.1. Projetos de lei e regulamentações específicas 6.2. Experiências internacionais e comparadas 6.3. O papel do Conselho Federal da OAB e do CNJ 7. CONCLUSÃO 8. REFERÊNCIAS BIBLIOGRÁFICA 1. INTRODUÇÃO Nos últimos anos, a Inteligência Artificial (IA) passou a ocupar um papel central em diversas áreas do conhecimento, inclusive no campo jurídico. Essa presença crescente tem provocado mudanças profundas na forma como advogados, juízes e servidores públicos exercem suas funções. Se, por um lado, a tecnologia oferece agilidade e precisão, por outro, levanta sérias dúvidas sobre o uso e a proteção dos dados pessoais envolvidos nesses processos. A Lei nº 13.709/2018 a Lei Geral de Proteção de Dados (LGPD), surge como um marco essencial nesse debate, mas ainda enfrenta dificuldades práticas diante da velocidade com que a IA se desenvolve. Estudos recentes do Centro de Tecnologia e Sociedade da FGV Direito Rio, realizados em 2025, indicam que nenhuma das principais plataformas de IA generativa atualmente em operação no Brasil cumpre integralmente as exigências básicas da LGPD. A pesquisa analisou ferramentas amplamente conhecidas, como ChatGPT, Gemini, Claude, Copilot e Meta AI, e verificou falhas graves em pontos elementares: a ausência de políticas de privacidade em português, a falta de identificação do responsável pelo tratamento dos dados e a inexistência de informações claras sobre transferências internacionais de informações. Em alguns casos, as empresas sequer detalham quais medidas de segurança adotam para proteger os dados coletados. Essas lacunas revelam uma situação de risco real. Plataformas amplamente utilizadas podem estar processando dados de cidadãos brasileiros sem a devida transparência ou respaldo legal, o que compromete direitos fundamentais e ameaça a confiança nas novas tecnologias. Outro aspecto preocupante é o uso de técnicas de coleta automática, o chamado data scraping, que permite a extração de dadosde sites e redes sociais sem consentimento expresso dos titulares. Quando se trata de dados sensíveis, como informações de natureza jurídica, médica ou financeira, o problema se torna ainda mais delicado. No ambiente jurídico, o uso de IA precisa de atenção redobrada. Escritórios de advocacia, departamentos jurídicos e até tribunais já utilizam ferramentas inteligentes para organizar informações, elaborar documentos e prever resultados de processos. No entanto, quando essas ferramentas não estão em conformidade com a LGPD, os riscos ultrapassam a esfera técnica e alcançam o campo ético e legal. O uso indevido de dados pode gerar responsabilização civil, comprometer segredos profissionais e enfraquecer a credibilidade de instituições que lidam com informações sigilosas. Por isso, a LGPD não deve ser vista apenas como uma exigência burocrática, mas como uma barreira de proteção fundamental diante da expansão de sistemas que operam com autonomia e acesso massivo a dados pessoais. Os princípios da lei como necessidade, segurança, transparência e responsabilização representam a base mínima para um uso ético e controlado da tecnologia. Diante desse cenário, o presente trabalho busca discutir os impactos da Inteligência Artificial no Direito, com especial atenção aos riscos que essa tecnologia traz à privacidade e à proteção de dados. A intenção é compreender de que forma é possível equilibrar inovação e segurança jurídica, permitindo que a IA seja usada como instrumento de apoio à Justiça, sem se tornar uma ameaça à dignidade humana ou aos direitos garantidos pela LGPD. 2.1 HISTÓRICO E CONCEITOS FUNDAMENTAIS O termo Inteligência Artificial (IA) foi cunhado em 1956, durante a Conferência de Dartmouth, por John McCarthy, Marvin Minsky, Claude Shannon e Nathan Rochester, que idealizaram a criação de máquinas capazes de simular o raciocínio humano. Desde então, a IA consolidou-se como um dos campos mais dinâmicos e interdisciplinares das ciências da computação, abrangendo lógica, estatística, linguística, filosofia e psicologia cognitiva (RUSSELL; NORVIG, 2021). Seu objetivo central é permitir que sistemas computacionais executem tarefas que, tradicionalmente, exigiriam inteligência humana, como percepção, aprendizado, raciocínio e tomada de decisão. O marco teórico que antecedeu a formalização do campo foi o artigo “Computing Machinery and Intelligence”, de Alan Turing (1950), no qual o autor propôs o chamado “Teste de Turing” um experimento destinado a verificar se uma máquina poderia demonstrar comportamento indistinguível do humano. Essa proposição inaugurou as discussões filosóficas e técnicas sobre o que constitui “pensar” e sobre as fronteiras da consciência e da cognição artificial (TURING, 1950). Desde então, a IA passou por ciclos de entusiasmo e descrença, denominados “invernos da IA”, marcados por avanços tecnológicos seguidos de períodos de estagnação (CREVIER, 1993). Nos anos 1950 e 1960, os primeiros sistemas de IA foram predominantemente simbólicos, baseados em regras lógicas e manipulação de símbolos. O objetivo era replicar o raciocínio humano por meio de representações formais do conhecimento. Um dos exemplos mais emblemáticos foi o programa “Logic Theorist”, de Allen Newell e Herbert Simon (1956), considerado o primeiro sistema de raciocínio automático. Essa vertente ficou conhecida como “IA clássica” e tinha como base o paradigma top-down, isto é, da formulação de regras gerais para a dedução de conclusões específicas (HAUGELAND, 1985). Entretanto, essa abordagem mostrou-se limitada diante da complexidade e imprevisibilidade do mundo real. A rigidez dos sistemas simbólicos impedia que as máquinas lidassem com ambiguidade e incerteza, o que motivou o surgimento de novas perspectivas. A partir dos anos 1980, ganhou força a chamada IA conexionista, fundamentada nas redes neurais artificiais e inspirada no funcionamento do cérebro humano. Essa vertente representou uma virada epistemológica ao adotar o paradigma bottom-up, em que o aprendizado emerge de interações entre unidades simples conectadas (RUMELHART; MCCLELLAND, 1986). Na década de 1990, a IA passou a integrar métodos estatísticos e técnicas de aprendizado de máquina (machine learning), que permitiram que sistemas extraíssem padrões diretamente de grandes volumes de dados, em vez de depender apenas de regras fixas. Esse período marcou a transição de uma inteligência programada para uma inteligência treinada. O avanço da capacidade computacional, associado à disponibilidade crescente de dados e ao desenvolvimento de algoritmos de otimização, foi determinante para a consolidação dessa nova fase (BISHOP, 2006). Com o início do século XXI, a IA alcançou maturidade técnica e comercial. A convergência entre poder computacional, algoritmos de deep learning e redes neurais de múltiplas camadas possibilitou o surgimento da chamada IA moderna, que abrange desde sistemas de recomendação até veículos autônomos. Em 2017, o artigo “Attention is All You Need” (VASWANI et al., 2017) apresentou o modelo Transformer, estrutura fundamental para os grandes modelos de linguagem, como o GPT, BERT e Gemini, que impulsionaram a chamada IA generativa — capaz de criar textos, imagens, sons e vídeos com alto grau de verossimilhança. O crescimento desses modelos trouxe também preocupações éticas e jurídicas inéditas. O uso massivo de dados pessoais para o treinamento dessas ferramentas levanta questionamentos sobre privacidade, consentimento e propriedade intelectual. No contexto brasileiro, tais questões se entrelaçam diretamente com os princípios da Lei Geral de Proteção de Dados (Lei nº 13.709/2018), que impõe requisitos claros para o tratamento e a transferência de informações pessoais (BRASIL, 2018). A cartilha da FGV Direito Rio (2025), ao analisar a conformidade das principais plataformas de IA generativa, concluiu que nenhuma delas cumpre integralmente os critérios básicos da LGPD, o que demonstra a urgência de regulamentação e fiscalização mais rigorosas (BELLI et al., 2025). Do ponto de vista conceitual, a inteligência artificial (IA) pode ser classificada em três níveis distintos, cada um com características e aplicações próprias. O primeiro nível é a chamada IA fraca ou estreita, que se caracteriza por sua capacidade de executar tarefas específicas de maneira eficiente, sem possuir consciência ou compreensão plena das atividades realizadas. Esse tipo de IA é amplamente utilizado na atualidade em aplicações cotidianas, como assistentes virtuais, sistemas de recomendação, chatbots, reconhecimento de voz e de imagem, demonstrando desempenho elevado em tarefas delimitadas, porém sem flexibilidade para atuar fora de seu escopo definido. O segundo nível corresponde à IA geral, também denominada inteligência artificial forte, cuja existência ainda é hipotética. Diferentemente da IA fraca, a IA geral seria capaz de raciocinar, aprender e tomar decisões de forma autônoma em múltiplos domínios do conhecimento, aproximando-se da capacidade cognitiva humana. Esse nível de inteligência permitiria a adaptação a situações inéditas e a transferência de conhecimento entre diferentes áreas, o que representa um grande desafio tecnológico e científico na atualidade, tanto do ponto de vista do desenvolvimento de algoritmos quanto no que se refere à ética e à governança de sistemas inteligentes. Por fim, o terceiro nível refere-se à IA superinteligente, conceito teórico que ultrapassa as capacidades humanas. Segundo Bostrom (2014), essa forma de inteligência artificial imaginária seria capaz de realizar qualquer atividade cognitiva com desempenho superior ao humano, incluindo criatividade, resolução de problemas complexos e tomada de decisões estratégicas em qualquer domínio. A perspectiva de uma IA superinteligente levanta discussões profundas sobre segurança, impactos sociais e implicações éticas, sendo objeto de intenso debate entre pesquisadores de tecnologia, filosofia e direito. Dessa forma, a classificação da IA em fraca, geral e superinteligentepermite compreender a evolução da tecnologia e os diferentes desafios associados a cada nível, destacando a complexidade e a responsabilidade envolvidas no desenvolvimento de sistemas inteligentes Essas distinções ajudam a compreender o debate contemporâneo sobre limites e possibilidades da IA. No Direito, em especial, a IA estreita já está presente na automatização de petições e no cruzamento de precedentes judiciais, enquanto a IA generativa começa a levantar dilemas éticos e de responsabilidade civil pela produção de conteúdo e tratamento de dados. A compreensão histórica da IA, portanto, revela não apenas uma evolução tecnológica, mas também uma transformação cultural e normativa. A cada avanço técnico corresponde um novo desafio social e jurídico. As questões de explicabilidade, transparência e controle humano — outrora temas restritos à filosofia da mente — tornaram-se princípios normativos que orientam a regulação contemporânea das tecnologias emergentes. Dessa forma, compreender o passado da IA é essencial para enfrentar os dilemas éticos e legais do presente. 2.2. A EVOLUÇÃO TECNOLÓGICA E O IMPACTO NO DIREITO A evolução tecnológica tem sido um dos principais motores de transformação da sociedade contemporânea, afetando profundamente as estruturas econômicas, sociais e jurídicas. No campo do Direito, essas mudanças não se limitam à adoção de ferramentas digitais, mas envolvem uma reconfiguração dos próprios fundamentos da prática jurídica, exigindo novas competências, abordagens metodológicas e reflexões éticas por parte dos operadores do sistema. Desde o final do século XX, o avanço da computação, da internet e da digitalização de processos jurídicos já indicava uma tendência de modernização institucional. No entanto, é com o surgimento de tecnologias disruptivas como a Inteligência Artificial (IA), o blockchain, a big data e a computação em nuvem que se observa uma verdadeira revolução na forma como o Direito é concebido, aplicado e ensinado. Como destaca Souza et al. (2025), “a tecnologia deixou de ser um suporte operacional e passou a influenciar diretamente a estrutura normativa e a dinâmica decisória do sistema jurídico”. A IA, em especial, tem provocado mudanças significativas na rotina dos profissionais do Direito. Ferramentas de automação jurídica, como softwares de análise preditiva, sistemas de triagem processual e plataformas de redação de documentos, têm ganhado espaço em escritórios de advocacia, departamentos jurídicos e tribunais. Essa transformação, embora promissora, levanta questões complexas sobre responsabilidade civil, proteção de dados, transparência algorítmica e acesso à Justiça. Segundo o artigo publicado na Revista Jurídica Gralha Azul (TJPR, 2025), o uso da IA no Direito brasileiro ainda carece de regulamentação específica, o que gera insegurança jurídica e riscos à integridade das decisões judiciais. A ausência de critérios claros para a adoção de sistemas inteligentes pode comprometer princípios constitucionais como o devido processo legal, o contraditório e a ampla defesa. Além disso, algoritmos treinados com dados históricos podem reproduzir vieses discriminatórios, perpetuando desigualdades estruturais no sistema de Justiça. Outro aspecto relevante é o impacto da tecnologia na formação acadêmica e na pesquisa jurídica. Conforme aponta a Fundação Getulio Vargas (FGV, 2025), ferramentas baseadas em IA têm ampliado as possibilidades de análise de dados, extração de padrões e construção de argumentos jurídicos com maior embasamento empírico. Isso representa uma mudança paradigmática na forma como o conhecimento jurídico é produzido, exigindo uma abordagem interdisciplinar que combine Direito, ciência da computação, estatística e ética. A literatura especializada também destaca o papel das legaltechs — startups voltadas à inovação jurídica — como agentes catalisadores dessa transformação. Empresas como Cria.AI e Preâmbulo Tech vêm desenvolvendo soluções baseadas em IA para redação de peças processuais, gestão de contratos e análise de riscos jurídicos, contribuindo para a democratização do acesso à Justiça e a redução de custos operacionais. 3.1 Uso da Inteligência Artificial nos Tribunais Brasileiros e Internacionais A aplicação da Inteligência Artificial (IA) no Poder Judiciário brasileiro tem se intensificado de forma significativa nos últimos anos, impulsionada pela busca por maior celeridade processual, eficiência administrativa e racionalização da atividade jurisdicional. Diversos tribunais vêm adotando sistemas inteligentes para análise de jurisprudência, triagem de processos e automação de tarefas repetitivas, como o preenchimento de minutas e a classificação de documentos. Essa transformação tecnológica, embora promissora, exige reflexão crítica acerca de seus limites operacionais, impactos éticos e conformidade com os princípios constitucionais que regem o devido processo legal. Um dos exemplos mais emblemáticos dessa inovação é o sistema Victor, desenvolvido pelo Supremo Tribunal Federal (STF), cuja função consiste na triagem de recursos extraordinários com base na identificação de repercussão geral. De acordo com o Relatório de Pesquisa sobre IA Generativa no Judiciário Brasileiro, publicado pelo Conselho Nacional de Justiça (CNJ) em 2024, mais de 178 projetos envolvendo IA foram registrados em tribunais brasileiros, sendo 98 deles iniciativas inéditas. Embora tais ferramentas apresentem potencial para mitigar gargalos processuais, persistem desafios relacionados à transparência algorítmica, à explicabilidade das decisões automatizadas e à ausência de mecanismos claros de auditoria e controle, o que pode comprometer o contraditório e a ampla defesa (CNJ, 2024). Casos concretos evidenciam a fragilidade da utilização indiscriminada da IA no âmbito jurídico. Em abril de 2025, a 1ª Câmara Criminal do Tribunal de Justiça do Paraná rejeitou um recurso elaborado com auxílio de IA, por conter 43 jurisprudências inexistentes. O relator classificou o conteúdo como “balbúrdia textual” e ressaltou a responsabilidade do advogado na verificação das peças processuais geradas por sistemas automatizados (TJPR, 2025). Tal episódio revela os riscos da delegação excessiva de tarefas intelectuais à IA, especialmente quando não há supervisão humana qualificada. A literatura especializada também aponta para a possibilidade de reprodução de vieses históricos nos dados utilizados para o treinamento dos algoritmos. Conforme observa Marinho (2025), sistemas treinados com decisões judiciais passadas podem perpetuar padrões discriminatórios, sobretudo em áreas sensíveis como o direito penal e o direito de família. Essa constatação reforça a necessidade de supervisão humana constante e da adoção de critérios éticos e técnicos rigorosos para o uso da IA em atividades decisórias. No que tange à proteção de dados pessoais, o relatório da FGV Direito Rio (2025) revelou que nenhuma das principais plataformas de IA generativa em operação no Brasil incluindo ChatGPT, Gemini, Claude, Copilot e Meta AI — cumpre integralmente os requisitos básicos da Lei Geral de Proteção de Dados (LGPD). Foram identificadas falhas graves, como a ausência de políticas de privacidade em língua portuguesa, a falta de identificação do controlador de dados e a omissão quanto às transferências internacionais de informações. Em alguns casos, as empresas sequer detalham as medidas de segurança adotadas para proteger os dados coletados (BELLI et al., 2025). Essas lacunas revelam uma situação de vulnerabilidade jurídica e técnica. Ferramentas amplamente utilizadas podem estar processando dados de cidadãos brasileiros sem respaldo legal ou transparência adequada, o que compromete direitos fundamentais e ameaça a confiança nas tecnologias emergentes. Outro aspecto preocupante é o uso de técnicas de coleta automatizada de dados, como o data scraping, que permite a extração de informações de sites e redes sociais sem o consentimento expresso dos titulares. Quando se trata de dados sensíveis, como informações jurídicas,médicas ou financeiras, o problema se torna ainda mais delicado. No cenário internacional, diversos países têm adotado a IA no âmbito judicial, com diferentes níveis de entusiasmo e regulamentação. A Estônia, por exemplo, desenvolveu um sistema automatizado para julgar pequenas causas cíveis, conhecido como “juiz robô”, que emite decisões com possibilidade de recurso humano. A China implementou tribunais digitais que utilizam IA para analisar provas, sugerir sentenças e gerar vídeos com avatares de juízes, embora haja críticas quanto à opacidade dos algoritmos e ao risco de controle estatal excessivo. Nos Estados Unidos, sistemas como o COMPAS são utilizados para prever reincidência criminal, mas enfrentam acusações de reprodução de vieses raciais e decisões injustas. Já países como Reino Unido, França e Canadá utilizam IA para triagem de processos e análise de jurisprudência, mantendo forte supervisão humana e diretrizes éticas claras. Por outro lado, países como Alemanha, Holanda e Bélgica adotam postura mais cautelosa, exigindo explicabilidade dos algoritmos, supervisão humana obrigatória e conformidade rigorosa com legislações de proteção de dados, como o Regulamento Geral sobre a Proteção de Dados (GDPR). No Brasil, o CNJ aprovou em 2025 uma resolução que estabelece diretrizes para o uso da IA no Judiciário, com foco em governança, transparência e proteção de dados, alinhando-se às boas práticas internacionais.