0
 

Navegando por temas da atualidade, venho percebendo o quanto a inteligência artificial generativa (IA generativa) vem transformando de maneira profunda diversas áreas do conhecimento humano, e o Direito é uma das áreas mais impactadas. Mais do que uma inovação técnica, trata-se de uma revolução cognitiva e cultural, que reconfigura a forma como produzimos, interpretamos e aplicamos normas. O avanço dessas tecnologias traz benefícios inegáveis: agilidade, eficiência, ampliação de acesso à informação, mas também levanta questões éticas, sociais e filosóficas que desafiam os fundamentos da prática jurídica contemporânea.

Ferramentas como  o ROSS Intelligence (assistente jurídica canadense guiada por IA) e a Luminance (plataforma especializada em contratos), amplamente utilizadas em 2025, permitem a análise de grandes volumes de documentos, identificando precedentes e cláusulas com precisão. Essas tecnologias otimizam o trabalho humano em escritórios de advocacia no Brasil, que as utilizam para agilizar revisões contratuais, reduzindo custos e tempo. Fiquei especialmente impressionada com as funcionalidades do ROSS, disponível via web e integrado ao Microsoft Word e Outlook. A Luminance, funciona operando em nuvem, pode ser acessada em luminance.com.
Outras plataformas baseadas em IA, v. g., a DoNotPay, conhecida como o primeiro “advogado robô” do mundo (donotpay.com), auxiliam cidadãos sem formação jurídica a redigir recursos e compreender direitos consumeristas, ampliando o acesso à justiça. Em 2024, a Defensoria Pública de São Paulo implementou um chatbot baseado em IA generativa para orientar cidadãos em questões de direito de família, atendendo milhares de pessoas em regiões carentes. Eu mesma testei o DEFi, assistente virtual da instituição, e observei resultados eficientes. Já tendo trabalhado com esse público, sei o quanto o primeiro contato informativo é fundamental.


A IA generativa, capaz de criar textos, imagens, músicas e outros conteúdos, está moldando o cenário tecnológico e cultural em 2025. No campo jurídico, seu impacto é profundo e complexo, levantando questões sobre autoria, propriedade intelectual, privacidade, responsabilidade e desigualdade de acesso. Embora ofereça oportunidades de inovação e automação de processos, também desafia estruturas legais tradicionais, exigindo adaptações urgentes para lidar com suas implicações éticas e sociais.
Uma das principais preocupações é a autoria. Recentemente, comecei a usar IA em revisões textuais e percebi a perda da fluidez e da minha assinatura de estilo. Além disso, surgiu a dúvida: quem é o autor do texto final? Esse dilema é o mesmo que afeta o Direito, pois a IA ultrapassa o papel de simples ferramenta e se torna coautora de produtos intelectuais.
A IA também amplia a previsibilidade das decisões judiciais, um antigo desafio do sistema jurídico. Plataformas como o Lex Machina fornecem análises preditivas baseadas em dados históricos, auxiliando advogados a traçar estratégias mais eficazes e a reduzir contradições nas decisões.
Entretanto, o uso de dados em larga escala levanta sérios questionamentos sobre privacidade. Em 2025, um caso emblemático envolveu a escritora Chimamanda Ngozi Adichie, que ameaçou processar uma plataforma de IA por usar suas obras no treinamento de modelos sem autorização, alegando violação de direitos autorais e de privacidade. Adichie tem sido uma voz ativa contra o que chama de “roubo cultural digital”, alertando que a IA, se mal regulada, pode esvaziar o valor do trabalho criativo humano.
No Brasil, a Lei Geral de Proteção de Dados (LGPD) tenta enfrentar esses desafios, mas sua aplicação à IA generativa ainda é incipiente, sobretudo diante do uso transnacional de dados.


Outro ponto delicado é a propriedade intelectual: quem detém os direitos sobre uma obra criada por IA: o programador, o usuário ou a empresa proprietária da ferramenta? O caso Harper v. MidJourney, julgado nos EUA em 2025, tratou dessa questão, quando um artista venceu um concurso com uma pintura gerada por IA. No Brasil, a falta de legislação específica deixa um vácuo jurídico: tanto o Código Civil quanto a Lei de Direitos Autorais (9.610/98) são aplicados de modo precário.
A IA generativa também suscita questões éticas ligadas à produção de deepfakes e documentos falsificados. Em 2025, o Tribunal de Justiça de São Paulo julgou um caso envolvendo um contrato gerado por IA que se revelou fraudulento após perícia forense, evidenciando a necessidade de mecanismos que assegurem autenticidade documental e integridade processual.
O debate sobre responsabilidade legal também é urgente. Se uma IA gera conteúdo difamatório, discriminatório ou ilegal, quem responde? O desenvolvedor, o usuário ou a própria IA? Um caso no Reino Unido, em 2024, envolveu um chatbot que produziu respostas racistas, levando à responsabilização da empresa. No Brasil, o Judiciário ainda carece de jurisprudência sólida sobre o tema, e as big techs figuram no centro das discussões sobre responsabilidade civil e criminal.


Além dos dilemas éticos e jurídicos, há a questão da desigualdade tecnológica. Embora a IA tenda a democratizar o acesso à justiça, seu alto custo reforça assimetrias: grandes escritórios e empresas têm acesso privilegiado às melhores ferramentas, enquanto pequenos advogados e defensores públicos enfrentam limitações técnicas e financeiras. Populações com baixo letramento digital também são excluídas desse novo paradigma. Um relatório da OAB (2025) apontou que apenas 15% dos advogados em regiões menos desenvolvidas utilizam ferramentas de IA, revelando uma preocupante brecha digital.
Internacionalmente, a União Europeia lidera a regulamentação com o AI Act (2024), que define princípios de transparência e responsabilidade. No Brasil, o Projeto de Lei 2338/2023 busca regular a IA, mas é criticado por sua vagueza, especialmente quanto à IA generativa. Sem uma legislação moderna e clara, o Direito brasileiro corre o risco de ficar defasado na proteção de direitos fundamentais.
Mais do que um desafio técnico, a IA generativa nos confronta com um dilema civilizatório: o que significa ser autor, jurista e sujeito de direito em uma era de máquinas criativas?


A presença da IA nos tribunais e nos escritórios de advocacia desloca a centralidade humana do processo jurídico. Como observou Peter Sloterdijk, vivemos em um mundo “tecnosférico”, onde a ação humana se mescla à inteligência técnica. Já Byung-Chul Han alerta que a hiperautomatização pode dissolver a dimensão ética da decisão, transformando o julgamento em mera operação algorítmica.
O Direito, que sempre se baseou na interpretação humana e na prudência, passa agora a conviver com sistemas que “decidem” em segundos. Isso exige não apenas novas leis, mas uma ética da convivência entre inteligências humanas e artificiais.
A função do jurista, nesse contexto, deve ir além da técnica: ele se torna o guardião do sentido e dos limites éticos do uso da IA.
A IA generativa representa uma das maiores transformações da história recente do Direito. Oferece eficiência, acesso e previsibilidade, mas também introduz riscos éticos, autorais e sociais. Casos como Harper v. MidJourney e as ações contra o uso indevido de dados reforçam a urgência de marcos legais claros, éticos e inclusivos.
O desafio é equilibrar inovação e humanidade. O Direito precisa adaptar-se sem renunciar ao seu princípio fundante: a centralidade da pessoa humana e a proteção da dignidade. Somente com regulamentações éticas, transparência e educação digital ampla será possível garantir que a IA generativa sirva à justiça; não o contrário.

Shirlei Florenzano Figueira
Shirlei Florenzano, advogada e professora da Universidade Federal do Oeste do Pará - UFOPA, mestra em Direito pela UFPA, Membro da Academia Artística e Literária Obidense, apaixonada por Literatura e mãe do Lucas.

Sobre o que falamos sem pronunciar

Anterior

O Círio e o Mosaico das Diferentes Paisagens.

Próximo

Você pode gostar

Comentários