Silvana Deolinda

O impacto da inteligência artificial que já muda a prática jurídica

Com regulamentação em debate, mercado jurídico vê IA como aliada estratégica — e desafio para manter confiança no sistema.

Por Silvana Deolinda

A inteligência artificial (IA) já é parte do cotidiano jurídico. No Brasil, tribunais superiores e estaduais operam modelos para triagem, padronização e apoio à redação de decisões; escritórios e departamentos jurídicos testam assistentes generativos para pesquisa, rascunhos e revisão. O impulso é claro: ganhar escala, reduzir acervos e elevar a qualidade. Mas o custo de um passo em falso — do viés algorítmico à violação de sigilo — também é evidente. A questão, portanto, não é “se” usar, e sim “como” usar.

Onde estamos (Brasil e exterior)

No Judiciário brasileiro, o Conselho Nacional de Justiça estruturou a Plataforma Sinapses, repositório nacional de modelos para uso compartilhado, instituída pela Resolução CNJ nº 332/2020. Hoje, Sinapses serve como “loja” de soluções auditáveis, com dezenas de modelos ativos espalhados por tribunais.  

O STJ opera iniciativas históricas de IA semântica (como o Athos, voltado à cultura de precedentes) e, em 2025, lançou o STJ Logos, motor generativo integrado ao fluxo de trabalho dos gabinetes para acelerar minutas e relatórios — com promessa de expansão gradual de funcionalidades ao longo do ano.

No campo regulatório, o Brasil discute o PL 2.338/2023, que busca um marco para IA; no Senado, a tramitação tem sido objeto de audiências com especialistas, ANPD e sociedade civil. Em paralelo, a LGPD (Lei 13.709/2018) segue como base obrigatória para qualquer tratamento de dados em soluções de IA. Na Europa, o AI Act foi formalmente aprovado e publicado no Official Journal em 2024, com aplicação escalonada a partir de 2025/2026 — um farol importante para requisitos de risco, transparência e governança.

No mercado privado jurídico, há uma onda global de ferramentas generativas e assistentes especializados: Thomson Reuters CoCounsel (ex-Casetext) para pesquisa, revisão e doc review; Westlaw Precision AI; Lexis+ AI; além de startups como Harvey integradas ao fluxo de escritórios internacionais. Essas plataformas combinam LLMs com bases jurídicas proprietárias e guardrails (barreiras de proteção).

Os ganhos reais (quando bem implementado)

1) Produtividade e tempestividade. Triagens automáticas, sumarização de peças, identificação de temas repetitivos e apoio à redação reduzem retrabalho, liberando tempo para a análise jurídica propriamente dita. Experiências no STJ mostram uso de IA do tipo semântica e, mais recentemente, generativa, acoplada ao pipeline decisório.

2) Qualidade e uniformização. Ferramentas como o Athos foram concebidas para fortalecer a cultura de precedentes, conectando teses e decisões repetitivas — um antídoto à dispersão jurisprudencial.

3) Transparência e auditabilidade. O desenho do Sinapses privilegia governança (hospedagem, versionamento e trilhas de auditoria), condição essencial para ambientes públicos.

Os riscos

Alucinações e erros factuais. Desde 2023, cortes nos EUA aplicam sanções a advogados que apresentaram citações inexistentes geradas por chatbots, em casos como Mata v. Avianca (multa e reprimenda pública) — fenômeno que se repetiu em 2025, levando magistrados a emitir ordens específicas sobre uso de IA. Moral da história: verificação humana é inegociável.

Viés e explicabilidade. Modelos podem reproduzir vieses (classe, gênero, raça) e tomar atalhos opacos. Sem documentação de dados, testes de equidade e reports de risco, a adoção degrada confiança e pode comprometer direitos fundamentais — preocupação central no AI Act e no debate do PL 2.338/2023.

Sigilo e proteção de dados. O sigilo profissional e a LGPD impõem limites claros. A ANPD já vem emitindo notas técnicas sobre IA generativa e decisões automatizadas; transferências internacionais e sandbox regulatório também avançaram. Ou seja: há boa-fé regulatória, mas a responsabilidade permanece na instituição que trata os dados.

Dependência tecnológica e vendor lock-in. Plataformas proprietárias podem encarecer a operação e dificultar a portabilidade. Sem métricas de qualidade e cláusulas contratuais para auditoria, o risco operacional aumenta (e quem responde é a organização).

O que já é regra — e o que vem aí

  • Judiciário: além da Resolução 332/2020, o CNJ consolidou princípios de ética e governança para IA; tribunais relatam dezenas de projetos ativos mapeados nacionalmente.
  • Advocacia: o Conselho Federal da OAB aprovou, em 2024, a Recomendação nº 001/2024 para o uso de IA generativa: observar legislação aplicável (Estatuto, Código de Ética e LGPD), preservar confidencialidade, informar o uso quando pertinente e manter supervisão profissional.
  • Regulação setorial: o PL 2.338/2023 busca tipificar níveis de risco e obrigações, em linha com tendências internacionais. É preciso acompanhar ajustes de última hora.

Ferramentas (exemplos e usos responsáveis)

  • Pesquisa e análise: CoCounsel / Westlaw Precision AI / Lexis+ AI — potencializam case law e revisão, mas exigem conferência humana e citator tradicional antes de ir a juízo.  
  • Judiciário: Sinapses (repositório e orquestração), Athos (precedentes), STJ Logos (apoio generativo em minutas).

Guia de implementação

  1. Política interna de IA. Escreva (e publique internamente): escopo de uso, ferramentas aprovadas, dados proibidos e  fluxos de revisão humana. Baseie-se nas diretrizes da OAB e na LGPD. (OAB)
  1. Arquitetura de dados e sigilo. Priorize instâncias privadas (ou on-prem/virtual private cloud) com opt-out de treinamento e logs restritos. Para dados sensíveis/segredo de justiça, use camadas de anonimização e redaction. (Veja notas técnicas e guias da ANPD como referência.)
  1. Verificação “dupla” para peças. Nada vai ao protocolo sem cross-check em bases oficiais (Diários, citators, repositórios de jurisprudência). Erros de IA geraram sanções exemplares — e a responsabilidade é do profissional signatário.
  1. Avaliação de risco por caso de uso. Classifique: baixo (resumos internos), médio (minutas não finais), alto (qualquer interação com processos ou dados pessoais). Para alto risco, exija human-in-the-loop e Relatório de Impacto (RIPD).
  1. Contrato com fornecedores. Cláusulas de: confidencialidade, logs, auditoria, service levels, portabilidade de modelos/dados, kill switch, e notificação de incidentes (LGPD).
  1. Treinamento contínuo. Capacite equipes para avaliar vieses, limites e fontes; inclua módulo específico sobre “alucinações” e citabilidade — lições de Avianca e outros casos recentes mostram que ainda há deslizes.

A IA melhora resultados quando operada com governança. O Brasil, com o Sinapses e a tradição do CNJ em padronização, tem uma vantagem institucional rara. O risco maior hoje não é “usar IA”; é usar mal — sem política, sem testes e sem transparência. O Direito, afinal, se ancora em prova, fonte e fundamento. Na IA, isso se traduz em dados, documentação e auditoria. Se a cadeia de confiança for preservada, a tecnologia amplia o alcance da Justiça; se for negligenciada, cria contencioso, sanções e descrédito.


Referências essenciais

Silvana Deolindajornalista especializada nos campos de divulgação estratégica e assessoria de imprensa com experiência na área empresarial, institucional e do Direito, responsável pela divulgação da imagem de diversos escritórios de advocacia.

Rolar para cima
×