Com regulamentação em debate, mercado jurídico vê IA como aliada estratégica — e desafio para manter confiança no sistema.
Por Silvana Deolinda

A inteligência artificial (IA) já é parte do cotidiano jurídico. No Brasil, tribunais superiores e estaduais operam modelos para triagem, padronização e apoio à redação de decisões; escritórios e departamentos jurídicos testam assistentes generativos para pesquisa, rascunhos e revisão. O impulso é claro: ganhar escala, reduzir acervos e elevar a qualidade. Mas o custo de um passo em falso — do viés algorítmico à violação de sigilo — também é evidente. A questão, portanto, não é “se” usar, e sim “como” usar.
Onde estamos (Brasil e exterior)
No Judiciário brasileiro, o Conselho Nacional de Justiça estruturou a Plataforma Sinapses, repositório nacional de modelos para uso compartilhado, instituída pela Resolução CNJ nº 332/2020. Hoje, Sinapses serve como “loja” de soluções auditáveis, com dezenas de modelos ativos espalhados por tribunais.
O STJ opera iniciativas históricas de IA semântica (como o Athos, voltado à cultura de precedentes) e, em 2025, lançou o STJ Logos, motor generativo integrado ao fluxo de trabalho dos gabinetes para acelerar minutas e relatórios — com promessa de expansão gradual de funcionalidades ao longo do ano.
No campo regulatório, o Brasil discute o PL 2.338/2023, que busca um marco para IA; no Senado, a tramitação tem sido objeto de audiências com especialistas, ANPD e sociedade civil. Em paralelo, a LGPD (Lei 13.709/2018) segue como base obrigatória para qualquer tratamento de dados em soluções de IA. Na Europa, o AI Act foi formalmente aprovado e publicado no Official Journal em 2024, com aplicação escalonada a partir de 2025/2026 — um farol importante para requisitos de risco, transparência e governança.
No mercado privado jurídico, há uma onda global de ferramentas generativas e assistentes especializados: Thomson Reuters CoCounsel (ex-Casetext) para pesquisa, revisão e doc review; Westlaw Precision AI; Lexis+ AI; além de startups como Harvey integradas ao fluxo de escritórios internacionais. Essas plataformas combinam LLMs com bases jurídicas proprietárias e guardrails (barreiras de proteção).
Os ganhos reais (quando bem implementado)
1) Produtividade e tempestividade. Triagens automáticas, sumarização de peças, identificação de temas repetitivos e apoio à redação reduzem retrabalho, liberando tempo para a análise jurídica propriamente dita. Experiências no STJ mostram uso de IA do tipo semântica e, mais recentemente, generativa, acoplada ao pipeline decisório.
2) Qualidade e uniformização. Ferramentas como o Athos foram concebidas para fortalecer a cultura de precedentes, conectando teses e decisões repetitivas — um antídoto à dispersão jurisprudencial.
3) Transparência e auditabilidade. O desenho do Sinapses privilegia governança (hospedagem, versionamento e trilhas de auditoria), condição essencial para ambientes públicos.
Os riscos
Alucinações e erros factuais. Desde 2023, cortes nos EUA aplicam sanções a advogados que apresentaram citações inexistentes geradas por chatbots, em casos como Mata v. Avianca (multa e reprimenda pública) — fenômeno que se repetiu em 2025, levando magistrados a emitir ordens específicas sobre uso de IA. Moral da história: verificação humana é inegociável.
Viés e explicabilidade. Modelos podem reproduzir vieses (classe, gênero, raça) e tomar atalhos opacos. Sem documentação de dados, testes de equidade e reports de risco, a adoção degrada confiança e pode comprometer direitos fundamentais — preocupação central no AI Act e no debate do PL 2.338/2023.
Sigilo e proteção de dados. O sigilo profissional e a LGPD impõem limites claros. A ANPD já vem emitindo notas técnicas sobre IA generativa e decisões automatizadas; transferências internacionais e sandbox regulatório também avançaram. Ou seja: há boa-fé regulatória, mas a responsabilidade permanece na instituição que trata os dados.
Dependência tecnológica e vendor lock-in. Plataformas proprietárias podem encarecer a operação e dificultar a portabilidade. Sem métricas de qualidade e cláusulas contratuais para auditoria, o risco operacional aumenta (e quem responde é a organização).
O que já é regra — e o que vem aí
- Judiciário: além da Resolução 332/2020, o CNJ consolidou princípios de ética e governança para IA; tribunais relatam dezenas de projetos ativos mapeados nacionalmente.
- Advocacia: o Conselho Federal da OAB aprovou, em 2024, a Recomendação nº 001/2024 para o uso de IA generativa: observar legislação aplicável (Estatuto, Código de Ética e LGPD), preservar confidencialidade, informar o uso quando pertinente e manter supervisão profissional.
- Regulação setorial: o PL 2.338/2023 busca tipificar níveis de risco e obrigações, em linha com tendências internacionais. É preciso acompanhar ajustes de última hora.
Ferramentas (exemplos e usos responsáveis)
- Pesquisa e análise: CoCounsel / Westlaw Precision AI / Lexis+ AI — potencializam case law e revisão, mas exigem conferência humana e citator tradicional antes de ir a juízo.
- Judiciário: Sinapses (repositório e orquestração), Athos (precedentes), STJ Logos (apoio generativo em minutas).
Guia de implementação
- Política interna de IA. Escreva (e publique internamente): escopo de uso, ferramentas aprovadas, dados proibidos e fluxos de revisão humana. Baseie-se nas diretrizes da OAB e na LGPD. (OAB)
- Arquitetura de dados e sigilo. Priorize instâncias privadas (ou on-prem/virtual private cloud) com opt-out de treinamento e logs restritos. Para dados sensíveis/segredo de justiça, use camadas de anonimização e redaction. (Veja notas técnicas e guias da ANPD como referência.)
- Verificação “dupla” para peças. Nada vai ao protocolo sem cross-check em bases oficiais (Diários, citators, repositórios de jurisprudência). Erros de IA geraram sanções exemplares — e a responsabilidade é do profissional signatário.
- Avaliação de risco por caso de uso. Classifique: baixo (resumos internos), médio (minutas não finais), alto (qualquer interação com processos ou dados pessoais). Para alto risco, exija human-in-the-loop e Relatório de Impacto (RIPD).
- Contrato com fornecedores. Cláusulas de: confidencialidade, logs, auditoria, service levels, portabilidade de modelos/dados, kill switch, e notificação de incidentes (LGPD).
- Treinamento contínuo. Capacite equipes para avaliar vieses, limites e fontes; inclua módulo específico sobre “alucinações” e citabilidade — lições de Avianca e outros casos recentes mostram que ainda há deslizes.
A IA já melhora resultados quando operada com governança. O Brasil, com o Sinapses e a tradição do CNJ em padronização, tem uma vantagem institucional rara. O risco maior hoje não é “usar IA”; é usar mal — sem política, sem testes e sem transparência. O Direito, afinal, se ancora em prova, fonte e fundamento. Na IA, isso se traduz em dados, documentação e auditoria. Se a cadeia de confiança for preservada, a tecnologia amplia o alcance da Justiça; se for negligenciada, cria contencioso, sanções e descrédito.
Referências essenciais
- CNJ — Plataforma Sinapses e Resolução 332/2020 (fundamentos e governança). (Conselho Nacional de Justiça, Superior Tribunal de Justiça)
- STJ — Athos (precedentes) e STJ Logos (IA generativa no fluxo decisório). (Conselho Nacional de Justiça, Superior Tribunal de Justiça)
- Senado — PL 2.338/2023 (marco de IA). (Atos CNJ)
- LGPD (Lei 13.709/2018) — base legal de todo tratamento. (artificialintelligenceact.eu)
- AI Act (UE) — referência internacional de abordagem por risco.
- OAB — Recomendação 001/2024 para uso de IA na prática jurídica. (OAB)
- Casos de alucinação com sanções judiciais (EUA) — Mata v. Avianca e panorama 2025. (law.justia.com, The Washington Post)
Silvana Deolinda, jornalista especializada nos campos de divulgação estratégica e assessoria de imprensa com experiência na área empresarial, institucional e do Direito, responsável pela divulgação da imagem de diversos escritórios de advocacia.