
Uma decisão recente parece ter tonificado o debate sobre o uso de inteligência artificial no Direito. É o caso do voto de um desembargador que absolveu um homem de 35 anos por estupro de vulnerável contra uma criança de 12 anos em Minas Gerais.
O julgamento mostrou que a IA já se faz presente no Judiciário brasileiro. Resta saber em que extensão. Não cabe mais discutir se a tecnologia deve ser usada, mas como ela pode ser incorporada sem corroer garantias processuais que sustentam a legitimidade da jurisdição.
De um lado, o risco da delegação irresponsável à máquina de escolhas que exigem valoração jurídica, sensibilidade probatória e controle democrático. De outro, a recusa acrítica, no sentido de ignorar que a pressão por produtividade também gera erros, inconsistências e decisões frágeis, o que pode ser evitado com a utilização das ferramentas certas.
A pergunta que importa, então, é objetiva: como compatibilizar IA com o devido processo legal, o contraditório e a motivação das decisões?
A resposta passa por uma tese simples, mas exigente. IA pode apoiar o trabalho jurídico, desde que permaneça instrumental, auditável e subordinada a deveres reforçados de transparência, participação e fundamentação.
Mas há um ponto adicional, frequentemente subestimado, que condiciona a legitimidade e a utilidade do uso: não basta “ter IA”; é preciso trabalhar com IA que compreenda o sistema jurídico brasileiro, treinada e calibrada com modelos e dados legais nacionais.
No caso citado, segundo noticiário, o uso da IA pelo relator se deu para a melhoria na construção de um parágrafo, o que, à toda evidência, não tem problema algum. É lícito, é correto!
1. O que a IA pode (e não pode) fazer no processo.
Há usos de IA que são, em regra, compatíveis com o Estado de Direito, como a organização de documentos, classificação de peças, pesquisa de jurisprudência, detecção de inconsistências, sumarização de autos, apoio à gestão de gabinete e ao saneamento de processos. E, sem dúvida, sua utilização para corrigir texto ou melhorar sua estruturação.
Em todos esses casos, a tecnologia atua como ferramenta de eficiência, sem substituir o núcleo decisório.
O problema começa quando a IA passa a influenciar, direta ou indiretamente, o conteúdo da decisão judicial, a seleção do que será considerado relevante, ou a forma como o caso é enquadrado.
Nesses cenários, surgem três tensões centrais: (i) Devido processo legal: decisões devem ser produto de procedimento justo, com controle racional e institucional do caminho decisório; (ii) Contraditório: as partes precisam ter condições reais de influenciar o convencimento do julgador, inclusive sobre critérios que afetem o julgamento; (iii) Motivação: a fundamentação não é ornamento; é o mecanismo que permite controle, recurso, previsibilidade e legitimidade.
Se a IA atua como “caixa-preta”, sugerindo conclusões sem explicitar premissas, dados e limites, ela pode comprometer exatamente esses três pilares.
2. Contraditório em tempos de algoritmos: o direito de “contraditar o método”
O contraditório contemporâneo não se limita a falar por último; ele envolve participação efetiva. Quando ferramentas algorítmicas passam a orientar triagens, priorizações, agrupamentos de casos, recomendações de precedentes ou minutas, surge um novo objeto de debate: o método.
Em termos práticos, compatibilizar IA com contraditório exige reconhecer um direito mínimo das partes de saber se houve uso de IA em etapa relevante (triagem, análise do caso, sugestão de minuta, correção de texto, recomendação de precedentes, análise de risco, etc.); conhecer qual foi a finalidade do uso (gestão, pesquisa, apoio à fundamentação, detecção de padrões); e poder questionar limitações, vieses e erros do resultado apresentado como apoio técnico.
Sem isso, cria-se uma assimetria: a parte discute fatos e direito, enquanto o processo é silenciosamente moldado por critérios não debatidos.
3. Motivação das decisões: por que “IA sugeriu” não é fundamento.
A motivação é o ponto em que o Estado presta contas. Se a decisão se apoia em uma ferramenta, a fundamentação precisa demonstrar que o juiz compreendeu o caso concreto e as provas; selecionou normas e precedentes de modo justificável; enfrentou argumentos relevantes das partes; e não terceirizou o raciocínio para um sistema opaco.
A IA pode ajudar a organizar argumentos, comparar precedentes e apontar inconsistências. Mas a fundamentação não pode ser substituída por uma “autoridade tecnológica”. Em outras palavras, a decisão deve ser explicável em linguagem jurídica, independentemente de como a IA foi usada internamente.
4. A tese jurídica: deveres mínimos para uso legítimo de IA no sistema de justiça.
Para evitar tanto o fetichismo tecnológico quanto o medo paralisante, apresentamos uma reflexão doutrinária: sempre que IA for utilizada em atividade capaz de influenciar o resultado do processo (ainda que como “apoio”), devem ser observados, ao menos, os seguintes deveres:
- Dever de transparência funcional (uso declarado). Deve ser possível identificar quando e para que a IA foi empregada. Não se trata de expor segredos industriais, mas de garantir rastreabilidade institucional: houve apoio algorítmico? em qual etapa? com qual finalidade?”;
- Dever de auditabilidade e registro (rastro decisório). O sistema de justiça precisa manter registro mínimo do insumo algorítmico relevante: versão da ferramenta, parâmetros gerais, logs essenciais, data e responsável pelo uso. Sem rastro, não há controle; sem controle, não há devido processo legal;
- Dever de supervisão humana qualificada (human-in-the-loop real). Supervisão não pode ser “carimbo”. O operador deve ter condições materiais de revisar, contestar e rejeitar a sugestão da IA, com tempo, treinamento e responsabilidade atribuída;
- Dever de não delegação do núcleo decisório. A valoração probatória, a subsunção jurídica e o enfrentamento dos argumentos das partes são indelegáveis. IA pode sugerir; não pode decidir.
- Dever de contraditório sobre o uso relevante. Se a IA influenciou a seleção de precedentes, a priorização do caso, a triagem de pedidos ou a minuta-base, deve existir espaço para as partes questionarem o resultado e seus pressupostos, especialmente quando houver risco de erro material ou viés.
- Dever de fundamentação independente e verificável. A decisão deve se sustentar por razões jurídicas controláveis. A IA pode ter auxiliado na pesquisa, mas o fundamento deve ser reconstruível sem apelo à “autoridade do algoritmo”.
5. Impactos práticos: o que muda para advocacia e para o Judiciário
Para a advocacia, a pauta não é proibir IA, mas exigir garantias processuais. Na prática, isso significa: pedir esclarecimentos sobre uso de ferramentas em etapas sensíveis; apontar riscos de vieses e erros materiais; e reforçar a necessidade de enfrentamento específico dos argumentos, sobretudo quando a decisão aparentar padronização excessiva.
Para a magistratura e a gestão judiciária, a mensagem é igualmente objetiva: tecnologia sem governança aumenta risco institucional. A adoção de IA precisa vir acompanhada de protocolos de uso, registro, treinamento e critérios de transparência compatíveis com o processo justo.
Para o público geral informado, o ponto é de legitimidade democrática: decisões judiciais não podem se tornar incompreensíveis ou “mágicas”. Se a sociedade não consegue entender por que o Estado decidiu, a confiança no sistema se deteriora.
Conclusão: eficiência não pode custar legitimidade.
A IA pode ser uma aliada relevante para reduzir ruído informacional, melhorar consistência e acelerar rotinas. Mas, no sistema de justiça, eficiência não é valor absoluto. É condicionada por garantias.
Compatibilizar IA com o devido processo legal, o contraditório e a motivação exige assumir que a tecnologia deve operar sob deveres reforçados de transparência, auditabilidade, supervisão humana e fundamentação independente.
A adoção responsável da tecnologia pressupõe IA treinada e calibrada com dados legais nacionais: legislação brasileira atualizada, jurisprudência dos tribunais superiores e cortes locais, atos normativos relevantes, padrões redacionais e terminologia forense brasileira. Isso não elimina riscos, mas reduz drasticamente a chance de erro estrutural e aumenta a auditabilidade do raciocínio.
Em síntese: não é só governança do uso; é governança do modelo.
Esse é o caminho do meio, não o da automação que desresponsabiliza, nem o da recusa que perpetua ineficiências e erros humanos evitáveis.
Se o sistema de justiça vai usar IA (e vai), a pergunta correta é: com quais controles, com qual prestação de contas e com qual compromisso com o processo justo?