GENJURÍDICO
inteligencia-artificial-decisao-judicial-juiz-robo

32

Ínicio

>

Artigos

>

Civil

>

Direito Digital

ARTIGOS

CIVIL

DIREITO DIGITAL

Juízes robôs?

Anderson Schreiber

Anderson Schreiber

11/05/2026

Em 2023, o juiz Juan Manuel Padilla tornou-se uma celebridade mundial, ao proferir sentença em que dispensou um menino com autismo do pagamento de taxas cobradas por uma seguradora de saúde para liberar seu acesso a tratamentos médicos na cidade de Cartagena, na Colômbia.

O motivo da repercussão global não era o precedente em si, mas o fato de que o juiz colombiano havia declaradamente se valido do ChatGPT para decidir o conflito, citando em sua decisão respostas dadas pela ferramenta de Inteligência Artificial às suas perguntas.

Em dada passagem da sentença, constou, por exemplo, que o juiz havia perguntado ao ChatGPT se “menor autista está isento de pagar cotas moderadoras em suas terapias?” e o ChatGPT havia respondido: “Sim, isso mesmo. De acordo com a regulamentação na Colômbia, os menores com diagnóstico de autismo estão isentos de pagar cotas moderadoras em suas terapias”.

A seguradora de saúde recorreu da decisão, alegando que o uso de IA violava as garantias do juiz natural e do devido processo legal. A Corte Constitucional da Colômbia foi chamada, então, a verificar se havia alguma irregularidade naquele caso e, em 2024, emitiu uma decisão emblemática, na qual afirmou que, como havia outros fundamentos mencionados na decisão do juiz colombiano, o uso do ChatGPT não havia configurado “usurpação da função jurisdicional”, que recai “exclusivamente sobre os juízes humanos”.

A Corte destacou, ainda, que o uso de ferramentas de IA na atividade jurisdicional deve ser aceito em tarefas auxiliares, como, por exemplo, na “gestão administrativa e documental” e na “correção e síntese de textos”, mas não pode, em hipótese alguma, substituir “a fundamentação lógica e humana que compete a cada juiz realizar para fins de interpretar os fatos, valorar as provas, motivar e adotar a decisão, pois isso implicaria violação da garantia do juiz natural e do devido processo probatório”.[1]

A Resolução CNJ 615/2025 e a regulação da IA no Judiciário brasileiro

A decisão da Corte Constitucional da Colômbia se tornou um paradigma mundial nesta matéria e já inspirou a regulação setorial do tema em diversos países, inclusive no Brasil, onde o Conselho Nacional de Justiça (CNJ) emitiu, em março deste ano, a Resolução nº 615/2025, que estabelece diretrizes para o desenvolvimento, utilização e governança de recursos de IA no Poder Judiciário.

Entre outros aspectos, a referida Resolução determinou que os tribunais implementem mecanismos de auditoria e monitoramento contínuos, com vistas a garantir que as soluções de IA permaneçam em conformidade com os direitos fundamentais, além de proceder a ajustes sempre que forem identificadas incompatibilidades (art. 5º, §2º).

O que todos querem saber, contudo, é se a IA e, em especial, os modelos de linguagem como ChatGPT podem ser utilizados para redigir sentenças e outras decisões judiciais? Em outras palavras, pode um processo acabar, em última análise, sendo decidido por um juiz-robô?

Em primeiro lugar, é preciso notar que já podem ser acessados em diversos países mecanismos automatizados de solução de conflitos como o modria, uma plataforma de Online Dispute Resolution que realiza um diagnóstico da disputa e sugere soluções por meio da negociação, mediação ou arbitragem. O Tribunal de Justiça do Estado do Rio de Janeiro já conta com ferramenta semelhante: o +Acordo, plataforma digital que se vale de IA para oferecer propostas de acordo ao usuário com base nas informações fornecidas pelas partes e em precedentes do próprio Tribunal.[2]

Na maior parte do mundo, entretanto, o uso destes mecanismos baseados em IA para a solução de conflitos continua sendo facultativo. Em outras palavras, qualquer pessoa tem direito a recorrer a um juiz humano para decidir sua causa. Este é tido, entre nós, como um direito fundamental de “acesso à Justiça”. Daí porque se mostra tão importante saber, com exatidão e transparência, como o Poder Judiciário está utilizando a IA.

O STF, por exemplo, já se vale da IA para analisar textos de Recursos Extraordinários recebidos de todo o país, de modo a auxiliar a Corte no agrupamento de processos por similaridade textual, com o intuito de identificar novos temas de repercussão geral.[3]

Mais recentemente, a IA passou a ser utilizada por nossa Suprema Corte na redação de ementas, com o emprego de técnicas de embeddings que aprimoram e padronizam a transcrição literal do resumo que inaugura os julgados.[4] Tem-se aí já uma interferência da IA no próprio texto da decisão, embora pontual e sem conteúdo substancialmente decisório.

Alguns tribunais e juízes têm ido além e utilizado ferramentas de IA para redigir relatórios dos processos, que integram a parte inicial das sentenças e acórdãos. A percepção geral é de que, no tocante aos relatórios, a chance de erro das ferramentas de IA não é menor, mas a eventual falha produz efeitos menos graves, já que se trata de uma mera síntese do que ocorreu ao longo do processo. O que dizer, contudo, da fundamentação e da conclusão (dispositivo) da sentença? Podem ser produzidos por IA?

IA na fundamentação e no dispositivo: onde está o limite?

No Brasil e no mundo, têm sido publicadas notícias sobre juízes que se valeram de modelos de linguagem, especialmente o ChatGPT, para redigir sentenças inteiras. O que torna esses casos conhecidos é o fato de que as decisões acabam citando doutrina inexistente ou “julgados inventados”, fruto das famosas alucinações.[5]

Trata-se, naturalmente, de falhas da IA, mas as alucinações não são a regra, e sim a exceção. Muito provavelmente, os modelos de linguagem vão evoluir para que este tipo de defeito deixe de existir ou se torne cada vez menos comum.

E isso levará a um uso cada vez mais frequente da IA na preparação de minutas de sentenças e outras decisões judiciais, não apenas no tocante ao seu relatório, mas também à sua fundamentação e ao seu dispositivo, especialmente em conflitos repetitivos. É o que já está acontecendo por meio de ferramentas desenvolvidas por alguns tribunais do país.[6]

A rigor, em que pese a necessidade de atenção e transparência para evitar alucinações e vieses decisórios sem base normativa, a preparação de minutas por meio da aplicação de padrões não chega a ser nada muito diverso do que já vinha sendo feito por meio das assessorias humanas dos magistrados, com o velho “recorte e cole”.

A realidade aqui se impõe. O Brasil conta com 84 milhões de processos em tramitação.[7] Essa quantidade avassaladora de demandas incentiva o uso de tecnologia em todas as tarefas que possam auxiliar o juiz a proferir sua decisão. O importante é criar instrumentos que assegurem que o julgamento da disputa, ou seja, a articulação entre os fatos e o direito seja fruto de um raciocínio exclusivamente humano. Julgar conflitos não é apenas repetir precedentes.

A atividade jurisdicional se situa entre aquelas que merecem integrar uma “reserva humana”, a salvo da mecanização.[8] A tarefa de julgar exige sensibilidade e atenção ao papel do Direito, que também evolui e se transforma. Não se ancora meramente em dados coletáveis do passado, mas mira também para o futuro. Não qualquer futuro, mas um futuro desejado por todos os seres humanos – e algo assim tão relevante não pode ser deixado nas mãos de juízes-robôs.

Aprofunde seus estudos em Direito Civil Contemporâneo

Anderson Schreiber é uma das maiores referências do Direito Civil brasileiro e pioneiro na análise jurídica dos desafios trazidos pela tecnologia e pela inteligência artificial. O Manual de Direito Civil Contemporâneo, já em sua 9ª edição (2026), aborda desde os fundamentos da teoria geral do Direito Civil até os desafios mais atuais envolvendo proteção da imagem, direitos da personalidade e responsabilidade civil na era digital.


[1] A íntegra da decisão está disponível em: www.corteconstitucional.gov.co/relatoria/2024/t-323-24.

[2] Disponível em: www.tjrj.jus.br/advogado/servicos/mais-acordo/o-projeto.

[3] Para mais detalhes, ver o relatório “Inteligência Artificial e Justiça”, disponível no site do próprio STF.

[4] Idem.

[5] Ver, por exemplo, as reportagens “Juiz que usou tese inventada pelo ChatGPT em sentença será investigado” (Migalhas, 13.11.2023) e “Erros cometidos pela IA geram alerta e contestações a seu uso na Justiça” (O Globo, 25.7.2024).

[6] Ver, por exemplo, a notícia publicada pelo TRT da 4ª Região intitulada “Galileu: Conheça a Inteligência Artificial desenvolvida pelo TRT-RS que despertou a atenção do STF” (15.10.2024).

[7] Conforme dados do Relatório Justiça em Números 2024, divulgado pelo CNJ.

[8] Para mais detalhes sobre o conceito de reserva humana, seja consentido remeter a Anderson Schreiber, Direito à Reserva Humana: um limite para a IA(Jota, 4.2.2025).

Esperamos que você tenha compreendido os limites do uso da inteligência artificial na decisão judicial e por que a atividade de julgar deve permanecer como reserva humana. Confira também nossos artigos sobre:

Assine nossa Newsletter

Li e aceito a Política de privacidade

GENJURÍDICO

De maneira independente, os autores e colaboradores do GEN Jurídico, renomados juristas e doutrinadores nacionais, se posicionam diante de questões relevantes do cotidiano e universo jurídico.

Áreas de Interesse

ÁREAS DE INTERESSE

Administrativo

Agronegócio

Ambiental

Biodireito

Civil

Constitucional

Consumidor

Direito Comparado

Direito Digital

Direitos Humanos e Fundamentais

ECA

Eleitoral

Empreendedorismo Jurídico

Empresarial

Ética

Filosofia do Direito

Financeiro e Econômico

História do Direito

Imobiliário

Internacional

Mediação e Arbitragem

Notarial e Registral

Penal

Português Jurídico

Previdenciário

Processo Civil

Segurança e Saúde no Trabalho

Trabalho

Tributário

SAIBA MAIS

    SAIBA MAIS
  • Autores
  • Contato
  • Quem Somos
  • Regulamento Geral
    • SIGA