- Foi revelado que um juiz de instância inferior no estado indiano de Andhra Pradesh citou sentenças falsas geradas por IA em um caso de disputa imobiliária
- A Suprema Corte classificou o caso como uma ‘preocupação institucional’ e o considerou não um simples erro de julgamento, mas ‘má conduta funcional (misconduct)’
- O juiz afirmou que era a primeira vez que usava uma ferramenta de IA e que acreditava que as citações eram verdadeiras, mas a Suprema Corte suspendeu a eficácia da decisão da instância inferior
- O Tribunal Superior da Índia reconheceu a boa-fé do juiz à época e manteve a decisão, mas a Suprema Corte deu mais peso ao problema processual do uso de IA
- O caso expõe o impacto da IA sobre os procedimentos judiciais e episódios semelhantes vêm sendo relatados não apenas na Índia, mas também nos EUA e no Reino Unido
Visão geral do caso
- A Suprema Corte da Índia está investigando um caso em que um juiz de um tribunal civil de instância inferior em Vijayawada, no estado de Andhra Pradesh, julgou uma disputa imobiliária citando precedentes falsos gerados por IA
- O caso foi levado à Suprema Corte após recurso da parte ré
- A Suprema Corte definiu o episódio como uma “questão que afeta diretamente a confiabilidade e a integridade do processo judicial”
- O incidente ocorreu em agosto de 2025, e o juiz citou 4 precedentes anteriores, todos posteriormente identificados como documentos falsos gerados por IA
Entendimento da instância inferior e do Tribunal Superior
- A defesa apontou que os precedentes citados eram falsos e recorreu ao Tribunal Superior
- O Tribunal Superior reconheceu que o juiz cometeu um ‘erro de boa-fé’ e manteve a decisão em si
- Declarou que “mesmo que as citações não existam, não há razão para anular a decisão se a aplicação do direito estiver correta”
- O Tribunal Superior exigiu que o juiz apresentasse um relatório, e ele declarou que estava usando uma ferramenta de IA pela primeira vez e confiou no material gerado automaticamente
- Explicou que “não houve intenção de citar incorretamente ou distorcer referências, e o erro foi resultado da dependência de uma fonte automatizada”
- O Tribunal Superior acrescentou que “é necessário usar inteligência real, e não inteligência artificial”
Reação da Suprema Corte
- A Suprema Corte suspendeu imediatamente (stay) a decisão da instância inferior e classificou o uso de IA não como simples erro, mas como ‘má conduta funcional’
- Enfatizou que “neste caso, a questão não está no conteúdo da decisão, mas no próprio procedimento judicial e no processo de formação do juízo”
- A Suprema Corte notificou o procurador-geral, o consultor jurídico e o Bar Council of India e decidiu realizar análise adicional do caso
Choque entre IA e procedimento judicial
- A Suprema Corte da Índia também tem demonstrado recentemente preocupação com casos em que advogados usam ferramentas de IA para redigir petições
- Segundo o veículo jurídico especializado LiveLaw, a Suprema Corte afirmou que “esse tipo de conduta não pode ser justificado de forma alguma”
- Além da Índia, casos de erros em decisões judiciais causados pelo uso de IA também foram relatados nos EUA e no Reino Unido
- Em outubro de 2025, veio à tona que dois juízes federais dos EUA elaboraram decisões incorretas com uso de IA
- Em junho de 2025, o Tribunal Superior do Reino Unido emitiu um alerta aos advogados proibindo o uso de precedentes gerados por IA
Resposta do Judiciário indiano à IA
- A Suprema Corte da Índia publicou em 2025 um white paper sobre o uso de IA no Judiciário
- O documento inclui diretrizes e boas práticas para o uso de IA
- A Suprema Corte enfatiza a importância da supervisão humana (human oversight) e da manutenção de salvaguardas institucionais
- O caso mostra que o sistema judicial indiano está buscando equilibrar adoção e controle da IA
1 comentários
Opiniões do Hacker News
Parece exagerado dizer que a IA vai substituir as pessoas
No fim, ainda é preciso haver alguém responsável, e, quando algo dá errado, alguém acaba sendo demitido ou indo para a cadeia
A IA pode aumentar a produtividade, mas um sistema completamente sem humanos tem grande chance de levar a desastre ou processo judicial
Por isso as empresas não estão vendo o ROI que esperavam
Na prática, a maioria dos casos em que disseram “a produtividade aumentou graças à IA” e demitiram gente era só uma desculpa para esconder baixo desempenho
Se a IA for usada apenas como ferramenta, a responsabilidade é do usuário; se ela for tratada como “o trabalho de outra pessoa”, então isso vira delegação a alguém não qualificado, e no fim a culpa continua sendo do usuário
Mesmo assim, quase nunca vi alguém ser responsabilizado por isso
Textos gerados por LLM deveriam ser marcados em um bloco separado de Unicode para deixar claro que foram gerados por IA
Esconder ou manipular isso seria como um médico operar sem lavar as mãos
Fala-se em “freios e contrapesos”, mas o Judiciário parece ser exceção
Um relatório do MIT também diz que a maioria dos funcionários usa IA com contas pessoais, e não com contas da empresa
A desculpa de que foi “um erro causado por dependência de fonte automatizada” não cola
Em qualquer profissão, ao automatizar com LLM, a responsabilidade continua sendo do profissional
Culpar a ferramenta por não saber usá-la não faz sentido nem juridicamente
Como na época em que um engenheiro certificado apenas assinava trabalho terceirizado, a estrutura foi eliminando salvaguardas para ficar cada vez mais barata e rápida
O LLM não é a causa disso; ele apenas expôs essa realidade degradada
Eu também gosto de IA, mas ela precisa de uso responsável
Erro e dolo deveriam ser tratados de forma diferente no direito
Se isso se repetir, é preciso ajustar a própria ferramenta
Mesmo que o usuário esteja errado toda vez, se o mesmo problema continuar surgindo de forma sistêmica, então no fim o defeito é de projeto da ferramenta
Não saber disso é preguiça ou incompetência
Fico me perguntando quando os advogados vão perceber que precisam verificar diretamente o que o LLM diz
Como nos carros autônomos, a ideia de “intervir só quando necessário” está fadada ao fracasso por causa dos limites de atenção humanos
A abordagem de “as pessoas só precisam conferir melhor” não funciona na prática
Isso é o mais perigoso
Não é um problema só de advogados
Achei marcante a recomendação da Suprema Corte para que se use “inteligência real em vez de inteligência artificial”
No fim, parece que vamos ver mais artigos cheios de citações falsas
Se a IA treinar com esse material, existe o risco de haver na internet mais informação alucinada do que informação real
Nos EUA e no Reino Unido, o problema é parecido
Como os advogados têm pouca familiaridade com tecnologia, erros se tornam inevitáveis quando editam diretamente documentos gerados por chatbot
Casos relacionados também aparecem no relatório da Doughty Street
O próprio sistema jurídico gera texto repetitivo desnecessário (boilerplate) demais
Os advogados também não leem tudo; passam os olhos apenas no que precisam
Usar IA de forma irresponsável é um problema, mas isso também pode ser uma oportunidade para simplificar a estrutura dos documentos jurídicos
O direito não é código, mas estruturas excessivamente complexas ainda têm espaço para melhoria
Se simplificar demais, a margem de interpretação aumenta e os litígios também
O juridiquês (legalese), no fim, é um mecanismo para reduzir dúvidas
É uma estrutura em que só foram sendo colocados enfeites, sem simplificação fundamental
Esse problema vai crescer em todos os setores
Estou pesquisando respostas para isso no setor de fintech, e a abordagem da Resemble AI me parece a mais prática
O ponto central não é só texto, mas também detecção de clonagem de voz por IA e watermarking
Não é fácil lidar com a realidade de sempre precisar correr atrás do prejuízo
A desculpa de que foi “um erro por dependência de fonte automatizada” é como dizer
“a arma era automática, então a morte de alguém não é culpa minha”
Predição do próximo token e alucinação não são simples bugs
Deixar isso de lado em áreas onde confiabilidade e integridade são importantes é extremamente perigoso