Créditos da imagem: Reprodução IAJus
O Conselho Nacional de Justiça sediou na última semana o IAJus 2026, Encontro de Integração em Inteligência Artificial do Judiciário, evento promovido pelo Comitê Nacional de Inteligência Artificial do Judiciário e organizado pelo conselheiro Rodrigo Badaró. Com mais de 700 inscritos e transmissão simultânea em inglês, o encontro reuniu ministros do STJ, do TST e do STF, conselheiros do CNJ, representantes do Ministério Público, da OAB e especialistas para debater a adoção, a governança e os limites do uso da IA no sistema de justiça brasileiro. A Lawletter acompanhou o evento.
O objetivo
A iniciativa nasceu com um propósito claro: reduzir a fragmentação de soluções tecnológicas no Judiciário e ampliar as possibilidades de reaproveitamento e cooperação entre tribunais. Na abertura, o conselheiro Badaró definiu o tom do evento ao afirmar que a inteligência artificial deixou de ser assunto da área técnica para se tornar uma questão de gestão institucional.
De quem é a responsabilidade?
Ministro Fachin, presidente do STF e do CNJ, destacou que o encontro representa um marco institucional e que a IA deve permanecer como instrumento a serviço da prestação jurisdicional, nunca como fim em si mesma. Para o ministro, a inovação guiada pela ética não substitui o juiz, mas lhe presta um auxílio inestimável e contribui para o acesso à justiça real, não apenas numérica.
A ministra Daniela Teixeira, do STJ, trouxe o contraponto mais direto do evento. Assumindo ser do time que “não gosta” da IA, ela foi categórica: enquanto a inteligência artificial não tiver empatia, não pode julgar. “Enquanto a IA não se emocionar lendo um processo de estupro de vulnerável, de um pai que está sem ver o filho, ela não pode julgar o processo.” A ministra relatou que seu gabinete usa o sistema STJ Logos para triagem, pesquisa de precedentes e resumos, sempre com revisão humana obrigatória. Em seis meses, a 2ª Seção de Direito Privado reduziu o acervo em 25,89% — resultado atribuído não à IA, mas à atuação de juízes auxiliares. “Não foi com IA que chegamos lá. Foi com humanos que têm empatia.”
A “promptocracia”
O professor Lênio Streck, da Unisinos, foi uma das vozes mais provocativas do evento. Para ele, o grande risco não está na IA em si, mas no que chamou de “promptocracia” — o império do prompt. Streck alertou que sistemas generativos tendem a sempre responder, mesmo quando erram, e que pedir para a IA “melhorar o argumento” apenas amplifica as alucinações. “O prompt é o alvo pintado depois da flecha. O juiz quer decidir e depois apresenta a fundamentação. Isso é o efeito target que já criticávamos no Lava Jato.” O professor também questionou o fenômeno da “clonagem de juízes” — treinar IA com todas as decisões de um magistrado para prever seus julgamentos — prática já proibida e criminalizada na França.
A distinção que muda tudo
O representante da OAB no evento, Fabrício Damota Alves, chamou atenção para um detalhe técnico com impactos regulatórios relevantes: o termo correto não é “alucinação”, mas “confabulação”. O sistema não inventa do nada — ele é desenhado para sempre dar uma resposta, e o faz com convicção de realidade, sem saber que está errado. “Colocar no prompt ‘favor não alucinar’ não resolve nada. O sistema não sabe quando confabula.” Para Damota, o desafio não é proibir o uso da IA, mas capacitar os operadores do direito para saber em que medida devem acreditar na resposta que ela produz.
Quando passa dos limites?
O promotor Rodrigo Fogagnolo, do MPDFT, concordou com Streck em princípio mas divergiu na engenharia. Citando o professor Ethan Mollick, de Wharton, descreveu a IA como uma “fronteira irregular” — com capacidades sobre-humanas em alguns pontos e sub-humanas em outros. Para ele, a ferramenta funciona como grande niveladora: os profissionais com desempenho mais baixo tendem a ter ganhos de qualidade proporcionalmente maiores com o uso da IA como copiloto. “Ela não é substituta. É auxiliar na construção do entendimento do fato e da tese jurídica.”
Os 80 milhões de processos
O ministro Afrânio Vilela, do STJ, foi direto ao identificar o uso que já faz da IA em seu gabinete: uma equipe experiente coordena jovens assessores que utilizam o sistema para identificar julgamentos anteriores e replicar decisões em casos idênticos, liberando tempo para os processos que exigem análise individualizada. Para o ministro, a grande aposta deve estar na aplicação da IA para replicar os julgamentos oriundos de IRDRs, IACs e teses repetitivas — onde a escala é real e o ganho é concreto.
Ferramentas apresentadas
Ao longo do dia foram apresentadas soluções em diferentes estágios de maturidade. O TST exibiu três ferramentas: o Bentivir, para triagem e agrupamento de processos; o Águia, para síntese e apoio à elaboração de relatórios e minutas; e o ChatJT, ambiente corporativo para uso de modelos de linguagem. O TJ-MT apresentou o Lexa e o HANA, ferramentas para análise de admissibilidade de recursos especiais e extraordinários, sendo que o sistema só libera o usuário para operar a ferramenta após seis meses de avaliação sem ela — para garantir que a capacidade crítica do operador esteja formada antes do auxílio tecnológico.
A juíza federal Daniela Cavalheiro, do TRF4, classificou as ferramentas disponíveis em cinco níveis de maturidade, do uso livre de prompts até sistemas que leem dados estruturados de outros órgãos — como Dataprev e Receita Federal — diretamente no processo, com alucinação próxima de zero.
O consenso que emergiu
Com divergências de tom e de ênfase, o encontro revelou um ponto de convergência entre todos os participantes: a decisão não pode ser delegada à máquina. O que se debate é como usar a IA para ampliar a capacidade humana de julgar com mais qualidade, mais velocidade e mais acesso, sem abrir mão da empatia, da responsabilidade e do controle. Como resumiu o conselheiro Badaró ao encerrar o evento: a inteligência é artificial, mas a responsabilidade é nossa.
Redação Lawletter