Desafios para o uso de aplicações baseadas em inteligência artificial no Poder Judiciário a partir do advento da Resolução n.º 615 do CNJ

8 de abril de 2025

O ano de 2025 parece iniciar um marco importante no que se refere à utilização de aplicações baseadas em inteligência artificial pelo Poder Judiciário, em especial com a edição, em 11 de março, da Resolução n.º 615 do Conselho Nacional de Justiça[1]. Apesar de não ser a primeira iniciativa neste sentido[2], a novel regulamentação é a primeira editada após o advento e popularização dos modelos de inteligências artificiais generativas e entrará em vigor em julho deste ano, tendo por objetivo “promover a inovação tecnológica e a eficiência dos serviços judiciários de modo seguro, transparente, isonômico e ético, em benefício dos jurisdicionados e com estrita observância de seus direitos fundamentais”.

Disciplinar o desenvolvimento, a governança e o uso responsável de soluções que adotam técnicas de inteligência artificial no âmbito do Poder Judiciário, não será uma tarefa fácil, especialmente quando se verifica as persistentes dificuldades em padronizar e regular o uso de meio eletrônico na tramitação de processos judiciais, missão iniciada em 2006, com o advento da Lei n.º 11.419. Decorridos quase 20 (vinte) anos, ainda se vislumbram inúmeros desafios no desenvolvimento de sistemas informáticos padronizados pelos órgãos do Poder Judiciário.

A nova resolução n.º 615 do CNJ assegura a autonomia dos tribunais na governança das soluções de IA, que poderão implementar soluções desenvolvidas aos contextos específicos de cada tribunal, ao tempo que os exorta a priorizar o desenvolvimento colaborativo de mecanismos que promovam “a interoperabilidade e a disseminação de tecnologias, códigos, bases de dados e boas práticas com outros órgãos do Poder Judiciário”.

O ponto central da resolução é a criação de parâmetros para o uso responsável de soluções de IA pelo Poder Judiciário, estabelecendo como fundamentos a centralidade da pessoa humana e respeito aos direitos fundamentais, que se verificam, por exemplo, na exigência de supervisão humana em todas as etapas dos ciclos de desenvolvimento e de utilização das soluções que adotem técnicas de inteligência artificial.

Antes do uso em larga escala por servidores e magistrados, torna-se essencial investir em capacitação contínua sobre os riscos da automação, vieses algorítmicos e análise crítica dos resultados gerados por IA, afinal, a utilização de soluções de IA não podem negligenciar a proteção de dados pessoais, o acesso à informação e o respeito ao segredo de justiça, sendo imperioso destacar dentre os princípios de proteção de dados pessoais elencados no art. 6º da Lei Geral de Proteção de Dados (Lei n.º 13.709/2018) a responsabilização e prestação de contas, vale dizer, a necessidade de demonstração, pelo agente estatal, da adoção de medidas eficazes e capazes de comprovar a observância e o cumprimento das normas de proteção de dados pessoais e, inclusive, da eficácia dessas medidas, tarefa que dependerá primordialmente da atuação do Comitê Nacional de Inteligência Artificial do Judiciário.

Desde que observadas as cautelas necessárias quanto ao segredo de justiça e à proteção de dados pessoais, deveremos observar um significativo crescimento no desenvolvimento ou treinamento de modelos de inteligência artificial pelo Poder Judiciário, a quem competirá analisar o potencial impacto nos direitos fundamentais quanto aos usos pretendidos, a sustentabilidade financeira e a quantidade de dados sensíveis utilizados.

Anote-se que a referida Resolução, em seu art. 10, veda a utilização de soluções que não possibilitem a revisão humana dos resultados ou que gerem dependência absoluta do usuário em relação ao resultado proposto, sem possibilidade de alteração ou revisão. Além disso, estão proibidos o desenvolvimento de aplicações que classifiquem ou ranqueiem pessoas naturais, “com base no seu comportamento ou situação social ou ainda em atributos da sua personalidade, para a avaliação da plausibilidade de seus direitos, méritos judiciais ou testemunhos”.

Uma grande preocupação persiste: como serão desenvolvidos os mecanismos de explicabilidade das soluções baseadas em IA que serão implementadas, de modo que suas decisões e operações sejam compreensíveis e auditáveis pelos operadores judiciais. Neste sentido o art. 33 da resolução dispõe que “os usuários externos deverão ser informados, de maneira clara, acessível e objetiva, sobre a utilização de sistemas baseados em IA nos serviços que lhes forem prestados, devendo ser empregada linguagem simples, que possibilite a fácil compreensão por parte de pessoas não especializadas”.

O citado dispositivo ainda estabelece em seu §3º que “a comunicação sobre o eventual uso da IA no texto de decisões judiciais será uma faculdade de seu signatário, observado o disposto no inciso IV do § 3º e o § 6º do art. 19 desta Resolução”. Bom seria que a recomendação facultativa se tornasse prática obrigatória consolidada entre todos os usuários de soluções de IA no Poder Judiciário, facilitando sobremaneira a auditabilidade de tais aplicações tecnológicas por toda a sociedade.

Neste ponto deve-se destacar a bem-sucedida experiência do TSE, que editou a Resolução 23.732/2024 para introduzir novas regras quanto ao uso de conteúdo sintético para propaganda eleitoral (CF. Resolução 23.610/2019) para as eleições de 2024, estabelecendo no art. 9-B que “a utilização na propaganda eleitoral, em qualquer modalidade, de conteúdo sintético multimídia gerado por meio de inteligência artificial para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons impõe ao responsável pela propaganda o dever de informar, de modo explícito, destacado e acessível que o conteúdo foi fabricado ou manipulado e a tecnologia utilizada”[3]

Assim começam a se consolidar os cânones para uso responsável e consciente da inteligência artificial no Poder Judiciário, que não pode negligenciar os padrões já estabelecidos para a segurança da informação, sobretudo diante do grande volume de dados sensíveis que serão necessários para o treinamento e implementação de modelos de IA nas atividades judiciárias.


Notas

[1] Disponível em https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf. Acesso em 30.03.2025.

[2] A resolução n.º 332 do CNJ, de 21 de agosto de 2020, já tratava do tema, trazendo em sua exposição de motivos a preocupação com a aplicação da inteligência artificial no Judiciário de modo compatível com os Direitos Fundamentais, atendendo a critérios éticos de transparência, previsibilidade, possibilidade de auditoria e garantia de imparcialidade e justiça substancial. Disponível em  https://atos.cnj.jus.br/files/original191707202008255f4563b35f8e8.pdf. Acesso em 30.03.2025.

[3] Para tanto, o § 1º do citado art. 9-B estabelecia que “as informações mencionadas no caput deste artigo devem ser feitas em formato compatível com o tipo de veiculação e serem apresentadas: I – no início das peças ou da comunicação feitas por áudio; II – por rótulo (marca d’água) e na audiodescrição, nas peças que consistam em imagens estáticas;  III – na forma dos incisos I e II desse parágrafo, nas peças ou comunicações feitas por vídeo ou áudio e vídeo;  IV – em cada página ou face de material impresso em que utilizado o conteúdo produzido por inteligência artificial”.


Marcos Ehrhardt Júnior

Doutor em Direito pela Universidade Federal de Pernambuco (UFPE). Professor de Direito Civil da Universidade Federal de Alagoas (Ufal) e do Centro Universitário Cesmac. Editor da Revista Fórum de Direito Civil (RFDC). Vice-Presidente do Instituto Brasileiro de Direito Civil (IBDCivil). Diretor Nordeste e Presidente da Comissão de Enunciados do Instituto Brasileiro de Direito de Família (IBDFAM). Membro fundador do Instituto Brasileiro de Direito Contratual (IBDCont) e do Instituto Brasileiro de Estudos de Responsabilidade Civil (IBERC). Advogado. E-mail: contato@marcosehrhardt.com.br.

Deixar uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *