
Em meio à disseminação das inteligências artificiais (IAs) nas rotinas dos tribunais estaduais, federais, do trabalho e Cortes superiores, o Conselho Nacional de Justiça (CNJ) definiu, em março deste ano, as regras detalhadas sobre o tema.
Uma das principais definições da Resolução 615/2025 do CNJ é de que os tribunais não precisam identificar aquelas decisões e documentos que foram produzidos com uso de IA. Assim, não é possível, ao usuário final, diferenciar uma sentença feita exclusivamente por humanos de outra feita com uso da nova tecnologia.
Segundo o desembargador Ricardo Hermann, coordenador do Comitê de Governança de Segurança da Informação do Tribunal de Justiça do Rio Grande do Sul (TJRS), que participou dos debates sobre o texto da Resolução 615, identificar no processo o uso de IA poderia gerar uma ideia errada de que a decisão foi tomada por um robô.
— É que o convencimento do juiz se dá com o emprego de IA e também se daria independentemente do uso da ferramenta. Esse é o ponto central, porque (identificar as decisões com IA) daria impressão para o usuário de que de fato um robô fez parte ou integralmente aquela decisão, quando, na verdade, isso não reflete a realidade. Quem se convenceu de que a solução daquele caso era aquela foi o juiz — aponta Hermann.
No Judiciário gaúcho, em um mês de operação, a ferramenta de IA utilizada pelos magistrados produziu mais de 95 mil minutas, rascunhos de decisões — das quais milhares já foram publicadas e se tornaram despachos em processos.
Inteligência artificial no sistema judicial
Ferramenta auxiliar
Outro ponto fundamental na Resolução 615 é de que a IA só pode ser usada como ferramenta auxiliar, sendo proibida a sua utilização como instrumento autônomo de tomada de decisões.
Assim, o magistrado segue integralmente responsável pela condução do processo e pelos despachos produzidos.
Riscos
A norma do CNJ explicita, na abertura de seu texto, os graves riscos que o uso ilimitado da IA generativa podem gerar, como:
- Ameaças à soberania nacional
- Intensificação de parcialidades e vieses discriminatórios
Para evitar que a IA atue de forma preconceituosa nos processos, o CNJ decidiu proibir o uso de ferramentas de IA que tentem definir traços de personalidade e comportamento de pessoas.
No mesmo artigo 10 da resolução, ficou proibida a classificação ou o ranqueamento das pessoas, seja com base no comportamento individual seja considerando o grupo social a que essas pessoas pertencem. Assim, a análise de comportamento ou de sentimentos está, neste momento, proibida nas IAs da Justiça brasileira.
"São vedados ao Poder Judiciário, por acarretarem risco excessivo (...) aos direitos fundamentais dos cidadãos (...) o desenvolvimento e a utilização de soluções: (...) que valorem traços da personalidade, características ou comportamentos (...) para fins de avaliar ou prever o cometimento de crimes ou a probabilidade de reiteração delitiva na fundamentação de decisões judiciais (...)", diz trecho da resolução.
Na mesma parte da norma, o CNJ proibiu a identificação e a autenticação de padrões biométricos para o reconhecimento de emoções.
O CNJ determinou ainda que os tribunais informem em até 72 horas quando forem registrados eventos adversos relacionados ao uso de soluções de inteligência artificial, o que inclui eventuais casos de "alucinação".






