INTELIGÊNCIA ARTIFICIAL, PRECEDENTES E A RESOLUÇÃO CNJ 615/2025

Artificial intelligence, precedents, and CNJ Resolution 615/2025

Anderson de Paiva Gabriel*   

Fabio Ribeiro Porto **  

Valter Shuenquener de Araújo***

 

Resumo: O artigo analisa criticamente a Resolução CNJ nº 615/2025, destacando seu papel inovador na regulamentação do uso de inteligência artificial no Poder Judiciário brasileiro. A Resolução estabelece diretrizes éticas, técnicas e institucionais para o desenvolvimento e a aplicação de sistemas de IA, com enfoque especial na categorização de riscos, governança, transparência e supervisão humana. Em particular, enfatiza-se o uso de modelos de linguagem de larga escala (LLMs) e sistemas de IA generativa, seus desafios, riscos e impactos sobre a produção e fundamentação de decisões judiciais. A análise destaca a importância da explicabilidade algorítmica, da qualificação dos operadores jurídicos e da responsabilização no uso de ferramentas tecnológicas. O texto defende a necessidade de uma “reserva de humanidade” como novo direito fundamental, capaz de assegurar que a inteligência artificial atue como suporte ao raciocínio jurídico, mas jamais o substitua. Com isso, propõe-se um modelo regulatório que preserve a centralidade do ser humano nas decisões judiciais, compatibilizando inovação tecnológica com a proteção dos direitos fundamentais.

 

Palavras-chave: inteligência artificial; Justiça 4.0; Resolução CNJ 615; precedentes judiciais; supervisão humana.

 

Abstract: This article critically examines CNJ Resolution 615/2025, highlighting its innovative role in regulating the use of artificial intelligence within the Brazilian Judiciary. The Resolution outlines ethical, technical, and institutional guidelines for the development and deployment of AI systems, with particular emphasis on risk categorization, governance, transparency, and human oversight. Special attention is given to large language models (LLMs) and generative AI systems, their challenges, risks, and their impact on the production and justification of judicial decisions. The analysis underscores the importance of algorithmic explainability, proper legal training, and accountability in the use of technological tools. The article argues for the recognition of a "humanity reserve" as a new fundamental right, ensuring that AI supports but does not replace human legal reasoning. Ultimately, it proposes a regulatory framework that maintains human centrality in judicial decisions while reconciling technological innovation with the protection of fundamental rights.

 

Keywords: artificial intelligence; Justice 4.0; CNJ Resolution 615; precedents; human oversight.

 

 

INTRODUÇÃO

 

Com a emergência da Revolução 4.0, o Direito enfrenta desafios e oportunidades inéditos. Esta nova era, caracterizada pela fusão das esferas física, digital e biológica, traz consigo um cenário de mudanças aceleradas e de complexidade crescente. Os avanços não apenas transformam a maneira como interagimos com o mundo, mas também como o Direito se aplica e se adapta a esses novos contextos.

No Brasil, esse processo de transformação e adaptação encontra marco fundamental na série de atos normativos aprovados pelo Conselho Nacional de Justiça (CNJ), que criaram um verdadeiro microssistema de justiça digital e instituíram o “Programa Justiça 4.0” (CNJ, 2024). Esse paradigma vai além da automação de tarefas e processos, englobando a adoção de tecnologias avançadas, como a inteligência artificial e o big data, em um modelo data driven de Poder Judiciário. Ela objetiva tornar a justiça mais acessível, eficiente e adaptável às necessidades de uma sociedade cada vez mais digitalizada (Ramidoff; Ramidoff; Ramidoff, 2022, p. 170).

Um dos aspectos mais transformadores da Justiça 4.0 é a integração da inteligência artificial (IA) no contexto jurídico. Não à toa, o Supremo Tribunal Federal publicou edital de chamamento público para conhecer protótipos de soluções de inteligência artificial que permitam resumir processos judiciais, preservando suas informações principais (Brasil, 2023a). Ao todo, 24 empresas, universidades e startups apresentaram propostas a partir do chamamento público, tendo o ministro Luís Roberto Barroso, no exercício da presidência do STF, asseverado (Brasil, 2023b):

 

Aqui estamos diante de um desafio, que é o difícil casamento entre o Direito e a Tecnologia da Informação. Tenho esperança de que a sinergia entre a justiça e a tecnologia nos ajudará a prestar melhores serviços para a população, com maior velocidade e melhora da qualidade do que entregamos.

 

1 A RESOLUÇÃO CNJ 615/2025

 

Em março de 2025, a Resolução CNJ nº 615 surgiu como um marco regulatório avançado para o desenvolvimento e uso de inteligência artificial no Poder Judiciário brasileiro, representando uma evolução significativa em relação à sua antecessora, a Resolução CNJ nº 332/2020. Essa nova normativa reflete a crescente importância da IA nos sistemas judiciais e a necessidade de se estabelecer diretrizes mais específicas e robustas para garantir que seu uso esteja alinhado com princípios éticos e com os direitos fundamentais. O documento estabelece parâmetros para todo o ciclo de vida das soluções de IA, desde sua concepção até sua possível descontinuidade, demonstrando uma visão abrangente e sistemática do tema.

O contexto de elaboração dessa Resolução está intrinsecamente relacionado ao acelerado desenvolvimento das tecnologias de inteligência artificial, particularmente dos grandes modelos de linguagem (LLMs) e sistemas de IA generativa, que revolucionaram as possibilidades de automação e apoio à decisão no âmbito judicial. Essas tecnologias oferecem potencial sem precedentes para aumentar a eficiência e a qualidade dos serviços judiciários, mas, em contrapartida, trazem consigo riscos significativos relacionados à privacidade, à segurança da informação, a vieses algorítmicos e a uma possível redução da centralidade humana nas decisões judiciais. A Resolução 615/2025 equilibra, assim, a promoção da inovação tecnológica com a proteção de valores essenciais ao Estado Democrático de Direito.

Nesse sentido, ela reconhece expressamente a imprescindibilidade da existência de uma regulamentação específica para o emprego de técnicas de inteligência artificial no Poder Judiciário, destacando a necessidade de plena transparência e publicidade para garantir que sua utilização esteja em conformidade com valores éticos fundamentais. Entre esses valores, são enfatizados a dignidade humana, o respeito aos direitos humanos, a não discriminação, o devido processo legal, a devida motivação e fundamentação da prestação jurisdicional, além da prestação de contas e responsabilização. Essa abordagem demonstra uma preocupação central com a manutenção da legitimidade e da confiança pública no sistema de justiça, mesmo diante da crescente automatização.

Foi criada, ainda, uma estrutura de governança que respeita a autonomia dos tribunais, permitindo o desenvolvimento de soluções inovadoras ajustadas aos contextos específicos de cada órgão, desde que observados os padrões de auditoria, monitoramento e transparência definidos. Essa flexibilidade é equilibrada com mecanismos de supervisão centralizados, como o Comitê Nacional de Inteligência Artificial do Judiciário, que tem a função de estabelecer diretrizes, avaliar riscos e promover boas práticas no uso de IA. A Resolução reconhece que a inovação tecnológica deve ser incentivada, mas dentro de parâmetros que garantam a proteção dos direitos fundamentais.

O sistema de classificação de riscos introduzido pela Resolução, e que encontra inspiração na dinâmica prevista na Lei de Inteligência Artificial da União Europeia, constitui uma de suas principais inovações, permitindo uma abordagem proporcional e baseada em evidências para a regulação do uso de IA no Judiciário. Ao categorizar as aplicações em alto e baixo risco, a norma estabelece requisitos diferenciados para o desenvolvimento, a implementação e o monitoramento, otimizando recursos e concentrando esforços onde os riscos são mais significativos. Essa abordagem reflete as melhores práticas internacionais em regulação de IA e demonstra um compromisso com a eficiência regulatória, sem comprometer a proteção dos direitos fundamentais e a qualidade da prestação jurisdicional.

 

1.1 Fundamentos e princípios

 

O art. 2º da citada resolução elenca doze fundamentos essenciais, começando pelo respeito aos direitos fundamentais e aos valores democráticos, consagrando que a tecnologia deve servir como instrumento de fortalecimento, e não de enfraquecimento, do Estado Democrático de Direito. Esse alicerce principiológico é complementado pela promoção do bem-estar dos jurisdicionados, evidenciando uma abordagem centrada no ser humano e no cidadão, e não meramente na eficiência processual ou administrativa.

A centralidade da pessoa humana é explicitamente afirmada como um dos fundamentos (inciso IV do art. 2º), sendo reforçada pela exigência de participação e supervisão humana em todas as etapas dos ciclos de desenvolvimento e utilização das soluções que adotem técnicas de inteligência artificial. Essa disposição demonstra a preocupação do CNJ em evitar a completa autonomização dos sistemas de IA, garantindo que o magistrado mantenha sua autoridade decisória e que haja responsabilização clara por todas as ações realizadas com auxílio da inteligência artificial. A supervisão humana é flexibilizada apenas para serviços meramente acessórios, procedimentais ou de suporte à decisão, mantendo-se inalterada para questões substantivas.

O art. 3º complementa os fundamentos ao estabelecer oito princípios que devem nortear o desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções de IA pelos tribunais. No inciso I, são elencadas a justiça, a equidade, a inclusão e a não discriminação abusiva ou ilícita, demonstrando a preocupação central com a eliminação de vieses algorítmicos que possam perpetuar ou amplificar desigualdades sociais. A transparência, eficiência, explicabilidade, contestabilidade, auditabilidade e confiabilidade das soluções são também estabelecidas como princípios essenciais, formando a base para uma utilização ética e responsável da tecnologia.

O art. 5º determina que os tribunais observarão a compatibilidade das soluções de IA com os direitos fundamentais em todas as fases do ciclo de vida da tecnologia, incluindo desenvolvimento, implantação, uso, atualizações e eventuais retreinamentos. Essa verificação contínua representa um avanço em relação a abordagens que consideram a conformidade com direitos fundamentais apenas na fase inicial de desenvolvimento, reconhecendo que novos riscos podem surgir ao longo do tempo, à medida que os sistemas evoluem e são expostos a novos dados e contextos.

Em seu art. 7º, são estabelecidos critérios para a qualidade e representatividade dos dados utilizados no desenvolvimento ou treinamento de modelos de IA, de modo que eles devem refletir adequadamente a diversidade de situações e contextos presentes no Poder Judiciário. Com isso, evitam-se vieses capazes de comprometer a equidade e a justiça decisória. A anonimização é estabelecida como regra geral para dados sigilosos ou protegidos por segredo de justiça, demonstrando a preocupação com a proteção de dados pessoais, em consonância com a Lei Geral de Proteção de Dados Pessoais (LGPD).

O art. 10 estabelece vedações absolutas ao uso de determinadas aplicações de IA no Poder Judiciário, proibindo sistemas que impossibilitem a revisão humana, que valorem características pessoais para prever crimes ou comportamentos futuros, que classifiquem pessoas com base em seu comportamento para avaliar plausibilidade de direitos e que utilizem padrões biométricos para reconhecimento de emoções. Essas vedações representam salvaguardas essenciais contra potenciais abusos da tecnologia que poderiam ameaçar direitos fundamentais, a independência dos magistrados ou a segurança da informação, demonstrando uma abordagem focada na precaução dos riscos mais graves associados à IA.

 

1.2 Categorização de riscos

 

A categorização de riscos representa um dos aspectos mais relevantes da nova disciplina no Brasil, estabelecendo um paradigma regulatório que permite abordagens proporcionais para diferentes tipos de aplicações de IA. Nesse sentido, o art. 9º determina que os tribunais devem realizar a avaliação das soluções que utilizem técnicas de inteligência artificial para definir seu grau de risco, baseando-se na categorização e nos critérios previstos no Capítulo III e no Anexo de Classificação de Riscos. Essa avaliação considera fatores como o potencial impacto nos direitos fundamentais, a complexidade do modelo, a sustentabilidade financeira, os usos pretendidos e potenciais, e a quantidade de dados sensíveis utilizados, garantindo uma análise abrangente dos riscos associados.

O Anexo de Classificação de Riscos da Resolução divide as aplicações de IA em duas categorias: alto risco (AR) e baixo risco (BR). São consideradas de alto risco cinco espécies de aplicações, identificadas como AR1 a AR5, que incluem sistemas destinados à identificação de perfis comportamentais, aferição da adequação dos meios de prova, averiguação de fatos como crimes, formulação de juízos conclusivos sobre aplicação de normas a casos concretos, e identificação facial ou biométrica para monitoramento de comportamento. Essas categorias são definidas com precisão, estabelecendo, também, exceções específicas para garantir que a classificação seja adequada ao risco real apresentado pela aplicação, evitando, assim, restrições desnecessárias a aplicações de baixo impacto.

As aplicações de baixo risco, categorizadas como BR1 a BR8, incluem sistemas destinados à execução de atos processuais ordinatórios, detecção de padrões decisórios, fornecimento de subsídios para tomada de decisão, produção de textos de apoio, aprimoramento de atividades humanas pré-existentes, análises estatísticas, transcrição de áudio e vídeo, e anonimização de documentos. Essas categorias refletem as aplicações mais comuns de IA no Judiciário atualmente, reconhecendo que, embora apresentem alguns riscos, estes são gerenciáveis com medidas de mitigação menos intensivas que aquelas exigidas para aplicações de alto risco. Essa categorização proporciona clareza regulatória e permite que os tribunais concentrem recursos em áreas de maior preocupação.

O § 1º do art. 11 determina que as soluções de alto risco devem ser submetidas a processos regulares de auditoria e monitoramento contínuo para supervisionar seu uso e mitigar potenciais riscos aos direitos fundamentais, à privacidade e à justiça. Essa abordagem reflete o princípio da precaução, reconhecendo que os riscos mais significativos exigem controles mais rigorosos. Por outro lado, o § 3º do mesmo artigo estabelece que as soluções de baixo risco devem ser monitoradas e revisadas periodicamente para assegurar que permaneçam dentro dos parâmetros preconizados e que eventuais mudanças tecnológicas ou contextuais não alterem essa categorização, demonstrando uma abordagem proporcionalmente menos intensiva, mas ainda vigilante.

A Resolução reconhece a natureza dinâmica dos riscos associados à IA. Nesse sentido, o § 2º do seu art. 11 determina que a categorização de soluções de alto risco deve ser revista pelo menos anualmente pelo Comitê Nacional de Inteligência Artificial do Judiciário. Essa revisão periódica permite adaptar a regulação à rápida evolução tecnológica e ao surgimento de novos riscos ou à mitigação de riscos previamente identificados. O art. 17, por sua vez, estabelece critérios detalhados para essa avaliação, incluindo o impacto negativo comprovado no exercício de direitos fundamentais, o potencial danoso de ordem material ou moral, a repercussão sobre pessoas vulneráveis e a irreversibilidade de possíveis resultados prejudiciais, entre outros.

A classificação de riscos é complementada pelos mecanismos de auditoria e monitoramento descritos no Capítulo XI da Resolução, que estabelece processos proporcionais ao nível de risco identificado. O art. 41 determina que o Comitê Nacional de Inteligência Artificial do Judiciário estabelecerá um protocolo de auditoria e monitoramento para modelos e soluções de IA, que deve considerar a identificação dos riscos, a definição de salvaguardas e a documentação produzida. Essa abordagem integrada de classificação, auditoria e monitoramento representa um sistema coerente de gestão de riscos, essencial para garantir que a inovação tecnológica ocorra dentro de parâmetros que protejam os direitos fundamentais e a qualidade da prestação jurisdicional.

 

1.3 Medidas de governança e supervisão

 

A Resolução CNJ nº 615/2025 estabelece um robusto sistema de governança para as soluções de inteligência artificial no Poder Judiciário, criando estruturas institucionais e processos que visam a garantir a conformidade com princípios éticos e jurídicos. O Capítulo V institui o Comitê Nacional de Inteligência Artificial do Judiciário, órgão central nessa estrutura de governança, com composição pluralista, que inclui representantes da magistratura, do Ministério Público, da Defensoria Pública, da OAB e da sociedade civil. Essa composição diversificada visa a garantir que diferentes perspectivas e interesses sejam considerados nas decisões sobre o uso de IA no Judiciário, promovendo legitimidade e confiança pública nas diretrizes estabelecidas.

As competências do Comitê, detalhadas no art. 16, são abrangentes e incluem a avaliação das hipóteses de categorização de riscos, o estabelecimento de normas para o sistema Sinapses, a consolidação de padrões de governança, a sugestão de convênios e acordos de cooperação, a avaliação da conveniência do uso de soluções de mercado, o monitoramento da capacitação em IA nos tribunais, a determinação de auditorias e o estabelecimento de padrões de transparência. Essa amplitude de atribuições demonstra a centralidade do Comitê na estrutura de governança de IA no Judiciário, funcionando como instância normativa, consultiva e de supervisão. Suas decisões podem ser submetidas ao Plenário do CNJ, garantindo integração com a estrutura decisória mais ampla do Conselho.

Por sua vez, o art. 12 estabelece requisitos mínimos para os processos internos de governança a serem implementados pelos tribunais, incluindo medidas de transparência, prevenção e mitigação de vieses discriminatórios, mecanismos de acompanhamento contínuo, desenvolvimento de soluções interoperáveis, preferência por soluções flexíveis e adoção de práticas de gestão de produto. Essas diretrizes buscam promover uma cultura organizacional que valorize a inovação responsável, a transparência e a colaboração, essenciais para o desenvolvimento e uso ético de IA. A resolução reconhece que a governança eficaz requer não apenas regras, mas, também, capacidades institucionais e uma cultura organizacional apropriada.

Para as soluções de alto risco, o art. 13 estabelece medidas adicionais de governança, incluindo requisitos específicos para dados de treinamento, registro de fontes e supervisão humana, documentação técnica, logs de operação, medidas para mitigar vieses e viabilização da explicabilidade. Essas exigências mais rigorosas refletem a abordagem baseada em riscos da Resolução, concentrando controles mais intensivos onde os potenciais impactos negativos são maiores. As medidas buscam garantir a transparência, a auditabilidade e a confiabilidade dessas soluções, essenciais quando estão em jogo direitos fundamentais dos jurisdicionados.

A avaliação de impacto algorítmico, regulamentada pelo art. 14, constitui outra importante ferramenta de governança, especialmente para soluções de alto risco. Esse processo contínuo, executado conforme diretrizes do Comitê Nacional, inclui auditorias regulares, monitoramento contínuo, revisões periódicas e ações corretivas quando necessário. A Resolução inova ao prever a participação pública nesse processo, ainda que de maneira simplificada, e o acompanhamento por representantes da OAB, do Ministério Público e da Defensoria Pública, promovendo transparência e controle social. As conclusões da avaliação devem ser públicas e acessíveis na plataforma Sinapses, reforçando o compromisso com a transparência.

A estrutura de governança é complementada por requisitos de registro e transparência, detalhados no Capítulo VII. O art. 24 determina que todas as soluções de IA, tanto em desenvolvimento quanto em uso, devem ser cadastradas no Sinapses (plataforma nacional que o CNJ construiu e mantém para o armazenamento, treinamento supervisionado, controle de versionamento, distribuição e auditoria dos modelos de Inteligência Artificial a serem utilizados no âmbito do Poder Judiciário), que manterá um catálogo organizado conforme a categorização de risco. Esse registro promove transparência e permite o monitoramento centralizado das soluções em uso no Judiciário brasileiro. O CNJ deverá publicar a relação das aplicações em seu site, com descrição em linguagem simples e indicação do grau de risco, facilitando o acesso à informação pelo público em geral e promovendo o controle social sobre o uso de IA no sistema de justiça.

 

1.4 Aspectos técnicos e operacionais

 

O Capítulo VIII, dedicado à qualidade e segurança, determina no art. 26 que os dados utilizados no desenvolvimento de soluções de IA devem ser preferencialmente provenientes de fontes públicas ou governamentais e submetidos a processo de curadoria de qualidade. Essa preferência por fontes oficiais visa a garantir a confiabilidade e a legitimidade dos dados utilizados, embora a Resolução permita o uso de dados de fontes não governamentais quando os dados oficiais forem insuficientes ou inadequados, desde que validados conforme critérios estabelecidos.

Buscando rigorosos padrões para a integridade e proteção dos dados, o art. 27 determina que o sistema deve impedir que os dados recebidos sejam alterados antes de sua utilização, por meio de mecanismos de controle de versões, tokens e registros para auditoria e monitoramento. O armazenamento seguro de conjuntos de dados utilizados em versões relevantes dos modelos é exigido, de forma a garantir que os dados possam ser auditados e revisados quando necessário. Essas medidas são essenciais para assegurar a rastreabilidade e a responsabilização no desenvolvimento de sistemas de IA, pois permitem a verificação da conformidade com requisitos legais e éticos em momento posterior.

A segurança da informação recebe tratamento prioritário, com o art. 28 estabelecendo que o armazenamento e a execução das soluções de IA devem garantir o isolamento dos dados compartilhados pelo tribunal, o que se dá por meio de mecanismos como criptografia e segregação de ambientes. O § 3º desse artigo detalha os padrões mínimos obrigatórios para provedores de serviços de nuvem e APIs, incluindo conformidade com a LGPD, certificações internacionais de segurança, criptografia robusta e transparência na política de retenção e descarte de dados. Essas exigências refletem as melhores práticas em segurança da informação e são essenciais para proteger dados sensíveis sob custódia do Judiciário.

Como não poderia deixar de ser, referido ato normativo dedica especial atenção aos modelos de linguagem de larga escala (LLMs) e a sistemas de IA generativa, reconhecendo o potencial transformador e os riscos específicos dessas tecnologias emergentes. O Capítulo VI estabelece condições detalhadas para seu uso, permitindo que magistrados e servidores utilizem essas ferramentas como auxílio à gestão ou apoio à decisão, preferencialmente por meio de acesso disponibilizado e monitorado pelos tribunais. O art. 19, § 3º, estabelece condições estritas para a contratação direta dessas soluções, incluindo capacitação específica, uso como mecanismo auxiliar e complementar, observância de políticas de proteção de dados e vedações quanto ao processamento de dados sigilosos e uso em atividades de alto risco.

A contratação de soluções de IA pelos tribunais é regulamentada pelo art. 20, que estabelece diretrizes como o compromisso com a legislação brasileira, proteção dos dados para treinamento, capacitação dos usuários, caráter auxiliar das ferramentas, proteção de dados sigilosos, segurança das informações, documentação e referências bibliográficas e mecanismos de privacy by design (abordagem que integra a privacidade e a proteção de dados pessoais em todas as fases de desenvolvimento de um projeto ou serviço) e privacy by default (princípio que garante que as configurações de privacidade em produtos, serviços e sistemas sejam, por padrão, as mais restritivas). Essas exigências visam a garantir que as soluções contratadas estejam em conformidade com os princípios estabelecidos e que sejam implementadas de forma a respeitar os direitos dos jurisdicionados e a autonomia dos magistrados.

O art. 31 estabelece boas práticas para o armazenamento e execução dos modelos de IA, o que inclui auditoria periódica e monitoramento contínuo, controles de acesso rigorosos e criptografia de dados, além de medidas de governança de dados relacionadas à educação da equipe, eliminação de dados pessoais após o treinamento, curadoria e monitoramento contínuo. A Resolução nº 615 recomenda a adoção de normas internacionais reconhecidas, como a ISO/IEC 42001, a série ISO/IEC 27000 e as do NIST, além das regulamentações locais aplicáveis. Essa ênfase em padrões internacionais demonstra a preocupação com a adoção das melhores práticas globais em segurança e governança de dados.

 

2 INTELIGÊNCIA ARTIFICIAL, PRECEDENTES E A RESOLUÇÃO CNJ 615/2025

 

A implementação da Resolução CNJ nº 615 enfrenta desafios significativos que precisam ser considerados para uma aplicação efetiva de suas diretrizes. Um primeiro desafio refere-se à capacitação técnica das equipes dos tribunais para compreender, desenvolver e auditar sistemas de inteligência artificial. A complexidade crescente dessas tecnologias, especialmente dos modelos de linguagem de larga escala e sistemas de IA generativa, exige conhecimentos especializados que ainda são escassos no serviço público. A aludida Resolução reconhece essa necessidade em diversos dispositivos, como o art. 3º, VIII, que estabelece como princípio a oferta de capacitação contínua, mas a operacionalização dessa capacitação em escala nacional representa um desafio considerável.

A supervisão humana efetiva dos sistemas de IA, princípio fundamental estabelecido pelo art. 3º, VII, instigará inúmeros debates e é o cerne de nossa análise. A Resolução nº 615 busca garantir que as decisões judiciais permaneçam sob controle humano, mas a complexidade e a opacidade de muitos sistemas de IA podem dificultar esse controle na prática. Os magistrados e servidores precisam não apenas de capacitação técnica, mas, também, de ferramentas que tornem os sistemas efetivamente compreensíveis e auditáveis, permitindo uma supervisão significativa. O desenvolvimento de métodos de explicabilidade algorítmica adequados ao contexto judicial representa uma área de pesquisa promissora e essencial para a aplicação efetiva da Resolução.

As perspectivas futuras para a regulação da IA no Judiciário brasileiro apontam para um refinamento contínuo do modelo estabelecido pela Resolução CNJ nº 615/2025, baseado na experiência acumulada e na evolução tecnológica. A previsão de revisão anual da categorização de riscos, estabelecida pelo art. 11, § 2º, demonstra o reconhecimento da natureza dinâmica desse campo. É provável que, com o amadurecimento do uso de IA no Judiciário, surjam necessidades de regulamentações mais específicas para determinados tipos de aplicações ou contextos jurisdicionais. O papel do Comitê Nacional de Inteligência Artificial do Judiciário será fundamental nessa evolução, tanto na identificação de lacunas regulatórias quanto na proposição de ajustes e complementações à Resolução.

O uso de Modelos de Linguagem de Larga Escala (LLMs) e de sistemas de IA generativa por magistrados e servidores, regulamentado pelo Capítulo VI, indubitavelmente, é a nova fronteira da inovação tecnológica no campo jurídico. A citada Resolução permite esse emprego, mas estabelece condições estritas, especialmente para dados sigilosos. Na prática, os tribunais precisarão desenvolver políticas internas detalhadas sobre o uso dessas ferramentas, criar mecanismos de capacitação contínua, implementar sistemas de registro automático do uso de IA em decisões judiciais e, possivelmente, desenvolver interfaces seguras para acesso a essas ferramentas. O § 4º do art. 19 determina que o Comitê elaborará um manual de boas práticas sobre o tema, que será um recurso valioso para orientação prática.

No Judiciário, a responsabilidade é particularmente importante para garantir que as decisões respeitem o devido processo legal e para que os usuários possam buscar responsabilização quando necessário. Além disso, seus usuários devem informar que a IA foi usada ao elaborarem documentos (Bonat; Vale; Pereira, 2023, p. 7) caso o produto obtido seja uma criação predominante da máquina e sem qualquer participação decisiva do humano em relação ao seu conteúdo (Gabriel; Porto; Araújo, 2025).

Além disso, no âmbito da IA Generativa (IAG), outra preocupação concerne à possibilidade de se produzir resultados que, embora convincentes, possam ser imprecisos ou desatualizados em relação ao estado atual da lei ou da jurisprudência. As “alucinações” ocorrem quando a IA gera conteúdo que não está contido nos dados utilizados no seu treinamento. Isso pode variar desde a criação de uma palavra inexistente até mesmo a produção de uma teoria jurídica nunca antes vista, ou a invenção de um precedente inexistente. Por exemplo, o ChatGPT poderia inventar um caso concreto, uma ementa ou até mesmo uma lei. Como seu modo de produção é baseado em probabilidade, o texto parecerá plausível e verossímil, mas pode ser completamente equivocado ou mesmo falso, e esse é um grande risco.

Outro problema envolve a originalidade e a autenticidade do conteúdo gerado. A IAG pode facilmente produzir textos jurídicos que pareçam autênticos, mas que, na realidade, sejam uma colagem de fontes existentes, sem o devido crédito ou autorização. Isso não apenas levanta questões éticas, mas pode resultar em violações de direitos autorais, expondo profissionais e instituições a litígios potenciais. A integridade acadêmica e profissional exige a criação e a utilização de conteúdo original ou a devida atribuição quando se faz uso de obras de terceiros (Gabriel; Porto; Araújo, 2025).

Os exemplos no mundo jurídico são muitos justamente pela sua ocasional utilização de maneira equivocada, e ocorrem quando a máquina é capaz de inventar um julgado inexistente ou uma teoria para um determinado autor que nunca sequer a mencionou (Gabriel; Porto; Araújo, 2025):

O primeiro caso a ficar famoso em que isso ocorreu foi o do advogado norte-americano Steven Schwartz, com 30 anos de experiência no escritório Levidow, Levidow & Oberman. Ele utilizou o ChatGPT para, representando um passageiro, auxiliar na elaboração de um recurso jurídico em uma ação movida contra a Avianca. O passageiro argumentava que a companhia aérea era responsável por causar ferimentos em seu joelho com um carrinho de serviço de bordo durante um voo para Nova Iorque.

O causídico que patrocinava o autor apresentou um documento de dez páginas contendo citações de casos que supostamente envolviam companhias aéreas, tal como o precedente Martinez v. Delta Airlines. No entanto, as decisões citadas eram desconhecidas tanto pelos advogados da Avianca quanto pelo juiz, o que levantou dúvidas sobre sua autenticidade. Schwartz, então, admitiu que as informações geradas pelo ChatGPT eram fictícias.

Em declaração juramentada, Schwartz afirmou que não tinha a intenção de enganar o tribunal ou a companhia aérea e que não estava ciente de que o ChatGPT poderia gerar informações falsas. Ele expressou arrependimento pelo uso de inteligência artificial sem verificação prévia da autenticidade das informações.

A declaração incluía prints de conversas entre Schwartz e o ChatGPT. Quando questionado sobre a veracidade da informação, o ChatGPT inicialmente a confirmou como correta, mas depois a corrigiu, admitindo o erro (Castro, 2023).

Outro caso de repercussão aconteceu no Brasil. O ministro Benedito Gonçalves, então Corregedor-Geral da Justiça Eleitoral, impôs uma multa de R$ 2.604,00 por litigância de má-fé a um advogado que utilizou o ChatGPT para redigir uma petição. O advogado pretendia participar como amicus curiae em uma investigação sobre suposto abuso de poder político praticado pelo ex-Presidente da República Jair Bolsonaro.

Em sua decisão, o ministro Gonçalves destacou que a resolução do TSE não prevê o uso do amicus curiae naquele contexto e criticou a abordagem do advogado, que admitiu não ter contribuições pessoais a oferecer e que, em vez disso, submeteu à apreciação judicial uma “fábula” criada pela inteligência artificial. Além disso, ele ressaltou que as expressões usadas na petição indicavam o desejo do advogado de ganhar atenção indevida para seu protesto.

Considerando o conhecimento jurídico presumido do advogado, o ministro julgou inadequado o material apresentado e considerou o comportamento do advogado como temerário. Assim, rejeitou o pedido de intervenção como amicus curiae e aplicou a multa por litigância de má-fé, destacando que seria dobrada em caso de reincidência (Advogado [...], 2023).

Por fim, temos o caso de um magistrado do Tribunal Regional Federal da 1ª Região (TRF1), que está sendo investigado pelo Conselho Nacional de Justiça (CNJ), devido ao uso do ChatGPT na elaboração de uma decisão judicial. O advogado representante da parte derrotada na ação identificou o uso da ferramenta por causa de uma jurisprudência inexistente na sentença, formalizando uma representação contra o juiz (Castro, 2023). Esses são apenas alguns exemplos para ilustrar como as “alucinações” na IA generativa podem representar um problema sério, pois levam a informações imprecisas ou mesmo falsas.

A responsabilidade do usuário da IA, portanto, é dupla: assegurar a transparência e validar os resultados. Somente por meio dessa utilização atenta e consciente poderemos navegar com segurança nas águas turbulentas da inovação tecnológica, garantindo que a IA seja uma força para o bem, capaz de ampliar nossa capacidade de entender e melhorar o mundo ao nosso redor (Gabriel; Porto; Araújo, 2025).

 

CONCLUSÃO

 

Profissões como a de advogado, juiz e promotor, tradicionalmente vistas como conservadoras e resistentes a mudanças, encontram-se à beira de uma metamorfose, impulsionadas pela capacidade da IA generativa de otimizar tarefas, desde a pesquisa jurisprudencial até a redação de peças processuais. As ferramentas de IAG estão redefinindo o paradigma de trabalho, permitindo aos profissionais do Direito realizar mais tarefas com menor dispêndio de tempo, aumentando a produtividade e, por consequência, a competitividade no mercado (Gabriel; Porto; Araújo, 2025).

A utilização da IAG na prática jurídica, contudo, não substitui o julgamento humano e a expertise legal, conforme preconiza a Resolução CNJ nº 615/2025. Ao contrário, aquela atua como um complemento, ampliando as capacidades dos profissionais ao contribuir para o desenvolvimento de uma base sólida, permitindo melhor análise e interpretação.

A essência do Direito transcende a mera aplicação de fórmulas e a execução de operações lógicas. Nas profundezas de sua prática, o Direito é permeado por valorações complexas que são extraídas da experiência humana, refletindo as diversidades cultural, histórica e ética que compõem o tecido social. Nesse cenário, a aplicação do Direito se revela tanto como uma arte quanto como uma ciência. A inteligência artificial, apesar de suas capacidades notáveis de processamento e análise de dados, encontra-se especialmente insensível ao contexto cultural e às singularidades que cada caso apresenta.

Além disso, a capacidade de abordar casos atípicos – aqueles que desafiam as normas estabelecidas e oferecem uma ocasião para a introdução de novas figuras jurídicas ou a mudança de entendimento – ressalta a importância do elemento humano na aplicação do Direito (Maccormick, 2008; Waldron, 2004, p. 256–257). A história jurídica está repleta de momentos em que a sensibilidade, a criatividade e a coragem de juristas permitiram a evolução do Direito, adaptando-o às demandas emergentes da sociedade (Levitsky; Ziblatt, 2018).

Para ficar em poucos exemplos, confira-se as decisões do Supremo Tribunal Federal que trataram do (i) nepotismo (RE 1133118 RG, Rel. Min. Luiz Fux, Tribunal Pleno, julgado DJe de 21.06.2018); (ii) direito de greve dos servidores públicos (MI 670, Rel. Min. Maurício Corrêa, Rel. p/ Acórdão Min. Gilmar Mendes, Tribunal Pleno, DJe-206 de 30.10.2008); (iii) células-troncos (ADI 3510, Rel. Min. Ayres Britto, Tribunal Pleno, DJe-096 de 27.05.2010); (iv) união homoafetiva (ADI 4277, Rel. Min. Ayres Britto, Tribunal Pleno, DJe-198 de 13.10.2011); (v) alteração do prenome e sua classificação de gênero sem a realização da cirurgia de redesignação sexual (RE 670422/RS, Rel. Min. Dias Toffoli, julgamento em 15.8.2018. Ata de julgamento publicada no DJe de 20.8.2018); (vi) criminalização da homofobia (ADO 26, Rel. Min. Celso de Mello, julgamento em 13.6.2019. Ata de julgamento publicada no DJe de 1º.7.2019); (vii) covid-19: saúde pública e competência concorrente dos entes federados (ADI 6341 MC-Ref, Rel, Min Marco Aurélio, Relator p/ Acórdão: Min. Edson Fachin, DJe de 13.11.2020), dentre outros. Essa flexibilidade e abertura para a inovação, qualidades eminentemente humanas, são indispensáveis para a sua dinâmica e permanecem fora do alcance da IAG. Oliver Wendell Holmes Jr. (1991, p. 1–2), um dos juristas norte-americanos mais famosos, já sustentava: “a vida do Direito não tem sido lógica; tem sido experiência” (Gabriel, 2022, p. 59).

No Brasil, o Supremo Tribunal Federal proferiu diversas decisões que podem ser consideradas iluministas no sentido exposto acima. A Corte, por exemplo, reconheceu as uniões entre pessoas do mesmo sexo como entidade familiar e estendeu-lhes o regime jurídico aplicável às uniões estáveis heteroafetivas, com base no direito à não discriminação em razão do sexo e na proteção constitucional conferida à família (Brasil, 2011). Em 2016, julgou inconstitucional norma que regulava a vaquejada, antiga manifestação cultural do nordeste do país em que uma dupla de vaqueiros, montada a cavalos, tem a meta de derrubar o touro em uma área demarcada. Apesar da popularidade da prática, o Tribunal entendeu que ela ensejava tratamento cruel de animais vedado pela Constituição da República (Brasil, 2016b). Lamentavelmente, uma Emenda Constitucional foi aprovada posteriormente à decisão, com vistas a superá-la, procurando legitimar a prática considerada cruel pelo STF. Mais recentemente, a Corte declarou a inconstitucionalidade do crime de aborto até o terceiro mês de gestação, com base nos direitos sexuais e reprodutivos das mulheres, em seu direito à autonomia, à integridade física e psíquica e à igualdade (Brasil, 2016a).

O papel iluminista também se manifesta em diversos casos paradigmáticos decididos por cortes estrangeiras. No famoso caso Lüth (ALEMANHA, 1958), o Tribunal Constitucional Federal alemão reconheceu a possibilidade de reinterpretar normas infraconstitucionais de direito privado, à luz dos valores expressos pelos direitos fundamentais (Quint, 1989, p. 247-290). [...] Em 1995, em sua primeira grande decisão, e ainda sob a Constituição interina que regeu a transição no país, a recém-criada Suprema Corte da África do Sul aboliu a pena de morte, pondo fim a uma prática de décadas de execução de criminosos condenados por crimes graves, em sua grande maioria negros (África do Sul, 1995). Diferentemente do que se possa imaginar, a decisão foi contrária à boa parte da população, havendo, ainda hoje, partidos e grupos organizados formados por brancos e negros em favor do retorno da pena capital. Em 2014, em um caso que se tornou bastante famoso devido ao seu ineditismo, a Suprema Corte da Índia reconheceu aos transgêneros o direito à autoidentificação de seu sexo como masculino, feminino ou “terceiro gênero” (National Legal Services Authority v. Union of India, 2014) (Barroso, 2018).

O avanço exponencial da inteligência artificial como força transformadora na sociedade contemporânea, portanto, coloca em destaque a necessidade de um novo paradigma legal e ético capaz de enquadrar seu desenvolvimento e aplicação.

Harari, Harris e Raskin (2023) utilizam a analogia do avião com 10 % de chance de acidente para alertar sobre os riscos advindos da inteligência artificial, enquanto o “padrinho da IA”, Geoffrey Hinton, declarou que “está arrependido do seu trabalho” e descreveu alguns dos perigos dos chatbots como “bastante assustadores” (RTPT, 2023). Há um temor crescente de que a IA possa levar à erosão dos valores humanos e à perda de nosso senso de humanidade, o que torna indispensável preservar a “reserva de humanidade” em seu uso (EUA [...], 2023).

Com efeito, em meio a essa revolução tecnológica, o imperioso controle humano sobre a IAG – a “reserva de humanidade” (Solé, 2019, p. 28) – deve ser visto como um novo direito fundamental. Esse conceito propõe um marco regulatório ético para a evolução tecnológica, garantindo que a máquina permaneça sob a supervisão do ser humano, de maneira a assegurar a proteção integral dos direitos constitucionalmente tutelados. Isso significa que o “valor do controle humano como um direito reside no seu sentido instrumental, ou seja, justifica-se porque protege direitos intrínsecos ao ser humano, em cenários ainda não regulados satisfatoriamente, como o da inteligência artificial” (Anchez Vasquez; Toro-Valencia, 2021).

Implementar a “reserva de humanidade” como um direito fundamental implica desenvolver mecanismos, na linha do que preconiza a Resolução CNJ nº 615/2025, através dos quais os seres humanos possam exercer um controle efetivo sobre as máquinas, garantindo que decisões importantes sejam tomadas com compreensão, empatia e uma ponderação moral que só o ser humano pode oferecer. Essa abordagem não busca frear a inovação, mas direcioná-la, de forma que sirva ao bem-estar humano, respeitando os limites éticos e legais estabelecidos pela sociedade.

Dessa forma, concebemos a IAG como um auxílio de qualificação ímpar (Greco, p. 63), integrando-se ao conjunto de recursos já à disposição do profissional jurídico e possibilitando a busca por precedentes de forma mais eficiente. No entanto, a decisão final quanto ao conteúdo de uma peça jurídica, seja qual for ela, carregada de valorações e de sensibilidade ao contexto, deve permanecer como prerrogativa exclusiva do ser humano, garantindo que o Direito continue a ser um instrumento de justiça, equidade e humanidade.

 

 

REFERÊNCIAS

ADVOGADO usa ChatGPT em petição e é multado pelo TSE: “fábula”. Migalhas, [s.l.], 19 abr. 2023. Disponível em: https://www.migalhas.com.br/quentes/385080/advogado-usa-chatgpt-em-peticao-e-e-multado-pelo-tse--fabula. Acesso em: 8 fev. 2024.

ÁFRICA DO SUL. S v Makwanyane and Another (CCT 3/94), julgamento da Constitutional Court, 1995.

 

ALEMANHA. Bundesverfassungsgericht (Tribunal Constitucional Federal). Lüth-Urteil, BVerfGE 7, 198, julgado em 15 jan. 1958.

 

ANCHEZ VASQUEZ, Carolina; TORO-VALENCIA, José. El derecho al control humano: una respuesta jurídica a la inteligencia artificial. Revista chilena de derecho tecnología, Santiago, v. 10, n. 2, p. 211-228, dic. 2021. DOI: http://dx.doi.org/10.5354/0719-2584.2021.58745. Disponível em:http://www.scielo.cl/scielo.php?script=sci_arttext&pid=S071925842021000200211&lng=es&nrm=iso. Acesso em: 29 mar. 2023.

 

ASIMOV, Isaac. Eu Robô. Tradução Aline Storto Pereira. São Paulo: Editora Aleph, 2014.

 

BARROSO, Luís Roberto. Contramajoritário, representativo e iluminista: os papéis das supremas cortes e tribunais constitucionais nas democracias contemporâneas. Revista Interdisciplinar de Direito, Valença, v. 16, n. 1, p.217-266, jan./jun. 2018.

 

BONAT, Débora; VALE, Luís Manoel Borges do; PEREIRA, João Sergio dos Santos Soares. Inteligência artificial generativa e a fundamentação da decisão judicial. Revista de Processo – RePro, [s.l.], v. 346, dez. 2023.

 

BRASIL. Supremo Tribunal Federal. Habeas Corpus 124.306. Direito processual penal. Habeas corpus. Prisão preventiva. Ausência dos requisitos para sua decretação. Inconstitucionalidade da incidência do tipo penal do aborto no caso de interrupção voluntária da gestação no primeiro trimestre. Ordem concedida de ofício.  Relator: Ministro Luís Roberto Barroso, julgado em 29 nov. 2016a.

 

BRASIL. Supremo Tribunal Federal. Ação Direta de Inconstitucionalidade 4983. Relator: Ministro Marco Aurélio, julgado em 16 dez. 2016b.

 

BRASIL. Supremo Tribunal Federal. Ação Direta de Inconstitucionalidade 4277. Relator: Ministro Ayres Britto, julgado em 14 de outubro de 2011.

 

BRASIL. Supremo Tribunal Federal. STF faz chamamento público para projetos de inteligência artificial. Brasília, DF: STF, 7 nov. 2023a. Disponível em: https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=518467&ori=1. Acesso em: 7 fev. 2024.

 

BRASIL. Supremo Tribunal Ferderal. STF recebe propostas de uso de inteligência artificial para agilizar serviços. Brasília, DF: STF, 18 dez. 2023b. Disponível em: https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=522767. Acesso em: 3 jul. 2025.

 

CASTRO, Grasielle. Advogado pode ser punido por usar ChatGPT em ação. O motivo: invenção de precedentes. Jota, [s.l.], 29 maio 2023. Disponível em: https://www.jota.info/jotinhas/advogado-pode-ser-punido-por-usar-chatgpt-em-acao-o-motivo-invencao-de-precedentes-29052023. Acesso em: 31 maio 2023.

 

CASTRO, Grasielle. Juiz do TRF‑1 que usou o ChatGPT para elaborar decisão será investigado pelo CNJ. Jota, [s.l.], 13 nov. 2023. Disponível em: https://www.jota.info/justica/juiz-do-trf1-que-usou-o-chatgpt-para-elaborar-decisao-sera-investigado-pelo-cnj-13112023. Acesso em: 8 fev. 2024.

 

CONSELHO NACIONAL DE JUSTIÇA. Justiça 4.0. Brasília, DF: CNJ, 2024. Disponível em: https://www.cnj.jus.br/tecnologia-da-informacao-e-comunicacao/justica-4-0/. Acesso em: 24 jan. 2025.

 

EUA, China, União Europeia e outros países assinam 1ª declaração mundial sobre riscos da IA. O Globo, Rio de Janeiro, 1 nov. 2023. Disponível em: https://oglobo.globo.com/economia/noticia/2023/11/01/eua-china-uniao-europeia-e-outros-paises-assinam-1a-declaracao-mundial-sobre-riscos-da-ia.ghtml. Acesso em: 01 maio 2025.

 

GABRIEL, Anderson de Paiva; PORTO, Fabio Ribeiro; ARAÚJO, Valter Shuenquener de. Justiça 4.0 e a Inteligência Artificial: pragmática eficiência. Revista de Análise Econômica do Direito, São Paulo, ano 5, v. 9, jan./jun. 2025.

 

GABRIEL, Anderson de Paiva. O pragmatismo como paradigma do Direito Processual Penal contemporâneo: tecnologia, consenso e whistleblowing. Londrina: Thoth, 2022.

 

GRECO, Luís. Poder de julgar sem responsabilidade de julgador: a impossibilidade jurídica do juiz-robô. Rio de Janeiro: Marcial-Pons, 2022

 

HARARI, Yuval; HARRIS, Tristian; RASKIN, Aza. You can have the blue pill or the red pill, and we’re out of blue pills. The New York Times, New York, 24 de mar. 2023. Disponível em: https://stanfordrewired.com/post/137-questions. Acesso em: 27 mar. 2023.

 

HOLMES JR, Oliver Wendell. The Common Law. New York: Dover Publications, 1991

 

ÍNDIA. National Legal Services Authority v. Union of India, julgamento de 2014.

 

QUINT, Peter E. Free Speech and Private Law in German Constitutional Theory. Maryland Law Review, [s.l.], v. 48, n. 2, p. 247-290, 1989.

 

RAMIDOFF, Mário Luiz Luísa; RAMIDOFF, Munhoz Bürgel; RAMIDOFF, Henrique Munhoz Bürgel. Justiça 4.0 e o processo contemporâneo – Aperfeiçoamento tecnológico para efetividade da Justiça – Acessibilidade, usabilidade, celeridade, e (re)soluções inovadoras. In: FUX, Luiz; MARTINS, Humberto; SHUENQUENER, Valter (coord.). O Judiciário do futuro: Justiça 4.0 e processo contemporâneo. Curitiba: Revista dos Tribunais, 2022.

 

RTPT. “Padrinho” da inteligência artificial alerta para os perigos da tecnologia. RTP, em entrevista à BBC, 2 mai. 2023. Disponível em: https://www.rtp.pt/noticias/mundo/padrinho-da-inteligencia-artificial-alerta-para-perigos-da-tecnologia_n1483476. Acesso em: 01 maio 2025.

 

SOLÉ, Juli Ponce. Inteligencia artificial, derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico. Revista General de Derecho Administrativo, [s.l.], v. 50, 2019. Disponível em: https://bit.ly/2YK54B6. Acesso em: 27 mar. 2023.

 

 

 

 



* Professor Adjunto de Processo Penal da Universidade do Estado do Rio de Janeiro (UERJ). Pós-Doutor, Doutor e Mestre em Direito Processual pela UERJ. Pesquisador Visitante (Visiting Scholar) na Stanford Law School (Stanford University) e na Berkeley Law School (University of California-Berkeley). Atualmente, exerce a função de Juiz Auxiliar no Supremo Tribunal Federal (STF). Juiz de Direito do Tribunal de Justiça do Estado do Rio de Janeiro (TJRJ).

** Doutor em Direito pela Universidade de Lisboa. Mestre em Direito na Universidade do Estado do Rio de Janeiro (UERJ). Pós-Graduado em Direito Privado na Universidade Federal Fluminense (UFF). Juiz de Direito e Professor Universitário. Autor de Livro e artigos jurídicos. Juiz de Direito do Tribunal de Justiça do Estado do Rio de Janeiro (TJRJ).

*** Professor Associado de Direito Administrativo da Faculdade de Direito da UERJ. Professor pesquisador da Universidade Nove de Julho (UNINOVE). Doutor em Direito Público (UERJ). Doutorado-sanduíche pela Ruprecht-Karls Universität Heidelberg. Juiz Federal. Juiz Auxiliar da Presidência do CNJ.