A 5ª Turma do Superior Tribunal de Justiça (STJ) proferiu decisão inédita ao julgar o Habeas Corpus 1.059.475/SP, em abril de 2026, estabelecendo parâmetros sobre os limites do uso de inteligência artificial generativa no processo penal brasileiro. O caso envolve questões que vão desde a licitude da utilização de ferramentas de IA até a confiabilidade epistêmica dos relatórios produzidos automaticamente, sem a supervisão direta da racionalidade humana. A decisão tem potencial para influenciar profundamente a forma como tribunais brasileiros lidam com provas geradas ou auxiliadas por sistemas automatizados.
O HC 1.059.475/SP colocou em discussão um tema que ainda carece de regulamentação específica no ordenamento jurídico brasileiro: em que medida produtos de inteligência artificial generativa podem ser admitidos como elementos probatórios em ações penais. A inteligência artificial generativa refere-se a sistemas capazes de criar textos, imagens e relatórios a partir de padrões aprendidos em grandes volumes de dados, sem que o conteúdo gerado passe obrigatoriamente por uma verificação humana. O principal questionamento do caso era saber se esses materiais podem ser considerados provas legítimas dentro do processo penal.
A 5ª Turma do STJ, órgão colegiado composto por cinco ministros responsável por analisar matérias de direito penal e processual penal, examinou o caso sob dois eixos principais. O primeiro diz respeito à licitude do uso de ferramentas de IA, ou seja, se a mera utilização dessas tecnologias na produção de relatórios e análises viola princípios constitucionais do processo penal, como o contraditório, a ampla defesa e a paridade de armas entre acusação e defesa. O segundo eixo trata da chamada confiabilidade epistêmica, conceito que se refere à capacidade de um conhecimento ou informação ser considerada verdadeira e justificada.
No que se refere à licitude, a discussão girou em torno da possibilidade de o Ministério Público ou órgãos de persecução penal utilizarem ferramentas de IA generativa para produzir relatórios, laudos ou sínteses investigativas que embasem denúncias ou pedidos de prisão. A ausência de transparência sobre os algoritmos utilizados e os dados de treinamento dos modelos levanta dúvidas sobre a possibilidade de a defesa contestar efetivamente esses materiais.
Já o debate sobre confiabilidade epistêmica coloca em xeque a qualidade intrínseca dos resultados gerados por IA. Sistemas de inteligência artificial generativa são conhecidos por ocasionalmente produzir informações incorretas ou factuais inconsistentes, fenômeno tecnicamente chamado de alucinação. Quando esses sistemas são empregados para gerar relatórios que podem fundamentar restrições à liberdade de um indivíduo, o risco de erros assume proporções particularmente graves no contexto penal.
A decisão do STJ no HC 1.059.475/SP estabeleceu parâmetros relevantes sobre o que pode ou não ser admitido como prova em processos penais que envolvam produtos de IA. O tribunal indicou que relatórios gerados automaticamente, sem o crivo da racionalidade humana e sem possibilidade de verificação independente, não atendem aos requisitos de confiabilidade necessários para subsidiar decisões que afetem direitos fundamentais. Esse entendimento reforça a necessidade de que qualquer material produzido com auxílio de IA seja submetido a validação humana antes de ser apresentado como elemento probatório.
A questão é especialmente relevante porque o Brasil ainda não possui legislação específica regulando o uso de inteligência artificial no sistema de justiça criminal. O Marco Legal da Inteligência Artificial, aprovado em 2025, estabeleceu diretrizes gerais para o desenvolvimento e a utilização de sistemas de IA no país, mas não detalhou regras específicas para o emprego dessas tecnologias em procedimentos investigativos e processuais penais. A decisão do STJ passa a funcionar, portanto, como um precedente interpretativo importante enquanto o Legislativo não avança na regulamentação setorial.
Para profissionais do direito que atuam na área criminal, a decisão traz implicações práticas diretas. Defensores e advogados passam a ter argumento jurisprudencial para questionar a admissibilidade de provas produzidas exclusivamente por sistemas automatizados, exigindo que o Ministério Público e órgãos de investigação apresentem métodos transparentes e auditáveis quando utilizarem ferramentas de IA em suas atividades. A imposição de supervisão humana como requisito para a validação de materiais gerados por inteligência artificial torna-se um parâmetro que pode ser invocado em futuros habeas corpus e recursos.
Do ponto de vista tecnológico, a decisão do STJ sinaliza para os desenvolvedores de soluções de IA voltadas ao setor jurídico que a simples automação de tarefas analíticas não é suficiente para atender às exigências do processo penal brasileiro. É necessário que as ferramentas incorporem mecanismos de rastreabilidade, explicabilidade e auditoria que permitam a verificação independente dos resultados por peritos humanos. A explicabilidade, no contexto de IA, é a capacidade de um sistema de fornecer informações compreensíveis sobre como chegou a um determinado resultado.
A decisão também se alinha com uma tendência internacional de tribunais ao redor do mundo começarem a estabelecer limites para o uso de inteligência artificial em processos judiciais. Em diferentes jurisdições, cortes têm debatido a necessidade de garantir que algoritmos não substituam a discricionariedade humana em decisões que envolvam privação de liberdade. O caso brasileiro ganha destaque pela abordagem específica sobre a confiabilidade epistêmica, um conceito que ancora a discussão em critérios filosóficos e jurídicos de produção de conhecimento válido.
O julgamento do HC 1.059.475/SP pela 5ª Turma do STJ marca um ponto de inflexão na relação entre inteligência artificial e processo penal no Brasil. Ao vincular a admissibilidade de provas geradas por IA à exigência de supervisão humana e verificação independente, o tribunal estabelece um marco que deverá orientar decisões futuras sobre o tema. A definição desses parâmetros é relevante tanto para a proteção dos direitos individuais dos acusados quanto para a orientação dos órgãos de persecução penal sobre os limites éticos e jurídicos do uso de tecnologia automatizada na produção de provas.