A inteligência artificial deixou de ser uma promessa futurista para se tornar uma realidade concreta nos corredores do sistema de justiça brasileiro. Câmeras de reconhecimento facial vasculham ruas de grandes cidades, algoritmos triam processos judiciais em velocidade impressionante e modelos preditivos avaliam riscos de reincidência criminal antes mesmo que um juiz profira sua sentença. Essa transformação digital avança rapidamente, mas traz consigo questionamentos profundos sobre direitos fundamentais, devido processo legal e os limites éticos da automação na esfera penal.

A utilização de sistemas de inteligência artificial pelo poder público tornou-se realidade concreta em todo o território nacional. Ferramentas de reconhecimento facial, mecanismos automatizados de triagem processual e modelos preditivos de análise de risco já integram rotinas administrativas e operacionais de delegacias, tribunais e ministérios públicos. No entanto, essa expansão tecnológica ocorre em um cenário de regulamentação incipiente, onde a urgência por eficiência muitas vezes se sobrepõe às necessárias salvaguardas institucionais e garantias constitucionais.

Este artigo explora em profundidade a necessidade imperativa de controle institucional prévio sobre algoritmos utilizados na persecução penal. Analisaremos como a Portaria nº 1122/2026 do Ministério da Justiça representa um marco regulatório importante, estabelecendo o Protocolo Nacional de Reconhecimento de Pessoas em Procedimentos Criminais. Examinaremos também os riscos concretos de vieses algorítmicos, os impactos desproporcionais sobre populações vulneráveis e as implicações dessa transformação para o futuro do sistema de justiça brasileiro.

PUBLICIDADE

Dados recentes revelam a dimensão desse fenômeno. O mercado de reconhecimento facial no Brasil movimentou quatorze bilhões de reais em dois mil e vinte e quatro, com aplicações que vão desde estádios de futebol até condomínios residenciais e vias públicas. Na capital paulista, o programa Smart Sampa opera cerca de trinta e um mil câmeras, sendo vinte mil públicas e onze mil privadas, todas integradas ao sistema municipal de segurança. Apesar desse investimento massivo, estudos apontam que a tecnologia não reduziu indicadores de criminalidade, ao mesmo tempo em que registra margens elevadas de falsos positivos e casos documentados de discriminação racial.

O acontecimento central que motiva esta discussão é a crescente incorporação de algoritmos nas diversas etapas da persecução penal brasileira. Algoritmos operam a partir de dados que identificam padrões e probabilidades, e ainda que não substituam completamente o decisor humano, exercem influência significativa sobre investigações, denúncias e sentenças. A Portaria Ministerial nº 1122/2026 surgiu como resposta a essa realidade, estabelecendo parâmetros nacionais para o reconhecimento de pessoas em investigações criminais e instituindo diretrizes fundamentais como legalidade, imparcialidade, registro audiovisual obrigatório e prevenção de discriminação.

A regulamentação determina que o reconhecimento fotográfico só pode ser efetuado na impossibilidade de realização de reconhecimento pessoal, reforçando a necessidade de protocolos rigorosos. O protocolo nacional observa dez diretrizes fundamentais, incluindo dignidade da pessoa humana, presunção de inocência, segurança técnica e científica baseada em evidências empíricas, controle da cadeia de custódia e uso responsável de tecnologia. Essas normas visam unificar diretrizes procedimentais, reduzir vieses e conferir maior confiabilidade ao reconhecimento de pessoas nas investigações, representando um avanço significativo na busca por equilíbrio entre inovação tecnológica e garantias processuais.

Para compreender adequadamente o contexto atual, é necessário回顾ar brevemente a evolução histórica do uso de tecnologia no sistema de justiça. Tradicionalmente, o reconhecimento de pessoas no processo penal brasileiro sempre dependeu de procedimentos presenciais, com a vítima ou testemunha identificando o suspeito em meio a outras pessoas com características semelhantes. Com o avanço da ciência de dados e do machine learning, o reconhecimento facial baseado em biometria da face emergiu como componente do panóptico contemporâneo na era de vigilância digital, apresentando-se como tendência nas políticas de segurança pública voltadas ao combate à criminalidade.

O cenário global reflete preocupações semelhantes. Estudos internacionais demonstram que sistemas de inteligência artificial desenvolvidos para tribunais podem catalisar injustiças sociais com a falsa aparência de neutralidade matemática, gerando o que especialistas denominam ciclos destrutivos de feedback. Quando algoritmos são treinados com dados históricos que carregam preconceitos e discriminações estruturais, eles tendem a perpetuar e até amplificar esses vieses. Engenheiros de software explicam que o viés de amostragem ocorre quando os dados usados para treinamento não são representativos o suficiente da população real, levando a representações incorretas e decisões enviesadas.

Os impactos e implicações dessa realidade são profundos e multifacetados. A concepção de erro produzido pelo sistema de justiça não engloba apenas a condenação de inocentes, os chamados falsos positivos, ou a absolvição de culpados, os falsos negativos. Inclui também o descumprimento do devido processo legal, ou seja, a admissibilidade de uma prova carente de confiabilidade probatória. Persecuções penais amparadas em reconhecimentos faciais sem controle adequado contribuem para a implementação de novos erros no sistema de justiça na era de vigilância digital, comprometendo a legitimidade das decisões judiciais.

Estudos técnicos mostram que sistemas de reconhecimento facial apresentam margens elevadas de falsos positivos e impactos nulos na redução da criminalidade. Pesquisas realizadas no Brasil identificaram que determinados sistemas apontavam quarenta e cinco por cento mais chances de réus negros obterem pontuações mais altas de risco quando comparados com réus brancos que possuíam histórico criminal similar. Esse dado alarmante evidencia como algoritmos podem reforçar desigualdades estruturais e práticas discriminatórias, mesmo quando desenvolvidos com intenções aparentemente neutras.

Exemplos práticos ilustram tanto o potencial quanto os perigos dessa tecnologia. Na capital paulista, o sistema Smart Sampa já ajudou a localizar setenta e uma pessoas desaparecidas e prendeu mais de dois mil e setecentos em flagrante, segundo informações da secretaria municipal de segurança urbana. O secretário Orlando Morando relatou casos em que a inteligência artificial identificou chefes de quadrilhas mesmo com uso de barba, óculos e boné. Contudo, simultaneamente, estudos independentes apontam que o programa não reduziu os principais indicadores de criminalidade da cidade, levantando questionamentos sobre o custo-benefício real desses investimentos massivos.

Outros casos documentados revelam falhas graves. Sistemas de reconhecimento facial erram mais frequentemente com mulheres negras, já causando falsos positivos no Brasil que resultaram em prisões injustas e constrangimentos graves. Esses erros não são meras falhas técnicas isoladas, mas sintomas de problemas estruturais nos conjuntos de dados de treinamento e nos próprios algoritmos. Quando uma pessoa é erroneamente identificada como suspeita por um sistema automatizado, o dano à sua reputação, liberdade e dignidade pode ser irreparável, mesmo que o erro seja posteriormente corrigido.

Perspectivas de especialistas reforçam a necessidade de cautela e regulamentação rigorosa. Juristas argumentam que se faz necessário regulamentar estritamente o procedimento de reconhecimento no bojo da persecução penal, tornando-se até pleonasmo afirmar tal necessidade dada a urgência do momento. A conclusão de diversos estudos acadêmicos é que o reconhecimento facial carece de confiabilidade suficiente para respaldar isoladamente o caderno probatório judicial, sendo apenas uma nova forma, agora tecnológica, de produção de erros judiciários pautados em práticas ineficazes, racistas e estigmatizantes quando não devidamente controlado.

Especialistas em ética de inteligência artificial destacam que a transparência algorítmica e a auditabilidade dos sistemas são condições indispensáveis para seu uso no sistema de justiça. Defendem que algoritmos utilizados em decisões que afetam direitos fundamentais devem ser passíveis de escrutínio público, com divulgação de suas metodologias, taxas de erro e limites de aplicação. A caixa preta algorítmica, onde nem mesmo seus desenvolvedores conseguem explicar completamente como certas decisões são tomadas, é incompatível com os princípios do devido processo legal e do contraditório.

As tendências relacionadas apontam para um futuro onde a regulação tenderá a se tornar mais rigorosa globalmente. A União Europeia já avançou com o Artificial Intelligence Act, classificando sistemas de identificação biométrica em tempo real como de alto risco e impondo restrições severas ao seu uso por forças policiais. No Brasil, a discussão sobre um marco legal para inteligência artificial ganha força no Congresso Nacional, com propostas que buscam equilibrar inovação e proteção de direitos. A expectativa é que nos próximos anos vejamos uma convergência regulatória internacional estabelecendo padrões mínimos de segurança, transparência e responsabilidade.

O mercado brasileiro de tecnologia jurídica, o chamado legaltech, deve se adaptar a essas novas exigências regulatórias. Empresas que desenvolvem soluções de inteligência artificial para o sistema de justiça precisarão investir em conformidade, auditoria independente e mitigação de vieses como diferenciais competitivos. Aqueles que conseguirem demonstrar confiabilidade técnica, transparência operacional e respeito a direitos fundamentais terão vantagem em licitações públicas e parcerias com órgãos governamentais. A regulamentação, longe de ser um obstáculo, pode se tornar um catalisador para inovação responsável e sustentável.

Para o Brasil, as implicações são particularmente relevantes dada nossa história de desigualdades estruturais e desafios no sistema de justiça. A adoção indiscriminada de algoritmos sem controle institucional prévio corre o risco de automatizar e amplificar discriminações históricas, especialmente contra populações negras, periféricas e economicamente vulneráveis. Por outro lado, uma regulamentação bem desenhada, como a Portaria 1122/2026, pode transformar a tecnologia em ferramenta de aprimoramento do sistema de justiça, desde que acompanhada de fiscalização rigorosa, capacitação de operadores do direito e participação social nas decisões sobre implementação tecnológica.

A reflexão final que se impõe é sobre o tipo de sistema de justiça que desejamos construir para o futuro. A tecnologia em si não é boa nem má, mas seu uso sempre reflete escolhas políticas, valores sociais e prioridades institucionais. Algoritmos na persecução penal podem trazer eficiência, padronização e até redução de erros humanos em determinadas tarefas. Contudo, sem controle institucional prévio, transparência, auditoria independente e mecanismos robustos de responsabilização, corremos o risco de substituir vieses humanos conscientes por vieses algorítmicos opacos e potencialmente mais danosos.

O caminho a seguir exige compromisso com princípios constitucionais, investimento em capacitação técnica de operadores do direito e engajamento da sociedade civil no debate sobre limites éticos da automação judicial. Profissionais de tecnologia, juristas, gestores públicos e cidadãos devem colaborar na construção de frameworks regulatórios que garantam que a inteligência artificial sirva à justiça, e não o contrário. O futuro do sistema de justiça brasileiro dependerá das escolhas que fizermos hoje sobre como integrar tecnologia emergente sem comprometer direitos fundamentais conquistados ao longo de décadas de luta democrática.

A hora é de ação responsável e vigilância institucional. Controle prévio não significa impedimento da inovação, mas sim garantia de que ela ocorra dentro de parâmetros éticos e jurídicos aceitáveis em uma sociedade democrática. Que o debate sobre algoritmos na persecução penal nos una em torno de um objetivo comum: construir um sistema de justiça mais justo, eficiente e respeitoso com a dignidade humana, onde tecnologia e direitos fundamentais caminhem juntos rumo a um futuro mais equilibrado.