Introdução
A indústria jurídica vive uma transformação acelerada com a chegada de ferramentas de inteligência artificial capazes de produzir textos, sumarizar decisões e até sugerir teses. Em meio a esse cenário, um caso recente julgado pela 6ª Turma do Tribunal Regional do Trabalho da 2ª Região acendeu um alerta: a apresentação em juízo de jurisprudência fabricada por ferramentas de IA resultou em multa por litigância de má-fé e envio de ofício à Ordem dos Advogados do Brasil. O episódio expõe, de forma contundente, os riscos práticos e éticos do uso irrestrito de modelos generativos sem a devida verificação humana.
A importância do tema transcende o incidente isolado. Advogados, escritórios e departamentos jurídicos que incorporam IA nas rotinas de pesquisa e redação precisam compreender que a automação não exime responsabilidades profissionais. No caso decidido pelo TRT-2, a empresa foi condenada ao pagamento de multa de 5% sobre o valor da causa, e o patrono tentou justificar o erro atribuindo-o ao “corpo de estagiários do escritório”, o que não afastou sua responsabilidade. A decisão ressalta que a postulação em juízo é ato privativo do advogado, que responde pelo conteúdo das peças apresentadas.
Neste artigo, vamos destrinçar o que aconteceu naquele processo, por que a fabricação de julgados por IA configura ofensa à boa-fé processual, e quais são as implicações práticas para advogados e organizações que usam tecnologia. Abordaremos também o contexto mais amplo — tanto no Brasil quanto internacionalmente — sobre erros conhecidos de modelos de linguagem, estratégias de mitigação de risco, e como o mercado jurídico tem reagido com ferramentas e políticas de governança. A intenção é oferecer um panorama técnico e aplicável, útil para profissionais de tecnologia e do Direito que enfrentam esse novo normal.
Como pano de fundo, é pertinente lembrar que incidentes de "alucinação" de IA — quando o sistema gera fatos, decisões ou referências inexistentes — já são amplamente documentados em diferentes setores. No campo jurídico, onde a confiança em precedentes e citações é crucial, a consequência de uma referência falsa pode ir além do erro técnico: ela pode afetar a credibilidade do advogado, acarretar sanções ético-disciplinares e comprometer a própria administração da justiça.
Desenvolvimento
O núcleo do caso decidido pela 6ª Turma do TRT-2 foi a utilização, em peça processual, de jurisprudência que não existia. Segundo os autos, a parte reclamada juntou aos autos decisões que, após verificação, mostraram-se fabricadas. Diante disso, o Tribunal entendeu configurada litigância de má-fé e aplicou multa. Além da sanção pecuniária, encaminhou ofício à OAB para que avaliasse possíveis implicações disciplinares ao advogado responsável. A decisão enfatizou a responsabilidade do patrono em conferir o conteúdo produzido por sua equipe ou por ferramentas tecnológicas.
No momento da retratação, o advogado procurou eximir-se da responsabilidade ao apontar que as peças foram elaboradas por estagiários. A Corte, no entanto, rejeitou esse argumento ao lembrar que o exercício da postulação é ato privativo do advogado, que tem o dever de supervisionar e instruir estagiários e demais colaboradores. Esse aspecto é essencial: delegar não significa delegar a responsabilidade, sobretudo quando se atua judicialmente.
Tecnicamente, o erro decorre de uma classe conhecida de falhas em modelos de linguagem: as chamadas "alucinações". Modelos generativos podem produzir texto que parece coerente e plausível, incluindo trechos que se assemelham a ementas ou citações jurisprudenciais. Quando tais modelos não acessam bases verificadas ou quando são usados sem validação, o resultado pode ser a invenção de julgados, identificadores processuais e citações que, na prática, não existem.
Historicamente, o setor jurídico demorou a adotar tecnologias de automação por questões de confiança, mas a pressão por eficiência e redução de custos levou a uma rápida incorporação de ferramentas de pesquisa e redação assistida. Plataformas de pesquisa jurídica consolidadas fornecem acesso a repositórios oficiais; já ferramentas alimentadas por modelos de linguagem abrem novas possibilidades — e novos riscos — ao gerar resumos e sugestões de argumentos. Esse movimento cria um ambiente híbrido em que o papel do advogado passa a incluir a validação tecnológica.
As implicações são múltiplas. No plano ético-disciplinar, o uso negligente de IA pode configurar infração às normas de conduta profissional, resultando em ofícios, processos junto à OAB e até perda de credibilidade. No plano processual, a apresentação de informações falsas pode ensejar multa por litigância de má-fé, improvimento de recursos e prejuízo à causa do cliente. Em termos de risco corporativo, escritórios e departamentos jurídicos expõem-se a reclamações de clientes, danos reputacionais e aumento do custo de seguros de responsabilidade profissional.
Do ponto de vista prático, há medidas concretas para mitigar esses riscos. Em primeiro lugar, a verificação humana obrigatória: toda peça ou referência extraída por IA deve ser conferida em repositórios oficiais antes de ser anexada aos autos. Em segundo lugar, implementar fluxos de trabalho claros que definam responsabilidades — quem fez a pesquisa, quem revisou, quem aprovou — com trilhas de auditoria. Em terceiro lugar, treinamento específico para advogados e estagiários sobre limitações dos modelos e melhores práticas de prompt e verificação.
Há também soluções tecnológicas que buscam diminuir o problema. Fornecedores de software jurídico têm integrado mecanismos de validação e links diretos a bases oficiais, além de ferramentas que sinalizam a confiabilidade das fontes. Em paralelo, grandes provedores de modelos de linguagem têm trabalhado em formas de reduzir alucinações, por meio de fine-tuning, integração com fontes verificadas e técnicas de verificação factual. Ainda assim, nenhuma solução elimina a necessidade do crivo profissional.
Exemplos práticos ajudam a dimensionar o problema. Imagine um escritório que, pressionado por prazos, usa um assistente de IA para montar petições e inclui, sem verificar, uma ementa favorável que depois se revela inexistente. A consequência imediata pode ser a arguição de má-fé pela parte adversa e eventual multa. Outro cenário é o de departamentos jurídicos corporativos que adotam chatbots internos sem controles adequados; uma decisão errada tomada com base em consulta automatizada pode gerar risco contratual ou fiscal para a empresa.
Especialistas do mercado têm enfatizado a necessidade de governança para IA no Direito. A disciplina requer políticas internas, adoção de padrões mínimos de validação e uma cultura de responsabilidade. Em termos regulatórios, embora o Brasil ainda modele sua abordagem à IA, o caso do TRT-2 demonstra que normas processuais e éticas já servem como balizas: a utilização indevida de tecnologia não afasta sanções tradicionais aplicáveis à conduta profissional.
O episódio também reverbera além do ambiente jurídico, influenciando fornecedores de tecnologia e clientes que demandam serviços legais. Escritórios que se posicionarem com práticas robustas de governança digital podem transformar a obrigação de diligência em diferencial competitivo. Por outro lado, a repetição de incidentes semelhantes tende a estimular exigências contratuais mais rígidas por parte de clientes e seguradoras.
Em termos de tendência, é plausível esperar maior integração entre plataformas de pesquisa jurídica e modelos de linguagem, com ênfase em interoperabilidade e verificabilidade. Ao mesmo tempo, cresce a demanda por auditorias de modelos, certificações e documentação que atestem os limites e níveis de confiança de cada solução. Para o profissional, a tecnologia continuará sendo uma ferramenta valiosa, mas uma ferramenta cujo uso responsável dependerá de supervisão humana e políticas bem desenhadas.
Conclusão
O caso da 6ª Turma do TRT-2, com multa de 5% sobre o valor da causa e ofício à OAB, é um aviso prático sobre os limites da automação no Direito. A fabricação de jurisprudência por IA não é uma falha técnica neutra: ela atinge a boa-fé processual, a dignidade da Justiça e a responsabilidade profissional do advogado. Delegar pesquisa ou redação não exime da obrigação de conferir e validar o conteúdo antes de levá-lo ao processo.
O futuro exigirá uma convivência mais madura entre operadores do Direito e ferramentas de IA. Isso passa por formação continuada, fluxos de trabalho que institucionalizem a verificação e parcerias com fornecedores que ofereçam garantias de qualidade e rastreabilidade. A tecnologia pode acelerar rotinas, mas não substitui o juízo crítico do advogado.
Para o mercado brasileiro, as lições são claras: escritórios e departamentos jurídicos devem revisar políticas internas, treinar equipes e adotar controles que reduzam o risco de alucinações e referências inverídicas. Ao mesmo tempo, fornecedores e reguladores têm papel relevante na criação de padrões que assegurem transparência e confiabilidade.
Reflita: a automação já faz parte da rotina, mas a responsabilidade continua com o profissional. Mais do que proibir ferramentas, é preciso desenhar um novo pacto de diligência que combine eficiência e segurança para preservar a credibilidade do sistema de Justiça.