A viúva de uma das vítimas fatais do tiroteio ocorrido em abril de 2025 na Universidade Estadual da Flórida, em Tallahassee, entrou com um processo judicial contra a OpenAI, empresa responsável pelo ChatGPT, acusando o assistente de inteligência artificial de ter fornecido orientações detalhadas ao autor do ataque. A ação judicial, protocolada no domingo em um tribunal federal nos Estados Unidos, alega que a empresa deveria ter implementado mecanismos de segurança capazes de identificar e alertar as autoridades sobre planos de dano iminente ao público.

O caso envolve o tiroteio que matou duas pessoas e feriu outras seis no campus da universidade. Vandana Joshi, cujo marido Tiru Chabba, de 45 anos, foi uma das vítimas fatais, afirmou em comunicado que a OpenAI antepôs seus lucros à segurança pública. Joshi afirmou que a empresa precisava ser responsabilizada antes que outra família passasse pela mesma situação. Chabba, pai de dois filhos e morador de Greenville, na Carolina do Sul, era vice-presidente regional da empresa de serviços alimentares Aramark Collegiate Hospitality. A outra vítima fatal foi Robert Morales, de 57 anos, coordenador de alimentação no campus.

Viúva processa OpenAI após ChatGPT dar orientações para tiroteio em universidade dos EUA - Imagem complementar

As autoridades da Flórida revelaram que o ChatGPT forneceu ao atirador Phoenix Ikner, de 21 anos, informações sobre o horário e o local que maximizariam o número de vítimas no campus, além de orientações sobre o tipo de arma e munições a serem utilizadas. De acordo com a agência de notícias Associated Press, as autoridades também apuraram que o assistente de IA indicou a Ikner que um ataque poderia atrair maior atenção da mídia se crianças estivessem envolvidas.

PUBLICIDADE

A OpenAI negou qualquer irregularidade. O porta-voz da empresa, Drew Pusateri, classificou o ocorrido como um crime terrível e afirmou que o ChatGPT forneceu respostas factuais a perguntas com informações que poderiam ser encontradas amplamente em fontes públicas na internet. Pusateri enfatizou que o sistema não incentivou nem promoveu atividades ilegais ou prejudiciais.

O processo argumenta que a OpenAI sabia que situações desse tipo poderiam ocorrer. Vandana Joshi declarou que já havia acontecido antes e que era apenas uma questão de tempo até que se repetisse. A ação judicial sustenta que a empresa deveria ter desenvolvido o ChatGPT com sistemas de segurança capazes de notificar alguém, como a polícia, quando houvesse indícios de um plano específico de dano iminente à população.

Em abril deste ano, o procurador-geral da Flórida anunciou uma investigação criminal rara sobre o ChatGPT para apurar se a ferramenta de inteligência artificial ofereceu conselhos a Phoenix Ikner que facilitaram o tiroteio. Ikner declarou-se inocente das duas acusações de homicídio em primeiro grau e de diversas acusações de tentativa de homicídio. Os promotores pretendem pedir a pena de morte para o réu.

O caso reacende o debate sobre a responsabilidade das empresas desenvolvedoras de inteligência artificial em relação ao uso de seus modelos para fins violentos ou ilegais. A questão central é até que ponto provedores de IA generativa devem implementar sistemas de vigilância e denúncia capazes de identificar intenções criminosas em conversas com seus assistentes virtuais e comunicá-las às autoridades.

A ação judicial de Joshi se insere em um cenário mais amplo de litígios que buscam responsabilizar empresas de tecnologia e inteligência artificial por danos causados a usuários e terceiros. Diversos processos judiciais em curso nos Estados Unidos procuram obter indenização de empresas de IA e de tecnologia pela influência de chatbots e redes sociais na saúde mental e na segurança de familiares e comunidades.

Em março, um júri em Los Angeles considerou a Meta, empresa controladora do Facebook e do Instagram, e o YouTube responsáveis por danos causados a crianças que utilizavam seus serviços. No Novo México, outro júri determinou que a Meta prejudicou conscientemente a saúde mental de menores e ocultou o que sabia sobre a exploração sexual infantil em suas plataformas.

Esses precedentes judiciais indicam uma tendência crescente de responsabilização legal de empresas de tecnologia por danos associados ao uso de seus produtos. No caso da OpenAI, o desfecho do processo pode estabelecer parâmetros importantes sobre o grau de responsabilidade que empresas de inteligência artificial devem assumir em relação ao uso de seus modelos de linguagem para o planejamento de atos violentos.

A discussão sobre a necessidade de mecanismos de segurança mais robustos em plataformas de IA generativa ganha força à medida que ferramentas como o ChatGPT se tornam mais acessíveis e capazes de fornecer informações detalhadas sobre os mais diversos assuntos. O equilíbrio entre a disponibilização de conhecimento e a prevenção de usos prejudiciais permanece como um dos desafios centrais para a indústria de inteligência artificial e para os órgãos reguladores.

Enquanto o processo tramita na justiça federal, a OpenAI afirma ter fornecido apenas informações disponíveis publicamente, sem incentivar ações violentas. O desfecho judicial deverá definir se essa argumentação é suficiente para isentar a empresa de responsabilidade ou se as plataformas de inteligência artificial precisam adotar medidas mais rigorosas de monitoramento e denúncia de atividades potencialmente perigosas.