Em meio ao avanço de um possível IPO, a startup americana de inteligência artificial Anthropic, dona do chatbot Claude, se vê no centro de um intenso conflito político e ideológico com o governo de Donald Trump e com o Pentágono, sede do Departamento de Defesa dos Estados Unidos. A empresa, avaliada em impressionantes US$ 380 bilhões, enfrenta atritos que podem impactar diretamente seus planos de expansão e sua entrada na bolsa de valores.

O principale ponto de discórdia gira em torno de um contrato de até US$ 200 milhões firmado entre a Anthropic e o Pentágono, anunciado no ano passado. O acordo positioning a startup ao lado de rivais como OpenAI, Google e xAI de Elon Musk como fornecedoras de tecnologia de IA para a defesa americana. No entanto, diferentemente de suas concorrentes, a Anthropic tem resistido a permitir que o governo utilize seus modelos de IA para determinadas finalidades militares.

De acordo com fontes ouvidas pela Reuters, o Departamento de Defesa e a Anthropic chegaram a um impasse após extensas negociações. O Pentágono argumenta que deveria poder implementar a tecnologia de IA comercial, independentemente das políticas de uso da empresa, desde que esteja em conformidade com a legislação americana. A posição oficial do departamento, definida em uma memória de 9 de janeiro sobre estratégia de IA, sustenta que as agências governamentais devem ter acesso irrestrito às ferramentas disponíveis no mercado.

PUBLICIDADE

Por outro lado, a Anthropic se recusa a conceder ao Pentágono permissão irrestrita para usar o Claude para "todos os fins legais". A empresa defende salvaguardas que impediriam o governo de implementar sua tecnologia para瞄准 armas de forma autônoma e conduzir vigilância doméstica nos Estados Unidos. Essa postura cautelosa da startup, fundamentada em princípios de segurança e ética em IA, tem gerado atritos não apenas com o Pentágono, mas também com a administração Trump.

A tensão com o governo federal ganhou um novo capítulo quando o diretor de IA e cripto do governo Trump, David Sacks, criticou publicamente a Anthropic, classificando a empresa como "woke" e acusando-a de tentar introduzir uma IA enviesada politicamente por meio de regulamentações nos estados liberais, especialmente na Califórnia, onde a startup está sediada. Sacks afirmou que "o verdadeiro problema" seria a "agenda da Anthropic de inserir IA woke e outras regulamentações de IA pelos estados azuis".

Em resposta, o fundador e CEO da Anthropic, Dario Amodei, defendeu a posição da empresa. "Eu acredito plenamente que a Anthropic, a administração e líderes em todo o espectro político querem a mesma coisa: garantir que a poderosa tecnologia de IA beneficie o povo americano e que a América avance e garanta sua liderança no desenvolvimento de IA", declarou Amodei em comunicado. Ele também destacou que a empresa tem partnered com agências de várias formas sob a administração Trump e elogiou o Plano de Ação de IA da Casa Branca.

O impasse com o Pentágono coloca em risco o contrato de US$ 200 milhões e pode afetar diretamente os planos de IPO da Anthropic. O Departamento de Defesa está revisando a parceria devido à disputa sobre os termos de uso, e há rumores de que o acordo poderia ser cancelado ou atrasado. A situação tornou-se tão tensa que o secretary de Defesa, Pete Hegseth, chegou a fazer comentários críticos sobre as políticas de segurança da Anthropic.

A polêmica se estendeu ainda mais após o jornal Wall Street Journal revelar que o Claude foi utilizado na operação militar americana que resultou na captura do presidente venezuelano Nicolás Maduro. Esse episódio reacendeu o debate sobre os limites éticos do uso de IA em operações governamentais e fortaleceu a posição daqueles que defendem maior controle sobre a tecnologia.

A Anthropic destaca-se no setor por seu forte enfoque em segurança e desenvolvimento responsável de IA. A empresa argumenta que seu compromisso com testes rigorosos de segurança, desenvolvimento colaborativo de governança e políticas de uso estrictas torna o Claude particularmente adequado para aplicações sensíveis de segurança nacional. No entanto, essa postura independente tem custado caro à startup em termos de relacionamentos com o governo federal.

Se o contrato com o Pentágono for cancelado ou sofreu atrasos significativos, isso poderá impactar severamente os planos de expansão da Anthropic, que incluem investimentos em infraestrutura e desenvolvimento de novos produtos. A empresa também corre o risco de ser rotulada como "risco de cadeia de suprimentos", o que forçaria todas as empresas que fazem negócios com o Pentágono a certificar que não utilizam os modelos da Anthropic, potencialmente excluindo o Claude de ferramentas como o Microsoft Copilot e outras plataformas corporativas.

O desfecho dessa disputa determinará se os princípios de segurança em IA podem sobreviver ao contato com os orçamentos militares, ou se o complexo militar-industrial simplesmente contornará empresas que fazem muitas perguntas sobre ética e uso responsável da tecnologia.