{"titulo": "OpenAI fecha acordo com Departamento de Guerra dos EUA para implementar modelos de IA em redes classificadas", "conteudo": "A OpenAI anunciou na noite desta sexta-feira (27) que fechou um acordo com o Departamento de Guerra dos Estados Unidos (antigo Pentágono) para implementar seus modelos de inteligência artificial nas redes classificadas do departamento de defesa americano. O acordo foi anunciado poucas horas após o presidente Donald Trump ordenar que agências federais encerrassem o uso da tecnologia da Anthropic, rival da OpenAI, após uma disputa pública sobre os limites éticos do uso de IA em contextos militares.

A negociação entre a OpenAI e o departamento de defesa americano ocorre em um momento de intensa tensão no setor de inteligência artificial, marcado pela recusa da Anthropic em aceitar termos que permitiriam o uso de seus modelos para vigilância em massa de cidadãos americanos e armas autônomas letais. O contrato em negociação com a Anthropic chegava a 200 milhões de dólares, mas o Pentágono exigiu que a empresa removesse as proteções de segurança de seu modelo Claude para permitir "qualquer uso lawful" (qualquer uso legítimo), incluindo vigilância doméstica e armas completamente autônomas.

O CEO da OpenAI, Sam Altman, detalhou em uma publicação na rede social X os termos do acordo firmado. Segundo ele, duas das mais importantes princípios de segurança da empresa foram incorporados ao contrato: a proibição de vigilância em massa doméstica e a responsabilidade humana pelo uso de força, incluindo sistemas de armas autônomas. Altman afirmou que o Departamento de Guerra concordou em honrar esses princípios, e que a OpenAI construirá salvaguardas técnicas adicionais para garantir que os modelos se comportem conforme esperado.

PUBLICIDADE

Em um memorando enviado aos funcionários na quinta-feira (26), Altman explicou que a OpenAI compartilha as mesmas "linhas vermelhas" (red lines) estabelecidas pela Anthropic. "Acreditamos que uma empresa privada americana não pode ser mais poderosa do que o governo democraticamente elegido", escreveu o CEO. "Embora as empresas possam ter muita influência, é importante que cumpramos com proteções legais e as poucas linhas vermelhas que compartilhamos com a Anthropic e que outras empresas também independentemente concordam."

O acordo establece que a OpenAI manterá o controle sobre como as salvaguardas técnicas são implementadas, quais modelos serão implantados e onde serão utilizados. A empresa limitou a implantação a ambientes de computação em nuvem (cloud environments), excluindo sistemas de borda (edge systems), que incluem aeronaves e drones. Essa decisão representa uma concessão significativa por parte do governo, que havia pressionado outras empresas de IA a aceitar termos mais permissivos.

A empresa também anunciou que implantará engenheiros especializados, chamados de FDEs (Foundational Deployment Engineers), para auxiliar nas redes do Departamento de Guerra e garantir a segurança dos modelos. Segundo informações divulgadas pela Fortune, Altman afirmou aos funcionários que, se um modelo se recusar a executar uma tarefa, o governo não poderá forçar a OpenAI a modificar esse comportamento.

A disputa com a Anthropic teve início quando o secretary de Defesa, Pete Hegseth, designou a empresa como um "risco para a cadeia de suprimentos de segurança nacional" na sexta-feira à tarde, após meses de negociações fracassadas. A determinação impede que qualquer contratado, fornecedor ou parceiro que faça negócios com as forças armadas americanas realize qualquer atividade comercial com a Anthropic. O presidente Trump também utilizou a rede social Truth Social para atacar a Anthropic, descrevendo a empresa como "esquerdistas radicais" que tentaram "forçar" o Departamento de Guerra a cumprir seus termos de serviço.

Em resposta, a Anthropic afirmou que tentou "de boa fé" chegar a um acordo com o Departamento de Guerra, apoiando todos os usos de IA para segurança nacional, exceto as duas exceções solicitadas. A empresa declarou que essas exceções "não afetaram uma única missão do governo até hoje" e que lutará contra a designação de risco de cadeia de suprimentos na Justiça. A Anthropic foi a primeira empresa de IA a implementar seus modelos nas redes classificadas do Pentágono, através de uma parceria com a empresa de análise de dados Palantir.

AOpenAI pediu que o Departamento de Guerra ofereça os mesmos termos a todas as empresas de IA, buscando estabelecer um precedente para a indústria. Altman manifestou interesse em ajudar a "desescalar" as tensões entre a Anthropic e o Pentágono, destacando a importância de que empresas de tecnologia trabalhem com o governo de maneira que respeite princípios de segurança e ética.", "resumo": "OpenAI fecha acordo com Departamento de Guerra dos EUA para implementar modelos de IA em redes classificadas militares. O contrato inclui proteções éticas como proibição de vigilância em massa doméstica e responsabilidade humana em decisões de força letal. O acordo foi anunciado horas após Trump ordenar o banimento da Anthropic, que se recusou a remover salvaguardas de segurança de seu modelo Claude para permitir vigilância e armas autônomas."}