Em 27 de fevereiro de 2026, o Silicon Valley acordou com um terremoto político que vai além de qualquer rivalidade corporativa. Em um intervalo de horas, o governo Trump baniu o uso de produtos da Anthropic por todo o governo federal americano — e a OpenAI assinou um contrato milionário com o Pentágono no mesmo dia. O tema por trás de tudo isso: até onde vai a IA militar?
O Contrato de US$ 200 Milhões e a Linha que a Anthropic Não Cruzou
A disputa começou com um contrato de até US$ 200 milhões entre o Pentágono e fornecedores de IA para uso em redes classificadas. A Anthropic estava em negociações avançadas — mas se recusou a remover duas restrições específicas de seus termos de uso: a proibição de uso de seus modelos em vigilância em massa de cidadãos americanos e a proibição de uso em sistemas de armas autônomas, onde a IA tomaria decisões de ataque sem supervisão humana.
Para a administração Trump, essas restrições eram inaceitáveis. O Secretário de Defesa Pete Hegseth foi além: classificou a Anthropic como “risco à cadeia de suprimentos de segurança nacional” — uma designação raramente aplicada a empresas americanas de tecnologia — e a proibiu de trabalhar com as Forças Armadas e contratadas do setor de defesa. O presidente Trump emitiu uma ordem para que todos os órgãos do governo federal encerrassem o uso de produtos Anthropic em um prazo de seis meses.
A OpenAI Entra em Cena — Com as Mesmas Restrições
O que aconteceu a seguir tem sabor de ironia. Horas depois do banimento da Anthropic, a OpenAI anunciou um acordo com o Departamento de Defesa para fornecer sua tecnologia em redes classificadas. O CEO Sam Altman confirmou o contrato pessoalmente.
A ironia está nos termos: o acordo da OpenAI com o Pentágono inclui as mesmas restrições que a Anthropic havia exigido — proibição de vigilância doméstica em massa e manutenção de responsabilidade humana no uso da força, incluindo sistemas de armas autônomas. O Pentágono concordou com essas condições e se comprometeu a refleti-las em lei e política.
Em outras palavras: o governo expulsou a Anthropic por se recusar a ceder em princípios — e então aceitou esses mesmos princípios quando negociou com a OpenAI. A diferença não estava nas condições. Estava na disposição de cada empresa em aceitar o risco político do relacionamento.
A Resposta da Anthropic e o Caminho Jurídico
A Anthropic respondeu que vai contestar a designação de “risco à cadeia de suprimentos” na Justiça. Em comunicado, a empresa afirmou que a designação é “sem precedente, factualmente incorreta e juridicamente vulnerável”.
Funcionários da OpenAI e do Google demonstraram solidariedade pública com a posição da Anthropic em uma carta aberta — uma sinalização de que a disputa toca em princípios que transcendem a rivalidade comercial. A carta, assinada por dezenas de engenheiros e pesquisadores das três empresas, pede que Google e OpenAI formalizem as mesmas “linhas vermelhas” que a Anthropic havia tentado estabelecer como padrão da indústria.
Por Que Isso Importa Muito Além dos EUA
Este episódio é um ponto de inflexão para a governança global de IA. O que estava em jogo no contrato do Pentágono é a questão fundamental da próxima década: quem controla as condições sob as quais a IA pode ser usada em contextos de vida ou morte?
A posição da Anthropic estabelece um precedente perigoso — e necessário. Perigoso porque qualquer empresa que insista em restrições éticas em contratos governamentais pode ser varrida por decreto. Necessário porque alguém precisa definir onde está o limite entre uso legítimo de IA por forças de segurança e delegação de poder de vida e morte a sistemas automatizados.
O resultado imediato favoreceu a OpenAI: o contrato de US$ 200 milhões, o relacionamento com o Pentágono e a credibilidade de ser o parceiro “pragmático” do governo americano. Mas a pergunta que fica é mais sutil: a OpenAI ganhou o contrato — ou perdeu algo mais importante?
As Implicações Para Empresas e Governos Ao Redor do Mundo
Para governos e empresas fora dos EUA, o episódio revela algo crítico: as condições de uso das maiores ferramentas de IA do mundo são negociáveis — e podem ser alteradas por pressão política. Isso tem implicações diretas para qualquer organização que dependa de APIs de IA americana para infraestrutura crítica.
A questão da soberania de IA, que parecia abstrata, tornou-se concreta: se o governo de um país parceiro pode redesenhar as restrições de uso de uma plataforma de IA por decreto, o que isso significa para empresas brasileiras que usam esses sistemas em setores regulados como saúde, finanças e infraestrutura?
O caso Anthropic vs. Pentágono não é um episódio isolado. É o primeiro capítulo de uma série de disputas sobre quem define as regras da IA — e quem paga o preço por dizer não.
Líderes de tecnologia no Brasil precisam revisar seus contratos com fornecedores de IA sob uma nova ótica: os termos de uso podem mudar por pressão política externa, sem aviso prévio. Para setores críticos — saúde, financeiro, defesa —, isso exige cláusulas contratuais explícitas sobre continuidade de serviço e alternativas de contingência com modelos open source ou fornecedores em jurisdições distintas. A dependência de um único provedor americano é um risco de governança, não apenas tecnológico.




