O que aconteceu: Pentágono rotula a Anthropic como “risco à cadeia de suprimentos”
Em fevereiro de 2026, a administração Trump tomou uma decisão sem precedentes: classificou oficialmente a Anthropic como um “risco à segurança nacional na cadeia de suprimentos”. O motivo? A empresa recusou-se a permitir que o Departamento de Defesa (DOD) utilizasse sua tecnologia para vigilância em massa e sistemas de armas autônomas.
O DOD argumentou que deveria poder usar IA para qualquer finalidade “legal”, sem estar sujeito a restrições impostas por um contratante privado. A Anthropic discordou — e foi ao tribunal. A empresa protocolou uma ação de 48 páginas na Justiça Federal pedindo uma ordem de restrição temporária contra as sanções e declarando a designação “fundamentalmente ilegal”.
A reviravolta: rivais se unem em defesa da Anthropic
O que tornou o episódio historicamente incomum foi a resposta da indústria. Mais de 30 funcionários da OpenAI e do Google DeepMind — incluindo Jeff Dean, cientista-chefe do Google — protocolaram um amicus brief alertando que o blacklist do Pentágono contra a Anthropic ameaça danificar toda a indústria americana de IA.
O documento afirma: “A designação do governo da Anthropic como risco à cadeia de suprimentos foi um uso impróprio e arbitrário de poder com sérias ramificações para nossa indústria.” O brief também destaca que, na ausência de leis robustas regulando IA, as salvaguardas incorporadas diretamente nos sistemas pelas empresas tornam-se a principal barreira contra usos indevidos graves da tecnologia.
O paradoxo OpenAI: o contrato e a demissão
No mesmo momento em que designava a Anthropic como risco, o DOD fechou um contrato com a OpenAI — uma decisão que gerou reação interna imediata. Caitlin Kalinowski, que havia liderado hardware e robótica na OpenAI desde novembro de 2024, pediu demissão, declarando que “vigilância doméstica sem supervisão judicial e autonomia letal sem autorização humana são linhas que mereciam mais deliberação do que receberam”.
O CEO da Anthropic, Dario Amodei, chamou a abordagem da OpenAI de “teatro de segurança” e descreveu as declarações públicas de Sam Altman como “mentiras descaradas” — um nível de animosidade entre líderes de IA raramente visto publicamente.
Enquanto Anthropic era banida e a OpenAI enfrentava crise interna, o Google avançou silenciosamente. A empresa anunciou oito agentes pré-construídos com tecnologia Gemini para a plataforma Google Gemini for Government no GenAI.mil, além de uma ferramenta no-code que permite ao pessoal do DOD construir assistentes personalizados. Como resumiu o analista Patrick Moorhead: “A OpenAI pareceu oportunista. A Anthropic foi banida. O Google ganhou mais terreno e ninguém está falando sobre isso.”
A disputa Anthropic-Pentágono não é apenas um drama jurídico americano. Ela estabelece precedentes críticos sobre quem define os limites éticos da IA em contratos governamentais — precedentes que inevitavelmente chegam ao Brasil quando empresas, forças armadas e órgãos públicos brasileiros começam a contratar sistemas de IA de fornecedores globais. A ausência de uma regulação nacional clara sobre IA para uso governamental deixa o Brasil exposto exatamente ao tipo de ambiguidade que gerou esse conflito nos EUA.



