Anthropic processa o Pentágono e funcionários da OpenAI e Google entram na defesa — o que está em jogo para toda a indústria de IA

Em março de 2026, a disputa mais reveladora da era da IA não está acontecendo nos laboratórios de pesquisa nem nas salas de reunião do Vale do Silício. Ela está nos tribunais federais de São Francisco — e seu desfecho pode redefinir permanentemente quem controla o uso de sistemas de inteligência artificial para fins militares.

O que aconteceu: Pentágono rotula a Anthropic como “risco à cadeia de suprimentos”

Em fevereiro de 2026, a administração Trump tomou uma decisão sem precedentes: classificou oficialmente a Anthropic como um “risco à segurança nacional na cadeia de suprimentos”. O motivo? A empresa recusou-se a permitir que o Departamento de Defesa (DOD) utilizasse sua tecnologia para vigilância em massa e sistemas de armas autônomas.

O DOD argumentou que deveria poder usar IA para qualquer finalidade “legal”, sem estar sujeito a restrições impostas por um contratante privado. A Anthropic discordou — e foi ao tribunal. A empresa protocolou uma ação de 48 páginas na Justiça Federal pedindo uma ordem de restrição temporária contra as sanções e declarando a designação “fundamentalmente ilegal”.

A reviravolta: rivais se unem em defesa da Anthropic

O que tornou o episódio historicamente incomum foi a resposta da indústria. Mais de 30 funcionários da OpenAI e do Google DeepMind — incluindo Jeff Dean, cientista-chefe do Google — protocolaram um amicus brief alertando que o blacklist do Pentágono contra a Anthropic ameaça danificar toda a indústria americana de IA.

O documento afirma: “A designação do governo da Anthropic como risco à cadeia de suprimentos foi um uso impróprio e arbitrário de poder com sérias ramificações para nossa indústria.” O brief também destaca que, na ausência de leis robustas regulando IA, as salvaguardas incorporadas diretamente nos sistemas pelas empresas tornam-se a principal barreira contra usos indevidos graves da tecnologia.

O paradoxo OpenAI: o contrato e a demissão

No mesmo momento em que designava a Anthropic como risco, o DOD fechou um contrato com a OpenAI — uma decisão que gerou reação interna imediata. Caitlin Kalinowski, que havia liderado hardware e robótica na OpenAI desde novembro de 2024, pediu demissão, declarando que “vigilância doméstica sem supervisão judicial e autonomia letal sem autorização humana são linhas que mereciam mais deliberação do que receberam”.

O CEO da Anthropic, Dario Amodei, chamou a abordagem da OpenAI de “teatro de segurança” e descreveu as declarações públicas de Sam Altman como “mentiras descaradas” — um nível de animosidade entre líderes de IA raramente visto publicamente.

Enquanto Anthropic era banida e a OpenAI enfrentava crise interna, o Google avançou silenciosamente. A empresa anunciou oito agentes pré-construídos com tecnologia Gemini para a plataforma Google Gemini for Government no GenAI.mil, além de uma ferramenta no-code que permite ao pessoal do DOD construir assistentes personalizados. Como resumiu o analista Patrick Moorhead: “A OpenAI pareceu oportunista. A Anthropic foi banida. O Google ganhou mais terreno e ninguém está falando sobre isso.”

A disputa Anthropic-Pentágono não é apenas um drama jurídico americano. Ela estabelece precedentes críticos sobre quem define os limites éticos da IA em contratos governamentais — precedentes que inevitavelmente chegam ao Brasil quando empresas, forças armadas e órgãos públicos brasileiros começam a contratar sistemas de IA de fornecedores globais. A ausência de uma regulação nacional clara sobre IA para uso governamental deixa o Brasil exposto exatamente ao tipo de ambiguidade que gerou esse conflito nos EUA.

Publicado em 11 de março de 2026 · thinq.news

Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.

Zeen Subscribe
A customizable subscription slide-in box to promote your newsletter
[mc4wp_form id="314"]