Em 28 de fevereiro de 2026, algo inédito aconteceu no mercado de inteligência artificial. O ChatGPT, que por anos dominou o topo dos rankings de aplicativos em dezenas de países, foi ultrapassado pelo Claude, da Anthropic, na App Store americana. Não por causa de um novo lançamento espetacular, nem por uma campanha de marketing milionária. O que aconteceu foi uma migração em massa impulsionada pela indignação coletiva — o movimento #QuitGPT.
Em um único dia, as desinstalações do aplicativo ChatGPT nos Estados Unidos subiram 295%, segundo dados da Sensor Tower. As avaliações negativas na App Store cresceram 775% no mesmo período. Ao mesmo tempo, o Claude chegou ao primeiro lugar no ranking de gratuitos pela primeira vez na história da Anthropic. O estopim? A confirmação de que a OpenAI havia firmado um contrato de US$ 200 milhões com o Pentágono para serviços de vigilância militar — justamente o tipo de uso que a Anthropic recusou negociar, defendendo “linhas vermelhas” éticas contra armas autônomas e monitoramento doméstico em massa.
O estopim: IA, militarismo e as linhas vermelhas que a OpenAI cruzou
O contrato entre OpenAI e o Departamento de Defesa dos EUA foi fechado após o colapso das negociações entre o Pentágono e a Anthropic. A Anthropic exigiu duas condições inegociáveis: que o modelo Claude não fosse utilizado para vigilância doméstica em massa e que não fosse integrado a sistemas de armas autônomas letais. O Pentágono recusou. A OpenAI, em contrapartida, aceitou.
Para uma parcela significativa dos usuários — especialmente técnicos, pesquisadores e profissionais de tecnologia — essa decisão foi um divisor de águas. O Reddit foi tomado por threads do tipo “por que estou deletando o ChatGPT hoje”. O Instagram e o X amplificaram a hashtag. Em menos de 48 horas, o que parecia uma reação de nicho virou tendência global.
A questão central não era apenas ética abstrata. Era sobre para quem e para quê a IA de fronteira seria usada. E quem decide isso — os laboratórios, os governos, ou os usuários?
O que os números revelam: a confiança como vantagem competitiva
O episódio ilumina algo que analistas de mercado discutem há meses mas poucos executivos levam a sério: a confiança é um ativo de negócios, não apenas um valor abstrato de RH ou ESG. Quando a OpenAI firmou o contrato militar, não apenas perdeu usuários — perdeu a percepção de alinhamento com os valores de uma base de usuários que, em grande parte, a havia tornado grande.
A Anthropic, ao contrário, ganhou sem fazer campanha. A receita anualizada da empresa já havia ultrapassado US$ 19 bilhões em março de 2026, mais que o dobro em três meses, impulsionada pela popularidade do Claude Code entre desenvolvedores. A chegada ao topo da App Store foi apenas o ponto culminante de uma trajetória que combina posicionamento ético consistente com excelência técnica.
Isso não significa que a Anthropic ganhou a guerra. A OpenAI mantém vantagem em escala, parcerias corporativas e integração com o ecossistema Microsoft. O GPT-5.4, lançado em março, é tecnicamente comparável ao Claude Opus 4.6. Mas o episódio #QuitGPT criou uma distinção de percepção que vai levar meses para ser revertida — se é que será.
O paradoxo da indústria: competição e canibalismo simultâneos
Um dado curioso sobre a dinâmica atual do mercado: segundo análises do setor, OpenAI e Anthropic estão “essencialmente se canibalizando”, mantendo preços baixos para tomar fatia de mercado uma da outra. Muitas empresas pagam assinaturas em ambos os laboratórios simultaneamente. Nenhum deles é lucrativo — a Anthropic projeta equilíbrio financeiro até 2028, a OpenAI até 2030.
Esse cenário cria uma pressão perversa: para crescer receita, as empresas precisam de contratos grandes, e contratos grandes muitas vezes vêm de governos e corporações com exigências que podem colidir com valores declarados publicamente. A OpenAI apostou que os usuários tolerariam a contradição. Errou — ao menos no curto prazo.
A Anthropic ainda não foi testada da mesma forma. Mas o crescimento acelerado cria pressões similares. Qual será o limite que a empresa está disposta a defender quando chegar a hora — e quando o custo financeiro de recusar for muito maior? Essa é a pergunta que ninguém do setor responde abertamente.
O que #QuitGPT significa para empresas e C-levels brasileiros
Para executivos brasileiros que usam ou planejam adotar IA corporativa, o episódio tem implicações práticas imediatas. A primeira é sobre due diligence de fornecedores: com qual laboratório sua empresa está firmando contratos? Quais são os termos de uso? Em que aplicações o modelo pode ser utilizado por terceiros? Saber apenas que “usamos ChatGPT” ou “usamos Claude” não é mais suficiente — é preciso entender as políticas de uso aceitável, os históricos de decisões éticas e os contratos que esses laboratórios firmam com terceiros.
A segunda implicação é sobre reputação de marca. Empresas que ostentam publicamente uso de IA de forma responsável vão sofrer dano reputacional se escolherem fornecedores que tomam decisões polêmicas. Isso vale especialmente para empresas com exposição a mercados europeus — onde o EU AI Act já classifica usos de alto risco — e para setores regulados como saúde, finanças e educação.
A terceira é estrutural: o mercado de IA está se fragmentando entre plataformas alinhadas a diferentes valores e compradores. A era em que existia “um modelo para tudo” está acabando. Escolher um fornecedor de IA vai se tornar tão estratégico quanto escolher um banco ou uma auditoria — com implicações que vão muito além do custo por token.
O movimento #QuitGPT pode ter durado um dia nas tendências das redes sociais. Mas o que ele representa — usuários e empresas votando com o comportamento, não apenas com a opinião — é uma mudança estrutural que chegou para ficar. E os CEOs que ignorarem esse sinal estarão atrasados quando o próximo ciclo de escrutínio chegar.
Publicado em 15 de março de 2026 · thinq.news



