O lançamento do DeepSeek R1 em janeiro de 2025 teve o efeito de uma pedra jogada num lago até então agitado apenas por americanos. Um modelo open-source chinês, treinado com uma fração do orçamento de um GPT-4 ou Claude 3, atingindo desempenho comparável em benchmarks de raciocínio. A reação do mercado — queda de $600 bilhões em capitalização de Nvidia em um dia — foi exagerada. A leitura estratégica, contudo, merece atenção.
O que o DeepSeek realmente demonstrou
O DeepSeek R1 foi treinado com ~$6 milhões em compute, comparado a estimativas de $100M+ para modelos equivalentes americanos. Isso foi possível por uma combinação de: inovações de arquitetura (Mixture of Experts eficiente), técnicas de destilação a partir de modelos maiores, e otimizações específicas para hardware disponível (H800, versão exportável do H100).
O que isso prova é que a fronteira de eficiência de treinamento ainda não foi atingida — que há espaço significativo para fazer mais com menos. Não prova que as sanções de chips são ineficazes: o DeepSeek foi treinado antes das rodadas mais restritivas de 2024, e a empresa confirmou que acumular compute para treinos futuros é seu maior desafio.
A dimensão estratégica que o mercado subestimou
O modelo foi lançado como open-source — decisão que levanta questões sobre motivação. Uma interpretação: a Deepseek (ligada ao fundo de hedge Hight-Flyer) beneficia-se de reputação global e recrutamento de talento. Outra interpretação: a China tem interesse estratégico em disseminar modelos que normalizam dependência de infraestrutura chinesa, padrões de alinhamento diferentes dos modelos americanos, e dados de uso que alimentam iterações futuras.
Nenhuma das duas leituras exclui a outra. O fato é que o modelo funciona, é gratuito, e que desenvolvedores globais já o integraram em produtos. A governança de modelos open-source chineses é um vazio regulatório que nenhum governo ocidental resolveu ainda.
O que muda na prática
Para empresas que desenvolvem aplicações de IA: o custo de acesso a capacidade de raciocínio avançada caiu dramaticamente e deve continuar caindo. Para governos e reguladores: a suposição de que modelos de fronteira seriam controlados por poucos atores ocidentais — e portanto governáveis — está sendo desafiada. Para investidores em infraestrutura de IA: a eficiência de treino crescente comprime a margem de retorno de investimentos em compute bruto.




