GLM-5, Kimi K2.5 e DeepSeek V4: fevereiro de 2026 como o mês mais importante da história da IA chinesa

Fevereiro de 2026 pode ser o mês mais consequente da história da inteligência artificial. Não é exagero: em menos de 30 dias, a China lançou três modelos que redefiniram o que open-weight significa em termos de desempenho. GLM-5, Kimi K2.5 e DeepSeek — com contexto de 1 milhão de tokens e V4 no horizonte — não são atualizações incrementais. São uma ruptura de narrativa.

GLM-5: 744 bilhões de parâmetros e o melhor agente de código open-weight do mundo

Lançado em 11 de fevereiro de 2026 pela Zhipu AI — agora rebranded como Z.ai —, o GLM-5 é um modelo Mixture-of-Experts com 744 bilhões de parâmetros totais, ativando apenas 40 a 44 bilhões por inferência. A janela de contexto é de 204.800 tokens. No papel, os números impressionam. Na prática, impressionam ainda mais.

O GLM-5 alcançou o maior índice agêntico da Artificial Analysis entre todos os modelos open-weight — ficando em terceiro lugar geral, atrás apenas do Claude Opus 4.6 e do GPT-5.2. No SWE-bench Verified, benchmark de engenharia de software, o modelo marcou 77,8% — próximo dos 80,8% do Claude Opus 4.6, considerado o melhor modelo proprietário do mundo em codificação. A taxa de alucinação caiu 56 pontos percentuais em relação ao GLM-4.7. O preço? US$ 0,95 por milhão de tokens de entrada — uma fração dos equivalentes proprietários.

Kimi K2.5: o modelo que trouxe visão para o open-weight de ponta

A Moonshot AI lançou o Kimi K2.5 em 27 de janeiro de 2026 com uma proposta clara: pegar o Kimi K2 — que já havia estabelecido um novo teto de desempenho para modelos open-weight — e adicionar capacidade multimodal real. O K2.5 foi pré-treinado com aproximadamente 15 trilhões de tokens mistos de texto e imagem, tornando-se um dos primeiros modelos open-weight de ponta com visão nativa.

O resultado é um modelo que não apenas processa grandes volumes de texto, mas raciocina sobre imagens com qualidade comparável ao que modelos proprietários entregavam há seis meses. Para empresas que precisam de análise de documentos visuais, gráficos financeiros ou dados médicos, o K2.5 representa o ponto em que o open-weight se torna uma alternativa séria — não apenas uma opção de custo.

DeepSeek: 1 milhão de tokens de contexto e V4 chegando

Enquanto GLM-5 e Kimi K2.5 ganhavam os holofotes, o DeepSeek fez duas movimentações silenciosas que podem ter implicações maiores no longo prazo. Primeiro: a janela de contexto do DeepSeek foi expandida de 128 mil para mais de 1 milhão de tokens — um aumento de quase dez vezes. Segundo: o V4 está previsto para antes do fim de fevereiro de 2026.

Contexto de 1 milhão de tokens não é apenas um número de benchmark. É a diferença entre um modelo que lê um documento e um modelo que consegue ingerir toda a base de conhecimento de uma empresa em uma única chamada. Para casos de uso enterprise — análise de contratos, auditoria de código, processamento de históricos clínicos — essa expansão muda a categoria do produto.

O que une os três — e o que o Ocidente ainda não entendeu

GLM-5, Kimi K2.5 e DeepSeek compartilham uma característica que define a nova geração de IA chinesa: os três são open-weight. Não apenas “open source” no discurso — os pesos estão disponíveis para download, uso local, fine-tuning e deployment em infraestrutura própria. Isso é uma decisão estratégica, não um gesto de altruísmo.

Com acesso restrito a chips de ponta americanos, as labs chinesas encontraram na abertura dos modelos uma forma de construir ecossistema e atrair talento global. O resultado paradoxal é que, em fevereiro de 2026, os modelos mais capazes disponíveis para rodar localmente em infraestrutura corporativa vêm da China — não do Vale do Silício.

A pergunta que os CIOs precisam responder agora

A narrativa de que “modelos bons só vêm de OpenAI e Anthropic” morreu em fevereiro de 2026. O que ainda não morreu é a inércia das decisões de tecnologia nas grandes empresas. A due diligence que incluía apenas GPT-4 e Claude como opções viáveis para uso enterprise precisa ser refeita — não por razões políticas, mas por razões de performance, custo e independência de fornecedor.

A questão não é mais “usar modelos chineses é seguro?”. A questão é: “qual é a nossa política para avaliar e aprovar modelos de qualquer origem com base em critérios técnicos e de compliance?” Quem ainda não tem essa política está tomando decisões de tecnologia com um mapa desatualizado.

Thinq for Enterprise
Natsuo Oki
Head de IA · Thinq.news

Para CTOs avaliando stack de IA em 2026, fevereiro foi um mês de revisão obrigatória de premissas. GLM-5 com desempenho agêntico de terceiro lugar global a US$ 0,95 por milhão de tokens, Kimi K2.5 com visão nativa e DeepSeek com contexto de 1 milhão de tokens mudam o cálculo de build vs. buy para qualquer aplicação que envolva processamento de documentos longos, automação de código ou análise multimodal. O critério de seleção de modelos em empresas sérias precisa incluir: benchmark independente, custo por token, latência, opção de deployment local e política de dados. Quem ainda escolhe modelo por marca está deixando dinheiro e performance na mesa.

Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.

Zeen Subscribe
A customizable subscription slide-in box to promote your newsletter
[mc4wp_form id="314"]