No dia 31 de março de 2026, a Anthropic — empresa avaliada em mais de US$ 60 bilhões e considerada a mais cuidadosa da indústria em questões de segurança — acidentalmente tornou público o código-fonte completo do Claude Code. Eram 512.000 linhas de TypeScript, escondidas dentro de um pacote npm público. A internet encontrou tudo em horas. O que estava lá dentro vai mudar o debate sobre IA agêntica.
Como um erro de uma linha expôs tudo
A versão 2.1.88 do pacote @anthropic-ai/claude-code foi publicada com um arquivo de source map JavaScript de 59,8 MB incluído acidentalmente. Um source map é um arquivo técnico que mapeia código minificado de volta ao código-fonte original — uma ferramenta de debug que jamais deveria ir para produção. A causa raiz: faltou uma exclusão .map no arquivo .npmignore. Uma linha ausente no arquivo de configuração de build.
O resultado: 1.900 arquivos com o código-fonte completo do Claude Code ficaram acessíveis a qualquer pessoa que soubesse onde procurar. O pesquisador de segurança Chaofan Shou, estagiário da empresa de segurança blockchain Fuzzland, foi o primeiro a identificar e publicar o link direto para o bucket da Cloudflare R2 da Anthropic onde os arquivos estavam hospedados. Postou no X. Em poucas horas, espelhos surgiram no GitHub, alguns acumulando mais de 1.100 estrelas antes dos takedowns de DMCA da Anthropic.
O que estava escondido dentro do código
O que a comunidade de desenvolvedores encontrou nas 512 mil linhas é fascinante — e revelador sobre como a Anthropic pensa seu produto. Três descobertas se destacaram imediatamente.
A primeira: referências a uma família de modelos chamada “Capybara”, até então completamente desconhecida do público. Nenhum anúncio, nenhum leak anterior. O nome aparecia em múltiplas partes do código associado a capacidades de agência avançada, sugerindo que a Anthropic está desenvolvendo uma linha de modelos específica para tarefas autônomas — separada dos modelos Claude convencionais.
A segunda: um “Undercover Mode”, descrito no código como um sistema para contribuições em projetos open source de forma anônima. A implicação: a Anthropic pode estar usando o Claude Code para contribuir com repositórios públicos sem identificação explícita — um comportamento que levanta questões sérias sobre transparência e atribuição em projetos open source.
A terceira, mais peculiar: o sistema /buddy, descrito como um companheiro virtual estilo Tamagotchi integrado ao Claude Code. Uma feature de engajamento comportamental que nunca foi anunciada publicamente.
A resposta da Anthropic — e o que ela não disse
A empresa confirmou o incidente em nota ao VentureBeat: “Nenhum dado sensível de clientes ou credenciais foi envolvido ou exposto. Este foi um problema de empacotamento causado por erro humano, não uma violação de segurança.” O porta-voz foi cuidadoso ao distinguir “vazamento de código-fonte” de “violação de segurança” — tecnicamente correto, mas a distinção importa menos do que parece.
O que a Anthropic não comentou diretamente: este é o segundo vazamento idêntico. Um incidente quase idêntico com source maps do Claude Code ocorreu em fevereiro de 2025. Mesma causa, mesmo vetor, mesmo pacote npm. A empresa corrigiu o problema no release seguinte — mas não construiu um processo sistemático que impedisse a reincidência. Isso, para uma empresa que vende segurança como proposta de valor central, é o dado mais relevante do episódio.
O que o vazamento revela sobre o setor
Além dos detalhes técnicos, o incidente ilumina uma tensão estrutural na indústria de IA: a velocidade de desenvolvimento versus a maturidade dos processos de engenharia. A Anthropic publica versões novas do Claude Code em ciclos curtos, com pressão competitiva intensa de OpenAI, Google e outros. Nesse contexto, um erro de configuração de build — banal, humano, corrigível — escapa para produção porque o pipeline de review não pegou.
O Gizmodo observou que o vazamento aconteceu no “pior momento possível” — em meio ao lançamento do Claude Opus 4.6 e do crescimento acelerado do Claude Code como produto comercial. A narrativa de empresa mais segura e responsável da indústria encontra seu contraponto em dois vazamentos do mesmo tipo em 13 meses.
Para concorrentes, o código exposto é um mapa detalhado da arquitetura agêntica da Anthropic: como o Claude Code gerencia contexto, executa tarefas multi-etapa, lida com falhas e escalada. Não são os pesos do modelo — mas é a engenharia que faz o modelo ser útil como agente autônomo. Esse conhecimento tem valor competitivo real.
O The Register resumiu bem o impacto técnico: qualquer empresa que queira entender como construir um harness agêntico competitivo com o Claude Code agora tem acesso a um blueprint detalhado. A vantagem de engenharia da Anthropic nesse espaço ficou menor da noite para o dia — não por espionagem, mas por uma linha faltando num arquivo de configuração.
Publicado em 2 de abril de 2026 · Thinq.news



