Dario Amodei não é dado a declarações alarmistas. O CEO da Anthropic construiu sua reputação justamente na cautela — foi ele quem saiu da OpenAI em 2021 alegando preocupações com segurança, foi ele quem recusou o contrato com o Pentágono para não cruzar linhas éticas. Por isso, quando Amodei afirma publicamente que, num prazo de um a dois anos, o ciclo de auto-aperfeiçoamento da IA poderá funcionar com autonomia quase total — exigindo intervenção humana mínima — o peso da declaração é diferente.
Não é ficção científica, não é hype de pitch de investidor. É a avaliação técnica do homem que lidera um dos dois laboratórios de IA mais avançados do mundo, que tem acesso direto às capacidades de modelos ainda não publicados, e que tem histórico de ser mais conservador que seus pares. Se ele está dizendo isso agora, em março de 2026, executivos brasileiros precisam parar e pensar no que isso significa concretamente para seus negócios — porque a janela de preparação está se fechando mais rápido do que a maioria imagina.
O que é o ciclo de auto-aperfeiçoamento — e por que ele muda tudo
A IA atual, por mais impressionante que seja, ainda depende fundamentalmente de humanos para avançar. Humanos coletam dados de treinamento, humanos definem os objetivos de aprendizado, humanos avaliam os outputs e ajustam os modelos. Esse ciclo leva meses e custa centenas de milhões de dólares por iteração. É por isso que os avanços, apesar de acelerados, ainda têm uma cadência compreensível.
O que Amodei descreve como próximo é diferente: modelos que conseguem identificar seus próprios pontos fracos, gerar os dados necessários para corrigi-los, testar as melhorias e iterar — tudo isso com supervisão humana mínima ou nenhuma. Em termos técnicos, isso é chamado de “recursive self-improvement” ou aperfeiçoamento recursivo. O conceito não é novo na teoria, mas a afirmação de que estamos a 12 a 24 meses de uma versão funcional desse ciclo é, no mínimo, extraordinária.
A diferença prática é de velocidade e escala. Se hoje um ciclo de melhoria de modelo leva 6 a 12 meses, um sistema autoaperfeiçoável poderia comprimir isso para dias ou semanas. O salto de capacidade deixaria de ser linear e se tornaria exponencial — exatamente o tipo de mudança para a qual nenhuma organização consegue se adaptar reativamente.
O cenário em que estamos: receita de US$ 19 bilhões e ainda sem lucro
Para contextualizar onde o setor está agora: a receita anualizada da Anthropic ultrapassou US$ 19 bilhões em março de 2026 — mais que o dobro em três meses — impulsionada principalmente pelo Claude Code, ferramenta voltada a desenvolvedores. A empresa, porém, ainda não é lucrativa, com projeção de equilíbrio financeiro apenas em 2028. A OpenAI tem trajetória similar, com lucro projetado para 2030.
Isso significa que os dois laboratórios mais avançados do mundo estão numa corrida em que a pressão por avanço técnico é enorme — financiada por bilhões de capital de risco que precisa de retorno — enquanto o horizonte para a transformação mais radical da história corporativa se aproxima. Não é um ambiente de cautela gradual. É um ambiente em que cada semana importa.
O que muda para empresas quando a IA começa a se aperfeiçoar sozinha
A primeira consequência é sobre planejamento estratégico. Hoje, executivos ainda conseguem fazer planos de médio prazo com alguma previsibilidade sobre o que a IA será capaz de fazer em 12 ou 24 meses. Quando o ciclo de auto-aperfeiçoamento se tornar funcional, essa janela de previsibilidade colapsa. Nenhuma ferramenta de análise de competitividade ou consultoria estratégica estará equipada para dizer o que a IA conseguirá fazer em 6 meses.
A segunda consequência é sobre força de trabalho. O debate atual ainda é sobre “quais funções serão automatizadas”. Quando o ciclo de auto-aperfeiçoamento se tornar real, a pergunta não será mais quais funções — será em qual velocidade. Empresas que dependem de processos intensivos em trabalho cognitivo de rotina — análise de documentos, relatórios, triagem, pesquisa — precisam pensar agora sobre requalificação, não daqui a três anos.
A terceira consequência é sobre vantagem competitiva baseada em IA proprietária. Muitas empresas brasileiras estão investindo em modelos customizados ou fine-tuned para seus setores. Quando modelos de base se tornarem dramaticamente mais capazes em meses, não anos, o valor de investimentos em customização precisará ser constantemente reavaliado. O que é diferencial hoje pode ser commodity em 18 meses.
A quarta — e talvez mais urgente — consequência é sobre governança. Se a IA começa a melhorar a si mesma, quem decide o que é uma melhoria aceitável? Quais são os critérios éticos que devem ser mantidos mesmo quando o sistema sugere contorná-los para ganhar performance? As empresas que não estabelecerem frameworks de governança de IA antes que esse ciclo chegue estarão improvisando em tempo real — e improvisação em sistemas críticos de negócio costuma ser cara.
O alerta que pioneiros da IA não param de repetir
Amodei não está sozinho nessa avaliação. Grandes nomes e pioneiros da inteligência artificial têm alertado, com crescente urgência, que o rápido avanço da IA representa um perigo comparável à invenção de armas nucleares. A comparação não é retórica — é sobre a assimetria entre a velocidade de desenvolvimento e a capacidade das instituições humanas de criar salvaguardas adequadas.
Geoffrey Hinton, Yoshua Bengio e outros pesquisadores de referência têm defendido consistentemente que o desenvolvimento e a disseminação da tecnologia devem ser controlados e regulados enquanto ainda é possível agir. A janela para isso — para criar padrões internacionais de segurança, para construir mecanismos de supervisão que funcionem mesmo com sistemas autônomos — é precisamente o período em que ainda temos humanos no loop. Que, segundo Amodei, dura mais 12 a 24 meses.
Publicado em 15 de março de 2026 · thinq.news



