Um estudante de 22 anos criou um agente de IA chamado Einstein que se conecta ao Canvas — o sistema de gestão de aprendizagem mais usado em universidades — e faz tudo: assiste às aulas, lê os textos, escreve os trabalhos, participa dos fóruns de discussão e entrega as tarefas. Automaticamente. Todos os dias. Sem intervenção humana. A Instructure, dona do Canvas, mandou uma carta de cessação e desistência e o site foi tirado do ar. Mas o gênio já saiu da lâmpada.
De chatbot a agente autônomo: a escalada que ninguém previu
Até 2024, a preocupação das universidades com IA se limitava a estudantes usando o ChatGPT para escrever redações. Era um problema de integridade acadêmica gerenciável — detectores de IA, redesenho de avaliações, conversas sobre ética. Mas a IA agêntica mudou o jogo por completo. Diferente de um chatbot que responde perguntas, um agente autônomo planeja, executa e itera sobre tarefas complexas sem supervisão contínua.
A Western Interstate Commission for Higher Education (WCET) publicou uma análise contundente sobre o tema em março de 2026: a IA agêntica evolui mais rápido do que os frameworks de política institucional conseguem acompanhar. Quando uma universidade termina de redigir sua política sobre uso de ChatGPT em trabalhos, a tecnologia já avançou para agentes que completam disciplinas inteiras de forma autônoma.
O problema não é cola — é obsolescência pedagógica
Classificar o uso de agentes de IA como “cola” é simplificar perigosamente a questão. O problema real é que o modelo de ensino superior baseado em entregas assíncronas — leia isso, escreva aquilo, poste no fórum, entregue até sexta — foi desenhado para humanos. Quando um agente de IA pode executar todas essas tarefas com qualidade suficiente para passar, o que está sendo avaliado não é mais aprendizado — é capacidade de executar tarefas rotineiras. E nisso, a IA já é melhor.
A Inside Higher Ed reportou que agentes de IA já conseguem completar cursos online inteiros com desempenho satisfatório. Isso não expõe uma falha da IA — expõe uma falha do design instrucional. Se um curso pode ser concluído por uma máquina sem que ninguém perceba, o curso está avaliando as coisas erradas.
O efeito cascata: da sala de aula ao mercado de trabalho
A preocupação vai além da academia. Universidades emitem diplomas que sinalizam competência ao mercado. Se agentes de IA podem obter esses diplomas sem que nenhum humano aprenda nada no processo, o valor do sinal colapsa. Empregadores que já questionam a relevância de diplomas tradicionais terão mais um motivo para desconfiar — e mais um argumento para priorizar portfólios, projetos práticos e certificações baseadas em demonstração de competência real.
Para instituições brasileiras, o alerta é duplo. O ensino a distância (EAD) representa parcela crescente das matrículas no país, e a maioria dos cursos EAD opera exatamente no modelo assíncrono que é mais vulnerável à automação por agentes. Se as universidades brasileiras não redesenharem suas avaliações e metodologias agora, correm o risco de emitir diplomas que o mercado simplesmente deixará de reconhecer como evidência de aprendizado.
O que as instituições precisam fazer — e rápido
A resposta não é banir a tecnologia. A Instructure pode derrubar o Einstein, mas dezenas de ferramentas similares surgirão. A resposta está no redesenho fundamental da experiência educacional. Avaliações orais e presenciais voltam ao centro. Portfólios de processo — que documentam a jornada de aprendizado, não apenas o produto final — ganham peso. Projetos colaborativos com componentes de reflexão individual se tornam essenciais.
Algumas universidades americanas já estão se movendo: várias instituições migraram para avaliações presenciais ou orais, e submissões em etapas que capturam rascunhos e diários de reflexão ajudam a verificar autoria. A Vanderbilt University desativou completamente o detector de IA do Turnitin, reconhecendo que a detecção não funciona — e que a solução está no design pedagógico, não na vigilância tecnológica.
Para reitores e pró-reitores brasileiros, a janela de ação é agora. A IA agêntica não vai esperar a próxima reunião do conselho universitário. Cada semestre que passa com o modelo atual intacto é um semestre em que a credibilidade institucional se erode — silenciosamente, mas de forma irreversível.
thinq.news · 29 de março de 2026



