IA nas universidades: a regulação chegou ao campus

Em março de 2026, USP, Unicamp e Unesp anunciaram um protocolo conjunto para o uso de inteligência artificial em atividades acadêmicas. Não foi uma decisão antecipada. Foi uma resposta urgente a um fato consumado: pesquisa da Associação Brasileira de Mantenedoras de Ensino Superior revelou que 70% dos estudantes brasileiros já usam IA para estudar e produzir trabalhos acadêmicos. A universidade chegou tarde à conversa que os alunos já estavam tendo há dois anos.

O ensino superior brasileiro enfrenta uma das transformações mais profundas de sua história — não porque a IA chegou, mas porque chegou antes que as instituições estivessem prontas para recebê-la. O resultado é um terreno de regras improvisadas, políticas contraditórias e uma geração de estudantes que navega entre proibições formais e uso cotidiano sem freio. Esse gap tem consequências que vão muito além do plágio acadêmico.

O que os números revelam sobre o uso real

A enquete do Jornal do Campus com 82 estudantes da USP encontrou um dado que deveria pausar qualquer reitor: 87% afirmaram usar IA generativa no cotidiano acadêmico. Não são usuários ocasionais. São estudantes que integraram ferramentas como ChatGPT e Gemini ao fluxo normal de estudo, pesquisa e produção de trabalhos.

A velocidade da adoção estudantil exposou uma fragilidade estrutural das universidades: a incapacidade de atualizar políticas na mesma velocidade que a tecnologia evolui. Enquanto reitores debatiam se deveriam proibir ou permitir, os alunos já tinham decidido. Proibições formais sem mecanismos de detecção eficientes funcionam apenas como desincentivo simbólico — não como controle real.

O dado mais revelador, porém, não é sobre o volume de uso. É sobre a qualidade do uso. Estudantes que usam IA de forma não supervisionada, sem compreender os limites e os riscos das ferramentas, estão desenvolvendo uma relação de dependência que pode comprometer habilidades cognitivas fundamentais — raciocínio crítico, síntese, argumentação. O problema não é que os alunos usam IA. É que usam sem aprender a usar bem.

Isso cria um paradoxo: o mercado de trabalho vai exigir profissionais que saibam trabalhar com IA. A universidade que proíbe o uso não está protegendo o aluno — está desequipando-o para o mercado que vai encontrar na formatura.

As respostas institucionais: do pânico à governança

As respostas das universidades brasileiras ao longo de 2025 e 2026 formam um espectro que vai do pânico legislativo à governança estruturada. Em um extremo, instituições que proibiram qualquer uso de IA em trabalhos acadêmicos sem exceções. No outro, instituições que desenvolveram frameworks detalhados de uso permitido, com exigência de transparência e formação docente.

O movimento mais sofisticado veio de instituições que entenderam que a questão não é proibir ou permitir, mas reconfigurar a pedagogia. A Universidade Federal de São Paulo determinou que trabalhos acadêmicos devem declarar explicitamente se houve uso de IA — e como. Isso não é apenas uma regra de transparência. É uma mudança na concepção do que é autoria acadêmica.

Três instituições se destacaram pela abordagem estruturada: a PUC-PR criou um Observatório de IA na Educação Superior; a UFDPar instituiu um Comitê de Ética em Inteligência Artificial; a UFMG criou uma Comissão Permanente de IA. São respostas de governança — não de policiamento. A diferença é fundamental.

O Conselho Nacional de Educação anunciou em fevereiro de 2026 que está preparando um conjunto de diretrizes nacionais para uso de IA no ensino, cobrindo da educação básica ao ensino superior. Quando essas diretrizes chegarem, as instituições que já desenvolveram frameworks próprios terão vantagem — as que esperaram vão correr para se adaptar.

O que significa realmente ensinar com IA

A discussão sobre regras de uso de IA nas universidades obscurece uma questão mais profunda: o que significa ensinar e aprender em um mundo onde sistemas de IA conseguem executar a maioria das tarefas acadêmicas tradicionais? Escrever textos, resumir artigos, resolver problemas de cálculo, gerar código, traduzir — tudo isso a IA faz em segundos. Se essas eram as tarefas que a universidade usava para avaliar o aprendizado, o que acontece agora?

A resposta mais honesta é que a universidade precisa repensar não apenas as regras de uso de IA, mas o próprio design de suas avaliações e metodologias. Tarefas que a IA executa facilmente provavelmente não eram boas métricas de aprendizado profundo para começo. A IA expôs uma fragilidade que já existia.

As pedagogias que resistem à automação têm em comum uma característica: exigem síntese original, julgamento contextual e argumentação a partir de experiência pessoal. Projetos de longa duração com interação humana, apresentações com debate, trabalhos baseados em pesquisa de campo, portfólios de processo — essas formas de avaliação são mais resistentes à substituição por IA e, não por coincidência, são também mais ricas em termos de desenvolvimento de competências reais.

As universidades que estão redesenhando suas metodologias a partir dessa lógica não estão apenas respondendo à IA — estão melhorando a qualidade do que oferecem. O desafio é que redesenhar currículo é lento e caro, e o mercado não vai esperar.

Implicações para empresas que contratam universitários

Para líderes de RH e CEOs de empresas que contratam recém-formados, o cenário das universidades tem implicações diretas. A geração que está se formando agora terá competências muito heterogêneas em relação ao uso de IA: alguns terão aprendido a usar as ferramentas de forma crítica e produtiva; outros terão desenvolvido dependência sem competência real; outros ainda terão sido treinados em ambientes artificialmente protegidos da IA.

Isso significa que as entrevistas e processos de seleção precisam evoluir para avaliar não apenas o que o candidato sabe, mas como ele trabalha com IA. Não se trata de verificar se usa IA — todos usam. Trata-se de avaliar se usa com julgamento, transparência e capacidade crítica.

Empresas que não adaptarem seus processos de seleção para essa realidade vão contratar com base em critérios que não refletem mais o ambiente de trabalho real. E o mercado de trabalho de 2026 não perdoa esse tipo de desalinhamento.

Publicado em 22 de abril de 2026 · thinq.news

Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.

Zeen Subscribe
A customizable subscription slide-in box to promote your newsletter
[mc4wp_form id="314"]