Apenas 12 universidades brasileiras regulamentaram o uso de IA — e o silêncio das outras 2.500 está criando um problema que vai cobrar o preço mais tarde

O Brasil tem mais de 2.500 instituições de ensino superior. Segundo levantamento do grupo de pesquisa “Governança de Agentes de IA” do IEA-USP, apenas 12 delas têm diretrizes formais e publicadas sobre o uso de inteligência artificial por alunos, professores e pesquisadores. Isso significa que mais de 99% das universidades e faculdades brasileiras não têm política clara sobre o tema — em um momento em que o ChatGPT, o Gemini, o Copilot e dezenas de outras ferramentas de IA generativa já são parte do cotidiano da esmagadora maioria dos estudantes universitários do país.

Não regulamentar não significa que o uso de IA não acontece. Significa que ele acontece sem critérios, sem transparência, sem proteção para estudantes e sem consistência para avaliação. É o equivalente educacional de fechar os olhos e torcer para que o problema não exista.

O que as 12 instituições que regulamentaram estão fazendo certo

O ponto de partida das regulamentações existentes é um consenso sólido: a IA não pode ser coautora de um trabalho acadêmico, e o trabalho intelectual humano precisa continuar existindo e sendo demonstrável. A partir daí, as abordagens divergem — e a diversidade é, em parte, saudável, pois reflete a realidade de que diferentes disciplinas têm relações diferentes com o uso de IA.

Em cursos de ciências da computação, uso de ferramentas de geração de código com declaração obrigatória de uso e análise crítica dos resultados é uma abordagem razoável. Em cursos de humanidades, o uso de IA para estruturar argumentos pode ser permitido com declaração, mas o desenvolvimento da tese central deve ser demonstravelmente humano. Em cursos de saúde, onde raciocínio clínico é competência central, restrições mais estritas fazem sentido.

O que as melhores políticas têm em comum: clareza sobre o que é permitido em qual contexto, transparência exigida do aluno sobre como a IA foi usada, e foco em avaliar o raciocínio humano em vez de apenas o produto final. Não é sobre proibir IA — é sobre garantir que o diploma reflita competências reais.

O problema das 99%: três cenários que estão acontecendo agora

Cenário 1 — O professor que proibiu e não pode enforçar. Sem política institucional, cada professor define suas próprias regras — e muitos simplesmente proibiram o uso de IA em trabalhos. O problema é que sem ferramentas de detecção robustas (as existentes têm alta taxa de falso positivo) e sem mudança nos formatos de avaliação, essa proibição é letra morta. O resultado é estudantes que usam IA sem declarar, professores que suspeitam mas não têm base para agir, e uma atmosfera de desconfiança que prejudica o aprendizado.

Cenário 2 — A instituição que permitiu tudo sem critério. O extremo oposto: sem política, a interpretação default vira “se não está proibido, está permitido”. Alunos entregam trabalhos inteiramente gerados por IA, sem nenhuma contribuição intelectual própria, e recebem notas sem questionar. Esse cenário é o mais destrutivo para o valor do diploma: forma profissionais que não desenvolveram as competências que o curso deveria garantir.

Cenário 3 — A bagunça regulatória por departamento. Cada departamento da mesma universidade aplica regras diferentes, frequentemente contraditórias, sem que os alunos saibam claramente o que se aplica onde. É o cenário mais comum — e o que gera mais ansiedade nos estudantes que têm boa-fé e querem usar a IA de forma adequada, mas não sabem o que “adequada” significa na prática.

Por que regulamentar é urgente — e por que precisa ser feito com cuidado

A urgência vem de múltiplos lados. Do ponto de vista dos estudantes: sem regulamentação clara, os que usam IA com boa-fé não sabem se estão dentro dos limites aceitáveis. Do ponto de vista das instituições: a ausência de política cria responsabilidade jurídica difusa em casos de plágio e fraude acadêmica envolvendo IA. Do ponto de vista do mercado: empregadores já estão ajustando expectativas sobre o que um diploma representa, e instituições que produzirem formandos sem competências básicas sofrerão consequências de reputação.

O cuidado necessário é evitar o extremo da proibição indiscriminada, que é ineficaz e ignora a realidade de que estudantes vão usar IA no mercado de trabalho independentemente do que a universidade fizer. A melhor abordagem é a que prepara os estudantes para usar IA de forma crítica e ética — desenvolvendo a competência de “trabalhar com IA” como habilidade explícita do currículo, não como ameaça a ser contida.

O MEC deu passos importantes em 2026: o Referencial para Desenvolvimento e Uso Responsáveis de IA na Educação está sendo preparado, e a presença do ministro na Cúpula Global sobre IA em Educação sinalizou comprometimento com o tema. Mas diretrizes nacionais voluntárias têm alcance limitado em um sistema de ensino superior altamente fragmentado como o brasileiro.

A regulamentação efetiva vai precisar de engajamento ativo das próprias instituições — especialmente das privadas, que respondem pela maioria das matrículas. E esse engajamento é mais provável quando vem acompanhado de incentivos práticos: reconhecimento de acreditação, diferenciação em rankings, e capacitação de corpo docente para implementar as políticas de forma eficaz.

Publicado em 14 de março de 2026 · thinq.news

Zeen is a next generation WordPress theme. It’s powerful, beautifully designed and comes with everything you need to engage your visitors and increase conversions.

Zeen Subscribe
A customizable subscription slide-in box to promote your newsletter
[mc4wp_form id="314"]