O levantamento é revelador na sua precisão: de acordo com pesquisa do grupo de estudos “Governança de Agentes de IA” do Instituto de Estudos Avançados da USP, apenas 12 instituições de ensino superior brasileiras têm diretrizes definidas e publicadas sobre o uso de inteligência artificial por alunos, professores e pesquisadores. Doze. Em um país com mais de 2.600 instituições de ensino superior. Em um momento em que 84% dos estudantes brasileiros já usaram ferramentas de IA para atividades acadêmicas, segundo pesquisa da Fundação Itaú.
O paradoxo é evidente e preocupante: a tecnologia chegou antes da governança. Estudantes usam ChatGPT, Gemini e Claude para redigir trabalhos, resolver exercícios, preparar apresentações e sintetizar bibliografias — sem qualquer orientação institucional sobre o que é permitido, o que é proibido, e o que constitui uso ético versus desonestidade acadêmica. Professores se deparam com trabalhos que parecem gerados por IA sem ter ferramentas claras para avaliá-los ou processos estabelecidos para lidar com o problema. E as instituições navegam nesse ambiente sem políticas claras, expondo-se a riscos reputacionais, legais e acadêmicos que se tornam maiores a cada semestre.
Apenas 32% dos estudantes dizem ter recebido orientação nas escolas sobre como usar IA de forma adequada — o que significa que 68% estão aprendendo por tentativa e erro, moldando seus hábitos acadêmicos com IA sem qualquer enquadramento ético ou pedagógico. Esse é o terreno onde se constroem os padrões de comportamento que esses estudantes vão levar para o mercado de trabalho.
O que está em jogo: além da “cola digital”
O debate público sobre IA no ensino superior tem sido dominado pela questão da integridade acadêmica — a preocupação com estudantes que submetem trabalhos gerados por IA como se fossem próprios. Essa é uma preocupação legítima e importante. Mas reduzir o problema ao “plágio de IA” é perder as questões mais estruturais e mais consequentes.
A primeira questão estrutural é sobre o que o diploma certifica. Se um estudante pode completar todas as atividades de um curso com auxílio extensivo de IA sem aprender a pensar, analisar e produzir conhecimento de forma independente, o diploma deixa de certificar as competências que deveria certificar. O mercado de trabalho já está percebendo isso: empresas que contratam formandos reportam crescente frustração com jovens profissionais que não conseguem executar tarefas básicas de análise sem suporte de IA, que não entendem os limites das ferramentas que usam, e que não conseguem verificar se um output de IA está correto.
A segunda questão é sobre formação de pensamento crítico. A capacidade de questionar premissas, identificar falácias em argumentos, e avaliar a validade de evidências é desenvolvida, principalmente, pelo esforço de construir argumentos próprios do zero — o processo que a IA pode contornar completamente se não houver uma estrutura pedagógica que o torne necessário. Instituições que não pensaram sobre como redefinir suas atividades avaliativas para tornar esse desenvolvimento inevitável vão gradualmente perder a capacidade de produzir pensadores críticos.
A terceira questão é sobre pesquisa e produção de conhecimento. Pesquisadores que usam IA para sintetizar literatura, formular hipóteses e redigir artigos sem entender profundamente o que os modelos estão fazendo correm o risco de produzir pesquisa que parece sólida mas tem falhas metodológicas que os revisores de pares não estão equipados para detectar. O risco de “poluição epistemológica” — conhecimento gerado por IA que parece credível mas está errado ou superficial — é real e crescente na literatura científica.
O que as 12 instituições que têm políticas estão fazendo certo
Em vez de especular sobre o que deveria ser feito, é mais útil olhar para o que as instituições que saíram na frente estão efetivamente implementando.
O padrão que emerge das políticas mais maduras combina permissão contextualizada com exigência de transparência. Em vez de proibir IA ou permitir tudo, essas instituições definem em quais contextos a IA pode ser usada, em quais não pode, e como o uso deve ser documentado quando é permitido. Um trabalho de pesquisa pode permitir o uso de IA para revisão de gramática e estrutura, mas exige que o desenvolvimento do argumento central seja do estudante. Uma prova individual pode proibir qualquer auxílio de IA. Um projeto colaborativo pode permitir uso mais amplo, com exigência de reflexão documentada sobre como a IA foi usada.
A transparência é o elemento central: estudantes são obrigados a declarar como usaram IA, quais ferramentas utilizaram, e qual foi a contribuição deles versus a contribuição da ferramenta. Essa exigência de transparência, por si só, muda o comportamento — estudantes que precisam documentar “a IA fez tudo” ficam expostos de uma forma que estudantes que usam IA de forma opaca não ficam. E a documentação cria uma trilha que os professores podem usar para avaliar o aprendizado real, independentemente da qualidade do produto final.
Há também um componente de educação para o uso ético: as instituições mais avançadas incluem nos currículos módulos sobre como IA funciona, quais são suas limitações, como verificar outputs e como usá-la de forma que amplie o aprendizado em vez de substituí-lo. Essa educação não é adicional ao currículo — é integrada às disciplinas existentes, com professores de todas as áreas orientados a incluir discussões sobre IA relevantes para seu campo.
O que as instituições que ainda não têm política precisam fazer agora
Para reitores, pró-reitores acadêmicos e líderes de instituições que ainda não têm políticas sobre IA, há uma urgência real que vai além da pressão pública. A janela para construir políticas reflexivas e bem-elaboradas está se fechando: cada semestre sem política é um semestre de práticas ad hoc se consolidando como normas informais que serão progressivamente difíceis de mudar.
O primeiro passo não precisa ser uma política completa e definitiva — precisa ser um processo. Criar um grupo de trabalho multidisciplinar que inclua docentes de diferentes áreas, estudantes, especialistas em tecnologia e profissionais de compliance jurídico para desenvolver diretrizes é muito mais eficaz do que uma política top-down criada sem consulta ampla. Políticas construídas com participação têm mais adesão e são mais bem aplicadas.
O segundo passo é o mapeamento do status quo. Antes de definir o que deve ser, é preciso entender o que está acontecendo: como estudantes estão usando IA, como professores estão respondendo, que problemas já surgiram e como foram tratados informalmente. Esse diagnóstico pode ser feito através de pesquisas com estudantes e docentes, análise de casos problemáticos que chegaram às coordenações, e observação dos tipos de trabalhos que estão sendo submetidos.
O terceiro passo é a formação docente. Professores não podem aplicar políticas de uso de IA que não compreendem. Isso requer investimento em capacitação sobre as ferramentas de IA relevantes para cada área, sobre como identificar trabalhos gerados por IA (com as limitações que as ferramentas de detecção têm), e sobre como redesenhar atividades avaliativas que sejam mais robustas à delegação para IA sem tornar-se punitivamente difíceis para estudantes que usam IA de forma legítima.
O mercado de trabalho está cobrando a conta: o que empregadores querem que as universidades formem
A razão mais pragmática para que as universidades se movam rapidamente vem de um lugar surpreendente: o mercado de trabalho. Empresas que contratam formandos estão começando a identificar e vocalizar uma lacuna crescente entre o que os currículos prometem e o que os profissionais conseguem entregar.
As competências mais demandadas — pensamento crítico, capacidade analítica, comunicação precisa, resolução de problemas em contexto ambíguo — são exatamente as que ficam subdesenvolvidas quando a IA faz o trabalho que deveria desenvolver essas competências. O irônico é que o mercado de trabalho também vai exigir que esses profissionais saibam usar IA — mas saibam usá-la como uma ferramenta que amplifica competências que eles realmente têm, não como um substituto de competências que não desenvolveram.
Universidades que formarem profissionais capazes de fazer as duas coisas — pensar de forma independente e trabalhar efetivamente com IA — vão ter uma vantagem de colocação no mercado que vai se tornar um diferencial competitivo real na captação de novos alunos. Aquelas que continuarem sem política, permitindo que os estudantes se formem sem desenvolver competências fundamentais e sem aprender a usar IA de forma crítica e responsável, vão colher esse custo na reputação.
Publicado em 19 de março de 2026 · thinq.news




