A narrativa dominante sobre IA em educação em 2026 é de transformação positiva — personalização, acesso, eficiência. É uma narrativa com fundamento. Mas há riscos concretos que estão sendo sistematicamente sub-discutidos nas conversas sobre adoção, em parte porque apontá-los é lido como oposição à inovação, e em parte porque quem os discute abertamente cria fricção com fornecedores que têm interesse em adoção acelerada.
Três categorias de risco merecem atenção mais séria do que estão recebendo.
Privacidade de dados de menores em escala
Sistemas de IA educacional coletam dados de comportamento de aprendizado de crianças em granularidade sem precedente: quais exercícios tentaram, quantas tentativas precisaram, quanto tempo ficaram em cada seção, onde desistiram. Esses dados são extraordinariamente sensíveis — revelam não apenas o que o aluno sabe, mas como pensa e onde tem dificuldade.
A maioria dos contratos de plataformas de edtech com escolas públicas tem cláusulas de uso de dados que poucos gestores escolares leram completamente. O relatório do CDT documentou casos de dados de alunos sendo usados para treinar modelos que são depois vendidos como produtos — sem consentimento informado dos pais e sem que as escolas soubessem.
Assédio e abuso mediados por IA
Ferramentas de geração de imagem e vídeo acessíveis estão sendo usadas por alunos para criar e circular conteúdo falso envolvendo colegas — deepfakes, imagens sexualizadas geradas de fotos reais. Esse problema existe fora das escolas, mas o ambiente escolar concentra jovens em grupos com dinâmicas de poder específicas que amplificam o dano.
Poucas escolas têm políticas claras sobre como tratar esses casos, quais ferramentas são coibidas e como responder quando o conteúdo já circulou. A ausência de política é uma posição implícita que favorece quem causa dano.
Tratamento algorítmico injusto
Sistemas de IA que avaliam ou classificam alunos — recomendando trilhas de aprendizado, sinalizando dificuldades, prevendo desempenho — podem replicar e amplificar vieses presentes nos dados de treinamento. Um sistema treinado principalmente em dados de alunos de contextos privilegiados pode sistematicamente subestimar o potencial de alunos de contextos diferentes.
Isso não é hipótese — há evidências documentadas em sistemas de recomendação educacional e plataformas de avaliação. A pergunta que escolas e gestores deveriam fazer antes de adotar qualquer sistema de IA que classifica ou avalia alunos: quais foram as características da população usada para treinar esse modelo, e há evidências de performance equitativa em populações diversas?




