Newsletter: Receba notificações por email de novos textos publicados:

quinta-feira, 5 de fevereiro de 2026

LEITURAS MARGINAIS

A IA PODERÁ TRANSFORMAR A EDUCAÇÃO SE AS UNIVERSIDADES DEIXAREM DE AGIR COMO GUILDAS MEDIEVAIS.
Enrique Dans, Medium. Trad. O’Lima.


O pânico não é uma estratégia pedagógica

Quando o ChatGPT surgiu, grande parte da academia reagiu não com curiosidade, mas com medo. Não medo do que a inteligência artificial poderia permitir que os alunos aprendessem, mas medo de perder o controlo sobre como o aprendizado era tradicionalmente supervisionado. Quase imediatamente, os professores declararam a IA generativa como «veneno», alertaram que ela destruiria o pensamento crítico e exigiram proibições total em todas as faculdades (…) Outros apressaram-se em reviver os exames orais e as avaliações manuscritas, como se voltar no tempo pudesse fazer o problema desaparecer. Isso nunca foi realmente sobre pedagogia. Era sobre autoridade.

A narrativa da integridade mascara um problema de controlo

A resposta tem sido tão caótica que os investigadores já documentaram a confusão resultante: políticas contraditórias, diretrizes vagas e mecanismos de aplicação que até mesmo os professores têm dificuldade em compreender (...)

As universidades falam incessantemente sobre integridade académica, enquanto admitem discretamente que não têm uma definição comum do que significa integridade num mundo aumentado pela IA. Enquanto isso, tudo o que realmente importa para a aprendizagem, desde a motivação até a autonomia, o ritmo, a capacidade de tentar ou falhar sem humilhação pública, mal entra na conversa.

Em vez de perguntar como a IA poderia melhorar a educação, as instituições têm-se obcecado em como preservar a vigilância.

As evidências apontam na direção oposta.

No entanto, as evidências apontam numa direção muito diferente. Os sistemas de tutoria inteligente já são capazes de adaptar conteúdos, gerar exercícios contextualizados e fornecer feedback imediato de maneiras que salas de aula grandes não conseguem, conforme resumido em pesquisas educacionais recentes. Essa desconexão revela algo desconfortável.

A IA não ameaça a essência da educação: ela ameaça a burocracia construída à sua volta. Os próprios alunos não estão a rejeitar a IA: estudos mostram consistentemente que eles veem o uso responsável da IA como uma capacidade profissional essencial e querem orientação, não punição, para usá-la bem. A desconexão é gritante: os alunos estão avançando, enquanto as instituições académicas estão-se entrincheirando.

Como é, na prática, uma abordagem «all-in»

Há mais de 35 anos que leciono na IE University, uma instituição que sempre assumiu uma postura contrária. Muito antes de a IA generativa entrar no debate público, a IE já experimentava a educação online, modelos híbridos e aprendizagem aprimorada pela tecnologia. Quando o ChatGPT chegou, a universidade não entrou em pânico. Em vez disso, publicou uma Declaração Institucional sobre Inteligência Artificial muito clara, enquadrando a IA como uma mudança tecnológica histórica, comparável ao motor a vapor ou à internet, e comprometendo-se a integrá-la de forma ética e intencional no ensino, na aprendizagem e na avaliação.

Essa posição "all-in" não tinha a ver com novidade ou branding. Baseava-se numa ideia simples: a tecnologia deve adaptar-se ao aluno, e não o contrário. A IA deve ampliar o ensino humano, não substituí-lo. Os alunos devem poder aprender ao seu próprio ritmo, receber feedback sem julgamentos constantes e experimentar sem medo. Os dados devem pertencer ao aluno, não à instituição. E os educadores devem dedicar menos tempo a fiscalizar os resultados e mais tempo a fazer o que só os humanos podem fazer: orientar, inspirar, contextualizar e exercer o julgamento. A decisão da IE de integrar as ferramentas da OpenAI em todo o seu ecossistema académico reflete essa filosofia na prática.

A uniformidade nunca foi rigor

Esta abordagem contrasta fortemente com as universidades que tratam a IA principalmente como um problema de fraude. Essas instituições defendem um modelo baseado na uniformidade, ansiedade, memorização e avaliação, em vez da compreensão. A IA expõe os limites desse modelo precisamente porque torna possível um modelo melhor: aprendizagem adaptativa e centrada no aluno em grande escala, uma ideia apoiada por décadas de investigação educacional.

Mas abraçar essa possibilidade é difícil. É preciso abandonar a ficção reconfortante de que ensinar o mesmo conteúdo a todos, ao mesmo tempo, avaliado pelos mesmos exames, é o ápice do rigor. A IA revela que esse sistema nunca teve a ver com eficiência de aprendizagem, mas sim com conveniência administrativa. Não é rigor... é rigor mortis.

As Escolas Alpha e a ilusão da disrupção

É claro que há experiências que afirmam apontar para o futuro. As Escolas Alpha, uma pequena rede de escolas privadas com foco em IA nos EUA, chamaram a atenção por reestruturar radicalmente o dia letivo em torno de tutores de IA. A proposta é atraente: os alunos concluem as disciplinas básicas em poucas horas com o apoio da IA, liberando o resto do dia para projetos, colaboração e desenvolvimento social.

Mas as Escolas Alpha também ilustram como é fácil errar na aplicação da IA na educação: o que elas implementam hoje não é um ecossistema de aprendizagem sofisticado, mas uma fina camada de conteúdo impulsionado por IA otimizado para velocidade e desempenho em testes. O modelo de IA, simplista e fraco, prioriza a aceleração em detrimento da compreensão, a eficiência em detrimento da profundidade. Os alunos podem avançar mais rapidamente através do material padronizado, mas fazem-no ao longo de percursos rígidos e predefinidos, com ciclos de feedback simplistas. O resultado parece menos uma aprendizagem aumentada e mais uma automatização disfarçada de inovação.

Quando a IA se torna um tapeterolante

Este é o principal risco enfrentado pela IA na educação: confundir personalização com otimização, autonomia com isolamento e inovação com automação. Quando a IA é tratada como um tapete rolante em vez de uma companheira, ela reproduz as mesmas falhas estruturais dos sistemas tradicionais, só que de forma mais rápida e barata.

A limitação aqui não é tecnológica: é conceitual.

A verdadeira educação impulsionada pela IA não consiste em substituir professores por chatbots ou comprimir currículos em intervalos de tempo mais curtos. Consiste em criar ambientes onde os alunos possam planear, gerir e refletir sobre processos de aprendizagem complexos; onde o esforço e a consistência se tornem visíveis; onde os erros sejam seguros; e onde o feedback seja constante, mas respeitoso. A IA deve apoiar a experimentação, não impor a conformidade.

A verdadeira ameaça não é a IA

É por isso que a reação contra a IA nas universidades é tão equivocada. Ao concentrarem-se na proibição, as instituições perdem a oportunidade de redefinir a aprendizagem em torno do crescimento humano, em vez do controlo institucional. Elas agarram-se aos exames porque são fáceis de administrar, não porque são eficazes. Temem a IA porque ela torna óbvio o que os estudantes sabem há muito tempo: que grande parte do ensino superior mede os resultados, negligenciando a compreensão.

As universidades que prosperarão não são aquelas que proíbem ferramentas ou ressuscitam rituais de avaliação do século XIX. Serão aquelas que tratam a IA como infraestrutura educacional essencial — algo a ser moldado, governado e aprimorado, não temido. Elas reconhecerão que o objetivo não é automatizar o ensino, mas reduzir a desigualdade educacional, expandir o acesso ao conhecimento e libertar tempo e atenção para os aspetos profundamente humanos da aprendizagem.

A IA não ameaça a educação: ela ameaça os sistemas que se esqueceram para quem é a educação.

Se as universidades continuarem a responder defensivamente, não será porque a IA as substituiu. Será porque, quando confrontadas com a primeira tecnologia capaz de permitir uma aprendizagem genuinamente centrada no aluno em grande escala, elas optaram por proteger os seus rituais em vez dos seus alunos.

Sem comentários: