Newsletter: Receba notificações por email de novos textos publicados:

quarta-feira, 4 de março de 2026

LEITURAS MARGINAIS

SE A IA CONSEGUE PASSAR NA TAREFA, O QUE ESTAMOS REALMENTE A TESTAR?
Enrique Dans, Medium. Trad. O’Lima.


Um relatório recente do Pew Research Center voltou a lançar o alarme. O centro de estudos de ciências sociais dos EUA relata que 60% dos adolescentes norte-americanos acreditam que usar chatbots com IA para copiar é uma «ocorrência comum» nas suas escolas secundárias. Mais uma prova, ao que parece, do colapso da nossa civilização. Mas, se nos dermos ao cuidado de ler o estudo, o que emerge não é um quadro preocupante da IA ou da «juventude de hoje», mas sim um relato das fraquezas inerentes aos sistemas educativos tradicionais, onde muitas tarefas são concebidas para serem concluídas como se fossem formulários a preencher, em que a avaliação recompensa a «conclusão da lista de pontos» em vez da aprendizagem através da descoberta.

O relatório é claro numa uma coisa: os chatbots estão agora totalmente integrados na vida escolar quotidiana. Sessenta e quatro por cento dos adolescentes afirmam ter usado chatbots, e que usá-los para «ajudar nos trabalhos escolares» está no topo da lista (54%). A perceção de «batota» é maior entre aqueles que já utilizaram chatbots para trabalhos escolares: quando a ferramenta é normalizada, a discussão e o cinismo sobre as suas utilizações também são normalizados. O problema aqui é a tendência de muitas pessoas confundirem a utilização da IA com um declínio nos padrões educacionais: tudo o que a IA faz é destacar uma tensão muito antiga. Uma incompatibilidade no objetivo da aprendizagem que remonta a décadas.

A fraude não foi inventada pelo Vale do Silício. Ao contrário da percepção popular, há cada vez mais evidências de que os números globais de cópia e plágio podem não ter disparado com a chegada do ChatGPT: o que mudou foi o método, a facilidade e, acima de tudo, a detectabilidade. Essa nuance é fundamental: quando uma prática já é estrutural, a inovação apenas a torna mais barata e amplamente disponível. Este artigo da Vox resume bem: a IA altera a forma como os estudantes copiam, não necessariamente os incentiva a fazê-lo; é a nossa angústia geracional que nos leva a procurar culpados fáceis.

Esta narrativa moralista sobre a fraude é conveniente e evita a questão difícil. Que tipo de tarefas estamos a definir quando uma parte significativa do corpo discente entende que «usar um chatbot» é uma forma razoável de obter melhores notas? Quanto do trabalho deles envolve raciocínio e quanto é apenas preenchimento de formulários educacionais? Quando o sistema mede obsessivamente o desempenho, o aluno otimiza o desempenho. É uma resposta racional.

Além disso, a linha entre «ajuda» e «batota» está a tornar-se cada vez mais ténue, e não por causa dos alunos. Se um chatbot o ajuda a compreender bem um conceito porque o explica de maneiras diferentes ou mais adequadas ao seu estilo de aprendizagem, o ajuda a praticar exercícios sempre que quiser, a verificar e compreender o resultado de um exame ou a melhorar a clareza de um texto, isso é aprendizagem assistida ou uma substituição do esforço? Por que é que isso tem de ser uma coisa má? Mesmo entre os professores não há consenso, e essa inconsistência cria o terreno fértil perfeito para regras confusas, sanções arbitrárias e desconfiança que prejudicam a relação educativa com os alunos. A discussão sobre definições e a necessidade de consistência é proeminente em trabalhos recentes com foco na integridade académica na era da IA.

A reação de muitas instituições tem sido a de avançar para a vigilância: detectores de IA, políticas punitivas, caça às bruxas. E isso abre outra brecha: a equidade. Se os detectores estiverem errados, quem punem eles primeiro? Há investigações que alertam para erros e preconceitos extremamente comuns contra falantes não nativos de inglês nas ferramentas de detecção, um problema que, traduzido em salas de aula diversificadas, corre o risco de tratamento injusto. Se eu executar uma dessas ferramentas nos meus artigos, ela dir-me-á que alguns deles foram escritos por um chatbot. A quem devo reclamar?

Entretanto, as grandes organizações que analisam o sistema com perspetiva estão a sugerir algo bastante sensato: não se trata de proibir por padrão ou por reflexo, mas sim de redesenhar. A UNESCO, no seu guia sobre IA generativa na educação e investigação, insiste que existe um vazio regulatório e uma falta de preparação institucional, e que a resposta deve ser humana, pedagógica e de capacitação: políticas, competências e estruturas de uso responsável. A OCDE, no seu Digital Education Outlook 2026, segue uma linha semelhante: a IA generativa está a ser utilizada «além do controlo institucional» devido à sua acessibilidade e versatilidade, e o desafio é criar princípios de ensino claros para que o efeito seja apoiar a aprendizagem e não um atalho permanente.

E aqui chegamos ao cerne da questão: se um chatbot consegue realizar uma tarefa com competência, talvez a questão não seja «como posso impedir isso?», mas «o que estou a avaliar exatamente?». Se estou a avaliar a memória de curto prazo, a inteligência artificial supera-a com facilidade. Se estou a avaliar a síntese superficial, acontece o mesmo. Se estou a avaliar a produção textual padrão, acontece o mesmo. A inteligência artificial está finalmente a forçar um debate que temos evitado há décadas: a necessidade de avançar para avaliações, processos, tarefas, defesas orais, projetos iterativos, trabalho com fontes, reflexão sobre decisões e contextos autênticos, nos quais os alunos têm de mostrar discernimento, e não apenas resultados simples. O problema não é que os alunos «usam» uma ferramenta, mas que o sistema continua a fingir que a aprendizagem consiste em entregar um produto final sem qualquer rastreabilidade.

Os dados também apontam para outra realidade incómoda: as políticas e a formação estão aquém da utilização. A RAND, num relatório recente, descreve a crescente adoção entre estudantes e educadores, enquanto as diretrizes, a formação e as políticas ficam para trás. Quando uma nova tecnologia é adotada por um grande número de pessoas muito rapidamente e as nossas instituições respondem tarde e mal, não admira que a sua utilização conduza a zonas cinzentas, oportunismo ou batota descarada.

É tentador culpar a IA porque parece uma ameaça externa, mas a verdadeira ameaça é a inércia de um modelo educativo que confunde obediência com aprendizagem e transforma o tempo do aluno num recurso a ser consumido, não numa experiência a ser construída. Personalização zero, educação em cadeia, produção em massa, desprezo pela individualidade (na verdade, há uma tendência para tentar esmagá-la, para a «normalizar»). A IA, tal como a calculadora ou a Internet antes dela, obriga-nos a decidir que competências têm valor humano, tais como fazer as perguntas certas, verificar, argumentar, ligar ideias, saber fazer perguntas, criar, colaborar e compreender os limites e preconceitos das ferramentas. Se continuarmos a avaliar como se o mundo fosse analógico, os alunos continuarão a manipular o sistema. Se as notas são a única métrica, devemos lembrar a Lei de Goodhart: quando uma métrica se torna uma meta, deixa de ser uma boa métrica.

É claro que haverá alunos que usarão chatbots para fazer tudo. Mas mesmo isso, em vez de uma falha moral geracional, é um sintoma: pressão, sobrecarga, falta de sentido, tarefas irrelevantes e uma cultura de notas que recompensa a aparência.

Os dados do Pew oferecem números, mas a nossa obrigação é interpretá-los como um diagnóstico do sistema. Talvez o verdadeiro escândalo não seja o facto de os adolescentes estarem a usar IA para fazer os trabalhos de casa, mas sim que o sistema educativo continua determinado a avaliar como se a inteligência, natural ou artificial, não tivesse mudado para sempre.

Sem comentários: