Manifesto publicado no Jornal Publico a 26 de janeiro de 2026
Não é a tecnologia que desumaniza a educação. O que a desumaniza é a ausência de projeto pedagógico, de intencionalidade ética e de responsabilidade educativa.
A Inteligência Artificial (IA) não surge no vazio, surge num mundo já marcado pela aceleração, pela fragmentação da atenção e pela necessidade constante de adaptação, pela burocratização do ensino e pelo esvaziamento do tempo pedagógico, colocando à educação novos desafios éticos, pedagógicos e sociais. Atribuir-lhe a culpa por um pretenso empobrecimento cognitivo e emocional dos estudantes do ensino superior é um erro de diagnóstico que conduz, inevitavelmente, a soluções erradas.
A história da educação ensina-nos algo simples e recorrente, sempre que uma nova tecnologia emerge, o reflexo imediato é o medo e a proibição. Foi assim com o livro impresso, com a calculadora, com a internet, com os motores de busca, com os smartphones. Nunca foi a interdição que educou, foi a mediação pedagógica.
Uma das melhores justificações para a utilização da IA e de uma boa literacia do prompt o mais cedo possível tem que ver com o facto da IA não substituir o pensamento, mas expor a sua ausência. Assim, a IA generativa não pensa, não compreende, não deseja e não interpreta o mundo, mas ajuda a reorganizar a linguagem. Se os estudantes entregam trabalhos vazios, acríticos e sem autoria, o problema não é a IA, mas da ausência de uma cultura de autoria, de exigência intelectual, de modelos pedagógicos atualizados e de práticas avaliativas que valorizem o processo e a construção significativa do conhecimento, em vez da mera reprodução de respostas. A IA não cria mediocridade. Onde existe pensamento, ela pode ser instrumento de aprofundamento, por outro lado, onde ele não existe, revela o vazio.
Outro ponto chave nesta discussão, é que proibir a IA é abdicar da missão de educar. Banir a IA dos processos de ensino e de aprendizagem não protege os estudantes, mas abandona-os num mundo onde a IA já está presente. Abandona-os sem literacia crítica, sem ética de uso, sem compreensão dos seus limites, riscos, enviesamentos e impactos. Abandona-os à clandestinidade pedagógica, ao uso oculto, não acompanhado e não problematizado. Educar nunca foi proteger pelo silêncio, mas sim ensinar a compreender, a argumentar e a decidir.
Questionar o processo humanista num mundo pautado pela ausência de relações é esquecer, que a verdadeira humanização passa pela pedagogia, não pela proibição do uso de tecnologia.
Humanizar o ensino não é regressar a um passado idealizado onde o esforço existia por decreto e a dor era confundida com virtude pedagógica. Humanizar é reconstruir o tempo ao longo da aprendizagem, mas com os instrumentos do presente. A IA pode, quando pedagogicamente orientada, apoiar a escrita reflexiva, sem a substituir, ajudar a estruturar ideias, sem lhes retirar autoria, promover feedback formativo mais frequente e personalizado, tornar visíveis os processos de pensamento, em vez de apenas os produtos finais.
O problema não é a IA, o problema mantém-se no modelo educativo que a acolhe sem crítica. Com isso, não olhamos para a IA sem a questionar, sem refletir sobre a sua legitimidade, sem a necessária crítica académica, ou à captura tecnológica por interesses económicos opacos. Mas confundir essa crítica estrutural com a rejeição da tecnologia é um erro político e pedagógico. A resposta não é a proibição da tecnologia, mas a educação para uma literacia digital e ética que permita aos estudantes compreender, questionar e transformar a tecnologia, em vez de apenas a consumir. Sem isto, a proibição é apenas um gesto simbólico, aparentemente tranquilizador, mas estéril.
A IA não transforma os estudantes em "cretinos digitais" nem em ignorantes, intelectualmente menos capazes ou desonestos; o que se torna evidente é que avaliar melhor é mais exigente do que proibir. A IA veio expor uma fragilidade antiga dos sistemas de avaliação, evidenciando práticas frequentemente assentes em tarefas rotineiras e na classificação do produto final, com reduzida valorização dos processos de aprendizagem, do feedback formativo e do desenvolvimento do pensamento crítico. Proibir a IA para manter práticas de avaliação frágeis é uma opção simplificadora, mas pedagogicamente pouco sustentável. O caminho verdadeiramente exigente é redesenhar práticas pedagógicas onde o trabalho é feito nas aulas com acompanhamento do professor e não em casa, e os estudantes tenham a possibilidade de justificar as suas decisões, explicitar raciocínios, dialogar com fontes, refletir e defender posições de forma crítica. Se pretendemos avaliar para as aprendizagens, não podemos continuar a confundir com a classificação das aprendizagens, porque pretende-se educação, tudo o resto é controlo.
Por outro lado, a IA pode desempenhar um papel relevante na promoção da inclusão educativa. A educação inclusiva assenta no princípio de que todos os estudantes devem aprender juntos, independentemente das suas características, ritmos, necessidades educativas ou contextos socioculturais. A IA permite a personalização das aprendizagens, ajustando conteúdos, níveis de complexidade, ritmos de progressão e modalidades de apoio às necessidades individuais dos estudantes. Através de tecnologias de IA, como leitores de texto, reconhecimento e síntese de voz, legendagem automática, tradução em tempo real e sistemas de apoio à comunicação, é possível facilitar a participação de estudantes com deficiências sensoriais, motoras ou linguísticas.
Por fim, defendemos a IA como uma extensão, e não substituição, do pensamento humano. Defendemos uma IA subordinada ao humano, não como oráculo, mas como instrumento. Uma IA que amplie possibilidades cognitivas, que ajude a pensar melhor, mais longe e com mais consciência dos seus limites.
Tal como a escrita não destruiu a memória, tal como a calculadora não destruiu o pensamento matemático, tal como a internet não destruiu o conhecimento, a IA não destruirá a educação, desde que seja integrada de forma crítica, ética e pedagogicamente fundamentada, ao serviço da aprendizagem, da inclusão e do desenvolvimento humano, e não como substituto do pensamento, da relação pedagógica ou do papel insubstituível do professor.
Sempre que uma sociedade se sente ameaçada, a proibição reaparece como uma solução rápida. Na verdade, a censura digital, nos dias de hoje, é uma espécie de penso rápido numa fratura exposta. Estamos a falar de um reflexo clássico, no qual perante o medo, corta-se, bloqueia-se, silencia-se ou proíbe-se. Hoje, esse impulso manifesta-se de forma particularmente visível na relação com a infância, os jovens, a escola e a tecnologia. Assusta-nos a velocidade do digital e o forte impacto das redes sociais na vida de jovens. Assusta-nos também a dificuldade em acompanhar o que os mais novos fazem online e o modo como interagem com a IA. Em vez de enfrentarmos a complexidade do problema, escolhemos frequentemente o atalho mais simples: proibir. O problema é que esse atalho raramente educa, limita-se a encobrir o problema, deixando-o aparentemente resolvido num único espaço ou tempo, mas nunca a longo prazo ou noutros contextos. Veja-se o exemplo da proibição do uso de telemóveis nas escolas, que poderia resolver um problema educativo, mas não resolve o problema do cidadão, basta este sair da escola e em casa não ter qualquer supervisão ou continuidade das medidas. Um outro exemplo desse equívoco é a recente proibição do acesso às redes sociais a menores de 16 anos na Austrália. Poucos dias após a aprovação desta medida, foi notícia que os sistemas de verificação de idade aceitaram a fotografia de um cão Golden Retrievier como prova de maioridade, ou os próprios pais a criarem contas em seu nome para que os filhos continuassem a aceder às plataformas sociais online. O resultado não foi maior segurança, mas a criação de “clandestinos digitais”, jovens que aprendem, desde cedo, que as regras existem para ser contornadas, muitas vezes com a cumplicidade dos adultos. É imperativo mudar o paradigma, proteger as nossas crianças e jovens adultos de que o exagero e absurdo das redes sociais não se resolve com um "botão de desligar" imposto por decreto. Do ponto de vista da mensagem pedagógica, o que aqui se transmite é devastador, ou seja, não se aprende a agir com responsabilidade, aprende-se a ludibriar o sistema.
Proibir cria o efeito do fruto proibido, aumenta o desejo, incentiva a transgressão e empurra os comportamentos para espaços menos visíveis e menos seguros. Educar é mais difícil, exige tempo, formação, coerência e responsabilidade partilhada entre escola, família e sociedade. Mas é a única via que constrói cidadãos livres, críticos e capazes de escolher. A escola continua a ser o último reduto de lucidez num mundo cada vez mais extremo nas opiniões e pobre em reflexão. Cabe-lhe ensinar a pensar antes de ensinar a obedecer, a questionar antes de aceitar, a usar antes de proibir. As políticas educativas baseadas no medo podem dar uma sensação momentânea de controlo, mas deixam os jovens desarmados quando saem dos muros da escola e mergulham, sozinhos, num oceano digital para o qual nunca aprenderam a nadar.
Proibir a IA pode parecer uma escolha corajosa. Na verdade, é muitas vezes um ato de desistência pedagógica. Educar para o uso crítico da IA é mais difícil, mais lento e mais exigente, mas é o único caminho coerente com a missão humanista da educação. Se por um lado não queremos zombies digitais, por outro, também não queremos estudantes desarmados perante o mundo real. Queremos cidadãos capazes de pensar com tecnologia, sobre tecnologia e, quando necessário, contra a tecnologia.
Porque humanizar a educação não é recusar o futuro é ensinar a habitá-lo com consciência, ética e pensamento crítico.
Nota: Este manifesto poderá ser assinado na resposta dos comentários deste post com o nome completo e a instituição em que trabalha
Marco Bento
Professor na Escola Superior de Educação de Coimbra, investigador no Centro de Investigação e Inovação em Educação (InED ESE-IPP), coordenador do Projeto SUPERTABi Maia, consultor em Educação
José Alberto Lencastre
Professor Associado no Instituto de Educação da Universidade do Minho
Investigador no Centro de Investigação em Educação (CIEd) e no Centro ALGORITMI
Membro do Laboratório Associado de Sistemas Inteligentes (LASI)
Membro do Centro IDEA-UMinho - Centro de Inovação e Desenvolvimento do Ensino e da Aprendizagem
Membro do Consórcio EPIC - Excelência Pedagógica e Inovação em Cocriação