Quando a IA pensa por nós: os riscos da ‘dívida cognitiva’ na educação

 

Da imagem desfigurada de Will Smith comendo espaguete, em 2023, ao realismo das versões de 2026, a inteligência artificial evoluiu rapidamente. Essa quase perfeição estética, que entretém e convida ao compartilhamento, contudo, camufla um desafio pedagógico. Para o especialista em tecnologia educacional Cristóbal Cobo, a agilidade das ferramentas não garante a aprendizagem profunda. Confundir a velocidade da máquina com a construção do saber cria uma “ilusão de conhecimento”.

Pesquisador chileno Cristóbal Cobo alertou que delegar nossa cognição às máquinas sem senso crítico pode atrofiar capacidades essenciais. Com passagens pela Universidade de Oxford (Inglaterra) e pela Fundación Ceibal (Uruguai), o especialista defende uma redistribuição da inteligência: nela, o professor deixa de ser um mero produtor de conteúdo para se tornar um curador sistêmico e ético.

O vídeo sintético gerado por IA com o ator Will Smith comendo espaguete virou um símbolo do avanço da tecnologia. Em 2023, era um meme bizarro, cheio de mãos derretidas e massas com vida própria. Hoje, parece quase uma cena de cinema.


Posturas diante da IA na educação

Como o título “Se a IA é a resposta, qual é a questão educacional que permanece?”, a palestra começou com uma provocação sobre o papel da IA na educação. “O mais fácil na educação não é necessariamente o melhor para a aprendizagem”, disse Cristóbal. “Porque a aprendizagem rápida não significa aprendizagem profunda, e o que faz a diferença não é apenas a tecnologia, mas sim o design pedagógico com o qual a incorporamos.”

De acordo com o pesquisador, essa preocupação ganha força diante de um fenômeno já observado em diferentes países. “É muito fácil e muito cômodo pedir a um modelo de linguagem que elabore a resposta. Mas, se eu não invisto tempo em entender o que estou produzindo, esse aprendizado provavelmente será apenas uma ilusão”. A facilidade de obter uma resposta em questão de segundos acaba mascarando a ausência de compreensão real.

Primeiro ponto: a IA não existe para simplificar tudo, mas para regular o nível de desafio. “Quando bem usada, ela não elimina a dificuldade: apenas ajusta o esforço necessário, mantendo o estudante em uma zona de desafio manejável, em vez de oferecer soluções imediatas”, disse ao reforçar que o aprendizado nasce do engajamento, não do acesso a respostas. “O mecanismo essencial é o envolvimento ativo. Sem esforço, tentativa e reflexão, não há construção de conhecimento duradouro, mesmo que a informação esteja disponível em abundância”.

Em seguida, Cristóbal aponta que atualmente podemos estar diante do “efeito Mateus”, termo cunhado pelo sociólogo americano Robert King Merton, inspirado em um versículo do Evangelho de Mateus: “a quem tem, mais será dado; e ao que não tem, até o que tem lhe será tirado”. Na educação, estudantes com maior capital cultural tendem a se beneficiar mais da IA do que estudantes que ainda tentam alcançar os conhecimentos básicos. Por isso, assumir que essas ferramentas trazem apenas vantagens é ingênuo: sem mediação adequada, elas podem aprofundar desigualdades em vez de reduzi‑las.

Em outra perspectiva, surge ainda a possibilidade de uma brecha invertida. Tradicionalmente, quando se fala em desigualdade educacional, imagina‑se que quem tem menos acesso à tecnologia é quem fica para trás. Mas, como explica Cristóbal, o cenário pode se inverter: mesmo quando a tecnologia chega a todos, os grupos mais privilegiados avançam mais rápido, enquanto os mais vulneráveis não conseguem transformar esse acesso em aprendizagem real.

Em contextos privilegiados, os alunos contam com professores bem preparados, formação continuada e infraestrutura tecnológica robusta. Já em regiões mais vulneráveis, a IA pode acabar se tornando a única “voz” disponível, substituindo a mediação humana qualificada por respostas automáticas. “Enquanto uns terão bons docentes e boas ferramentas, outros poderão ficar restritos a aprender com um robô”, disse o especialista.

Se não houver uma redistribuição da cognição, onde o humano deixa de apenas “produzir” para “analisar criticamente” o que a máquina fez, o saldo é uma “dívida cognitiva”: ao delegarmos o pensamento, perdemos gradualmente a capacidade de compreender, avaliar e decidir por conta própria, como o personagem “Roberto” desta propaganda da Fiat que Cristóbal exibiu ao público presente à plenária. (No comercial, cada “Roberto” cria uma versão mais avançada de si mesmo para trabalhar em seu lugar, até que todos os robôs querem apenas passear com o carro novo. No fim, ninguém trabalha, e o objetivo inicial, liberar tempo para aproveitar a vida, se perde completamente.)

Esse cuidado é importante porque estamos diante da “hiperpersuasão”. Cristóbal mencionou aqui ideias de Luciano Floridi, filósofo italiano e uma das vozes mais influentes nos debates sobre ética digital e inteligência artificial. Professor nas universidades de Yale (Estados Unidos) e Bolonha (Itália), ele descreve como as tecnologias digitais (sites, redes sociais, aplicativos e agora a IA generativa) se tornaram tão avançadas que já não influenciam apenas nossas escolhas, mas também nossas crenças e a forma como percebemos a realidade. Diferente da persuasão tradicional, que era explícita e reconhecível, a hiperpersuasão é invisível, contínua e personalizada, embutida no próprio ambiente digital que usamos todos os dias.

Isso significa que somos expostos a conteúdos, recomendações e imagens que parecem neutras, mas que afetam silenciosamente nossa visão de mundo. A tecnologia deixa de apenas “mostrar coisas” e passa a orientar o que pensamos e como pensamos. Por isso, defende Cristóbal, precisamos praticar a higiene informativa, que envolve uma forma de “desobediência tecnológica”: lembrar que a IA não busca a verdade, apenas repete padrões, e cabe a nós questionar o que ela produz.

Novas formas de avaliação

Com informações sendo geradas de forma cada vez mais rápida, a IA cria a ilusão de um produto perfeito, algo que muitos educadores já perceberam que não reflete a compreensão real do aluno. Esse cenário evidencia a necessidade de rever os modelos tradicionais de avaliação.

Cristóbal Cobo mencionou essas ideias de Daniel Kahneman (autor de “Rápido e devagar”) em sua palestra ao explicar que, quando buscamos apenas a resposta rápida e “correta”, tendemos a acionar o Sistema 1, intuitivo, veloz e automático, em vez do Sistema 2, que exige esforço, análise e reflexão, iluminando como nossas decisões podem ser eficientes, porém vulneráveis a vieses quando não damos espaço ao pensamento mais cuidadoso.

Essa dinâmica evidencia como decisões podem parecer eficientes, mas se tornam vulneráveis a vieses quando não abrimos espaço para um pensamento mais cuidadoso. Nesse contexto, avaliar somente o produto final reforça a “preguiça cognitiva”: o estudante pode apresentar um trabalho impecável sem ter passado pelo processo de aprendizagem. E, como muitos já conseguem gerar algo convincente apenas dominando técnicas de prompt em ferramentas de IA, Cobo defende que a avaliação precisa migrar da capacidade de produzir informação para a capacidade de analisar, criticar e decidir sobre a qualidade do que foi gerado.

Entre os exemplos mencionados, o especialista defende que algumas práticas avaliativas devem medir o que o estudante sabe fazer sozinho, sem tecnologia. Outras podem incluir o uso de IA para tarefas simples, como revisar ortografia ou formato, e até para tarefas cognitivas mais complexas, como comparar informações ou verificar argumentos. Essas práticas podem ser estruturadas em quatro pilares:

Contextos reais: propor problemas do mundo real onde os estudantes precisem adaptar e aplicar o conhecimento em situações diversas, algo que exige mais do que apenas repetir dados.

Oralidade sem roteiro: realizar provas orais para que o aluno explique sua lógica e compreensão, permitindo ao professor verificar se há consciência e experiência por trás das palavras.

Foco no processo: valorizar as etapas de construção, as tentativas, os erros e as revisões, em vez de apenas o arquivo final entregue.

Uso transparente da IA: em vez de usar detectores de plágio (sempre propensos a falhar), o aluno deve expor como usou a IA, quais prompts utilizou e quais decisões tomou a partir do que a máquina entregou.

Ao final de sua palestra, o pesquisador propôs um modelo para apoiar a transição de uma educação focada na eficiência técnica para outra orientada pela soberania e pelo bem‑estar humano. Para isso, recorreu ao acrônimo EPA, que remete à ideia de “parar e pensar”, mas que está ligado a três princípios: ética, pensar e amplificar.

Ética deve fundamentar o design tecnológico desde o início, funcionando como arquitetura e não como um remédio aplicado após o surgimento de problemas. Essa postura garante a privacidade e a equidade, assegurando que os dados utilizados reflitam contextos reais e relevantes para os estudantes.

Pensar criticamente é o antídoto necessário contra a capacidade de convencimento das máquinas, que podem parecer verdadeiras mesmo quando estão incorretas. O objetivo pedagógico deve ser o fortalecimento de um hábito de questionamento constante por parte do aluno, protegendo o processo de aprendizagem contra o automatismo técnico e a aceitação passiva de informações.

Amplificar a capacidade humana, e não substituí-la. A IA deve atuar como uma ferramenta de expansão do saber, combatendo a dependência cognitiva que torna o indivíduo redundante ou passivo em sua própria trajetória de construção de conhecimento.

...
por Vinícius de Oliveira [cross post porvir.org]

[Felipe Perazzolo] O pesquisador Cristóbal Cobo alerta que a rapidez da IA pode gerar uma “ilusão de conhecimento”, defendendo que o papel do professor deve evoluir de produtor de conteúdo para um curador ético e sistêmico.

Cristóbal Cobo (1976) es PhD “cum laudem” en Ciencias de la Comunicación por la Universidad Autónoma de Barcelona. Actualmente es Especialista Senior en Políticas de Educación y Tecnología. Fundó y dirigió el Centro de Estudios – Fundación Ceibal. Ha sido profesor invitado en más de 20 universidades e investigador asociado del Instituto de Internet de la Universidad de Oxford (2009-2019). Conferencista invitado en más de 30 países. Con intervenciones en CNN, Deutsche Welle, El Pais o Le Monde Diplomatique o Wall Street Journal.