L’Express

Susanna Loeb, professeure à Stanford : « Le danger de l’IA scolaire, c’est le déchargement cognitif »

Susanna Loeb, professeure à Stanford : « Le danger de l’IA scolaire, c’est le déchargement cognitif »

Même Internet n’avait pas bouleversé l’école si brutalement. Dans le monde, 86 % des étudiants utilisent déjà régulièrement l’intelligence artificielle dans leurs études. Compréhensible tant l’outil sait bien résumer quantité d’informations et vulgariser d’obscures notions. Mais la manière dont les élèves l’utilisent déterminera si l’IA sera, pour eux, un allié précieux ou un agent toxique. Professeure à l’école des sciences de l’éducation de l’université Stanford, Susanna Loeb étudie avec minutie l’impact de cette technologie. Entretien.

De premières études évaluent-elles déjà l’impact de l’IA sur la qualité de l’apprentissage des enfants et des étudiants ?

Oui, mais les données disponibles sont encore limitées. La tendance la plus claire qui se dégage à ce jour est que l’IA peut améliorer les performances pendant son utilisation, sans pour autant garantir une amélioration durable des performances autonomes par la suite. Une meilleure exécution des tâches n’est pas synonyme d’un apprentissage plus approfondi. La bonne question n’est pas de savoir si l’IA « fonctionne » ou non. La vraie question est : quel type d’outil favorise quel type d’apprentissage, pour quels élèves, dans quelles conditions ? L’adoption de l’IA se fait à la vitesse de l’éclair. Les données scientifiques doivent rattraper ce rythme.

Dans quelle mesure l’IA peut-elle améliorer l’éducation ?

Les cas les plus prometteurs sont ceux où l’IA aide les élèves à poursuivre l’effort de réflexion. Un cas d’utilisation particulièrement pertinent est celui du soutien guidé. Des indices, des retours d’information, des questions structurées et un accompagnement étape par étape peuvent aider les élèves à continuer à raisonner au lieu d’abandonner l’exercice. Un autre usage prometteur concerne les enseignants. L’IA peut libérer du temps aux professeurs et aux tuteurs, afin qu’ils se consacrent davantage à l’instruction, aux retours, aux échanges et aux relations humaines. Ce basculement-là aura peut-être autant d’impact que n’importe quelle application directement destinée aux élèves. Une troisième opportunité se situe à l’échelle du système. L’IA pourrait aider les établissements à dispenser un soutien qui a toujours été précieux, mais souvent difficile à offrir de manière régulière. Des emplois du temps plus souples, une meilleure différenciation pédagogique, une communication plus claire. Tout cela peut améliorer significativement les chances d’apprendre. À mon avis, la promesse de l’IA dans l’éducation réside dans le fait de rendre un bon enseignement plus accessible.

L’IA pourrait-elle également nuire à l’apprentissage ? Y a-t-il par exemple un risque que les gens écrivent beaucoup moins avec l’IA et n’actionnent plus des processus cognitifs essentiels ? Ou qu’ils perdent la capacité à se confronter à un problème difficile sans être immédiatement guidés par un chatbot ?

Oui, ces menaces sont réelles. Le principal risque est ce qu’on appelle le déchargement cognitif. Les élèves apprennent par l’effort, l’explication, la révision et la confrontation à la difficulté. Lorsque l’IA prend en charge une trop grande partie de ce travail, le processus d’apprentissage peut s’appauvrir, même si le résultat final semble plus solide. Le risque lié à l’écriture en est un bon exemple. L’écriture est souvent ce qui permet aux élèves de clarifier une idée, de tester un argument, et d’analyser ce qu’ils pensent. Un élève qui délègue trop l’écriture à l’IA risque aussi de déléguer une partie de sa réflexion. Le risque lié à la persévérance est tout aussi réel. Les élèves ont besoin de se frotter à la difficulté. Ils ont besoin d’occasion de se retrouver bloqués, de se ressaisir et de persévérer. C’est ce processus-là qui forge leur jugement et leur autonomie. Un bon outil pédagogique réduit la confusion quand celle-ci fait obstacle à la progression. Un mauvais outil pédagogique supprime la friction même qui fait advenir l’apprentissage.

Quelles limites les parents et les enseignants devraient-ils fixer autour de l’usage éducatif de l’IA par les élèves ?

Je poserais des limites sur le rôle de l’IA, pas seulement sur le temps passé avec elle. Une règle utile est que l’IA peut soutenir la réflexion, mais qu’elle ne doit pas la remplacer. Cette règle laisse de la place pour des indices, des retours, des exercices d’entraînement et une aide à la révision. Elle laisse beaucoup moins de place aux premières ébauches, aux réponses définitives ou aux solutions complètes que les élèves sont censés produire par eux-mêmes. Sanctuarisons également du temps pour certaines formes de travail. Il est important qu’à intervalles réguliers, les élèves écrivent seuls, lisent seuls, résolvent des problèmes seuls et aient de vraies discussions en direct, sans intermédiaire IA. Ces expériences forgent les habitudes que l’école est censée développer. La question que les adultes doivent se poser est : quelle partie du processus d’apprentissage l’outil est-il en train de prendre en charge à la place de l’élève ?

Les entreprises d’IA promettent des systèmes capables d’évaluer précisément le niveau de chaque élève et de s’adapter en temps réel. En pratique, cela marche-t-il aussi bien qu’elles l’affirment ?

Certaines fonctions adaptatives fonctionnent effectivement bien. Les systèmes actuels peuvent parfois ajuster le niveau de difficulté, réagir aux interactions des élèves et fournir des conseils personnalisés. Ces capacités peuvent s’avérer utiles. Il est toutefois difficile, pour le moment, de voir une traduction concrète de promesses beaucoup plus ambitieuses de diagnostic précis et d’enseignement parfaitement adapté à tous les contextes. Les établissements scolaires ont aussi besoin de bien plus qu’une interface réactive. Ils ont besoin d’une cohérence curriculaire, d’un solide jugement pédagogique, d’une évaluation fiable et d’une capacité organisationnelle réelle. En somme, il y a bel et bien des outils adaptifs, mais le discours marketing est souvent plus rodé que la pédagogie derrière.

À quoi ressemblerait le « mode éducation » idéal d’une IA ?

Il protégerait la réflexion des élèves. Ce mode les inviterait à essayer, à expliquer, à s’engager et à réfléchir avant de leur apporter une aide substantielle. Il privilégierait les indices plutôt que les réponses, les questions plutôt que les raccourcis, et la révision plutôt que l’accomplissement sans effort. Ce mode éducatif ne se limiterait pas non plus à l’apprentissage de contenus. Il permettrait aux élèves d’explorer en profondeur leurs centres d’intérêt, en leur fournissant des outils pour savoir comment aborder un sujet. Ce mode permettrait enfin aux enseignants et aux parents de contrôler le niveau d’aide dont un élève peut bénéficier et de déterminer à quel moment l’outil doit se mettre en retrait. Le principe fondamental d’un mode d’apprentissage efficace est d’aider les élèves à réfléchir davantage, comme l’exige l’apprentissage, en fonctionnant comme un échafaudage cognitif et non comme un confortable moteur.



Source link : https://www.lexpress.fr/argent/bourse/susanna-loeb-professeure-a-stanford-le-danger-de-lia-scolaire-cest-le-dechargement-cognitif-QPHJ6TZML5CLPAWW6O2TC3UJ7Y/

Author : Anne Cagan

Publish date : 2026-03-30 10:00:00

Copyright for syndicated content belongs to the linked Source.

Tags : L’Express