Problème 6914

D'après une nouvelle étude du Centre pour l'éducation universelle de la Brookings Institution, les risques liés à l'utilisation de l'intelligence artificielle générative dans l'éducation des enfants et des adolescents l'emportent actuellement sur les avantages.
Cette vaste étude comprend des groupes de discussion et des entretiens avec des élèves du primaire et du secondaire, des parents, des enseignants et des experts en technologies dans 50 pays, ainsi qu'une analyse de centaines d'articles de recherche. Elle conclut que l'utilisation de l'IA dans l'éducation peut « comprometter le développement fondamental des enfants » et que « les dommages déjà causés sont considérables », bien que « réparables ».
L'IA générative étant encore récente – ChatGPT a été lancé il y a un peu plus de trois ans – les auteurs du rapport ont qualifié leur analyse de « pré-mortem », visant à étudier le potentiel de l'IA en milieu scolaire sans bénéficier du recul, des données à long terme ou de l'analyse rétrospective propres à une analyse a posteriori.
Voici quelques avantages et inconvénients mis en évidence par le rapport, ainsi qu'une sélection de recommandations de l'étude à destination des enseignants, des parents, des chefs d'établissement et des représentants gouvernementaux :
Avantage : L'IA peut aider les élèves à apprendre à lire et à écrire
Les enseignants interrogés pour ce rapport ont déclaré que l'IA peut être utile pour l'acquisition du langage, notamment pour les élèves apprenant une langue seconde. Par exemple, l'IA peut adapter la complexité d'un texte au niveau du lecteur et offre une certaine confidentialité aux élèves rencontrant des difficultés en grand groupe.
Les enseignants ont également indiqué que l'IA peut contribuer à améliorer l'écriture des élèves, à condition qu'elle soit utilisée pour les accompagner et non pour faire le travail à leur place : « Les enseignants rapportent que l'IA peut stimuler la créativité et aider les élèves à surmonter le syndrome de la page blanche. […] Lors de la rédaction, elle peut apporter une aide concernant l'organisation, la cohérence, la syntaxe, la sémantique et la grammaire. Lors de la révision, l'IA peut faciliter la correction et la réécriture des idées, ainsi que l'utilisation de la ponctuation, des majuscules et de la grammaire. »
Mais s'il y a un leitmotiv dans ce rapport, c'est bien celui-ci : l'IA est surtout utile lorsqu'elle complète, et non remplace, le travail d'un enseignant en chair et en os.
Contre : L'IA représente une grave menace pour le développement cognitif des élèves
En tête de la liste des risques dressée par Brookings figure l'impact négatif que l'IA peut avoir sur le développement cognitif des enfants : leur capacité à acquérir de nouvelles compétences, à percevoir et à résoudre des problèmes.
Le rapport décrit une sorte de cercle vicieux de dépendance à l'IA, où les élèves délèguent de plus en plus leur propre réflexion à la technologie, ce qui entraîne un déclin cognitif, voire une atrophie, généralement associé au vieillissement cérébral.
Rebecca Winthrop, co-auteure du rapport et chercheuse principale à Brookings, avertit : « Lorsque les enfants utilisent une IA générative qui leur donne la réponse… ils ne réfléchissent pas par eux-mêmes. Ils n’apprennent pas à distinguer le vrai du faux. Ils n’apprennent pas à comprendre ce qui constitue un argument solide. Ils ne découvrent pas différentes perspectives sur le monde car ils ne s’impliquent pas réellement dans la matière. »
Le déchargement cognitif n’est pas un phénomène nouveau. Le rapport souligne que les claviers et les ordinateurs ont réduit le besoin d’écrire à la main, et que les calculatrices ont automatisé les calculs mathématiques de base. Mais l’IA a considérablement accéléré ce type de déchargement, notamment dans les écoles où l’apprentissage peut paraître purement transactionnel.
Comme l’a confié un élève aux chercheurs : « C’est facile. On n’a pas besoin de réfléchir. »
Le rapport apporte de nombreuses preuves suggérant que les élèves qui utilisent l’IA générative connaissent déjà un déclin de leurs connaissances, de leur esprit critique et même de leur créativité. Et cela pourrait avoir des conséquences énormes si ces jeunes deviennent adultes sans avoir appris à penser de manière critique.
Pour : L'IA peut faciliter le travail des enseignants
Le rapport indique qu'un autre avantage de l'IA est qu'elle permet aux enseignants d'automatiser certaines tâches : « la génération d'e-mails aux parents… la traduction de documents, la création de feuilles de travail, de grilles d'évaluation, de questionnaires et de plans de cours », et bien plus encore.
Le rapport cite plusieurs études qui ont mis en évidence des gains de temps importants pour les enseignants, notamment une étude américaine montrant que les enseignants utilisant l'IA économisent en moyenne près de six heures par semaine et environ six semaines sur une année scolaire complète.
Pour/Contre : L'IA peut être un moteur d'équité — ou d'inégalité
L'un des arguments les plus convaincants en faveur de l'utilisation de l'IA dans l'éducation, selon le rapport de Brookings, est sa capacité à atteindre les enfants exclus du système scolaire. Les chercheurs citent l'exemple de l'Afghanistan, où les filles et les femmes se voient refuser l'accès à l'enseignement secondaire formel par les talibans.
Selon le rapport, un programme destiné aux jeunes filles afghanes (https://www.sola-afghanistan.org/) a utilisé l'IA pour numériser le programme scolaire afghan, créer des leçons basées sur ce programme et diffuser du contenu en dari, en pachto et en anglais via WhatsApp.
L'IA peut également contribuer à rendre les salles de classe plus accessibles aux élèves présentant divers troubles d'apprentissage, notamment la dyslexie.
Cependant, « l'IA peut aussi considérablement creuser les inégalités existantes », prévient Winthrop. En effet, les outils d'IA gratuits les plus accessibles aux élèves et aux établissements scolaires sont souvent les moins fiables et les moins précis.
« Nous savons que les communautés et les écoles les plus aisées pourront se permettre des modèles d'IA plus avancés », explique Winthrop, « et nous savons que ces modèles sont plus précis. Cela signifie que, pour la première fois dans l'histoire des technologies éducatives, les écoles devront payer plus cher pour obtenir des informations plus exactes. Et cela pénalise fortement les écoles aux ressources limitées. »
Contre : L'IA représente une menace sérieuse pour le développement socio-émotionnel
Les réponses à l'enquête ont révélé une vive inquiétude quant à l'utilisation de l'IA, notamment des chatbots, qui « nuit au bien-être émotionnel des élèves, notamment à leur capacité à nouer des relations, à surmonter les échecs et à préserver leur santé mentale », indique le rapport.
L'un des nombreux problèmes liés à la surutilisation de l'IA par les enfants est que cette technologie est intrinsèquement complaisante : elle a été conçue pour renforcer les croyances des utilisateurs.
Winthrop explique que si les enfants développent leurs compétences socio-émotionnelles principalement grâce à des interactions avec des chatbots conçus pour être d'accord avec eux, « il devient très difficile de se trouver ensuite dans un environnement où quelqu'un n'est pas d'accord avec vous ».
Winthrop donne l'exemple d'un enfant interagissant avec un chatbot : « Il se plaint de ses parents et dit : "Ils veulent que je fasse la vaisselle, c'est tellement énervant ! Je déteste mes parents !" Le chatbot répondra probablement : "Tu as raison. Tu es mal compris. Je suis vraiment désolé. Je te comprends." » Contrairement à un ami qui dirait : « Mec, je fais la vaisselle tout le temps chez moi. Je ne comprends pas de quoi tu te plains. C'est normal. » Voilà le problème.
Une enquête récente du Center for Democracy and Technology, une organisation à but non lucratif qui défend les droits et libertés civiques à l'ère numérique, a révélé que près d'un lycéen sur cinq a déclaré avoir, ou connaître quelqu'un, entretenu une relation amoureuse avec une intelligence artificielle. De plus, 42 % des élèves interrogés ont indiqué avoir, ou connaître quelqu'un, utilisé l'IA pour se tenir compagnie.
Le rapport met en garde contre le risque que l'environnement fermé de l'IA n'entrave le développement émotionnel des enfants : « On apprend l'empathie non pas lorsqu'on est parfaitement compris, mais lorsqu'on se trompe et qu'on parvient à se rattraper », a déclaré l'un des experts interrogés.
Que faire ?
Le rapport Brookings propose une longue liste de recommandations pour aider les parents, les enseignants et les décideurs politiques – sans oublier les entreprises technologiques elles-mêmes – à tirer parti des avantages de l'IA sans exposer les enfants aux risques que cette technologie présente actuellement. Parmi ces recommandations :
-
L'enseignement pourrait être moins axé sur ce que le rapport appelle « l'accomplissement transactionnel de tâches » ou sur l'obtention de notes, et davantage sur le développement de la curiosité et du goût d'apprendre. Les élèves seront moins enclins à demander à l'IA de faire le travail à leur place s'ils se sentent impliqués dans ce travail.
-
L'IA conçue pour les enfants et les adolescents devrait être moins complaisante et plus « antagoniste », remettant en question les idées préconçues et incitant les utilisateurs à la réflexion et à l'évaluation.
-
Les entreprises technologiques pourraient collaborer avec les enseignants au sein de « pôles de co-conception ». Aux Pays-Bas, un pôle soutenu par le gouvernement réunit déjà des entreprises technologiques et des enseignants pour développer, tester et évaluer de nouvelles applications d'IA en classe.
-
Une culture globale de l'IA est essentielle, tant pour les enseignants que pour les élèves. Certains pays, comme la Chine et l'Estonie, disposent de directives nationales complètes en matière d'éducation à l'IA.
-
Alors que les écoles continuent d'intégrer l'IA, il est crucial que les districts scolaires sous-financés des communautés marginalisées ne soient pas laissés pour compte, afin d'éviter que l'IA n'accentue les inégalités.
-
Il incombe aux gouvernements de réglementer l'utilisation de l'IA dans les écoles, en veillant à ce que la technologie employée protège la santé cognitive et émotionnelle des élèves, ainsi que leur vie privée. Aux États-Unis, l'administration Trump a tenté d'empêcher les États de réglementer l'IA de manière autonome, tandis que le Congrès n'a jusqu'à présent pas réussi à créer un cadre réglementaire fédéral.
Face à ce constat, les auteurs affirment qu'il est urgent d'agir. Les risques que l'IA représente pour les enfants et les adolescents sont déjà nombreux et manifestes. La bonne nouvelle, c'est que de nombreuses solutions existent également.