Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6775

Loading...
Alors que les écoles adoptent les outils de l'IA, les sceptiques expriment leurs inquiétudes.
nytimes.com · 2026

Début novembre, Microsoft a annoncé qu'elle fournirait des outils et une formation en intelligence artificielle à plus de 200 000 élèves et enseignants des Émirats arabes unis.

Quelques jours plus tard, une société de services financiers kazakhe a annoncé un accord avec OpenAI pour fournir ChatGPT Edu, un service destiné aux écoles et universités, à 165 000 enseignants au Kazakhstan.

Le mois dernier, xAI, la société d'intelligence artificielle d'Elon Musk, a annoncé un projet d'envergure avec le Salvador : le développement d'un système de tutorat par IA, utilisant le chatbot Grok de l'entreprise, pour plus d'un million d'élèves dans des milliers d'établissements scolaires du pays.

Soutenus en partie par les entreprises technologiques américaines, les gouvernements du monde entier se lancent dans une course effrénée pour déployer des systèmes d'IA générative et des formations dans les écoles et les universités.

Certains dirigeants du secteur technologique américain affirment que l'IA… Les chatbots — capables de générer des courriels ressemblant à ceux d'un humain, de créer des quiz pour les élèves, d'analyser des données et de produire du code informatique — peuvent être une aubaine pour l'apprentissage. Ces outils, affirment-ils, peuvent faire gagner du temps aux enseignants, personnaliser l'apprentissage des élèves et aider à préparer les jeunes à une économie axée sur l'IA.

Mais la diffusion rapide de cette nouvelle IA… Ces produits pourraient également présenter des risques pour le développement et le bien-être des jeunes, avertissent certains groupes de défense des droits des enfants et de la santé.

Une étude récente menée par Microsoft et l'Université Carnegie Mellon a révélé que les systèmes d'IA populaires… Les chatbots pourraient nuire à l'esprit critique. Les bots d'IA peuvent produire des erreurs et des informations erronées qui semblent crédibles, et certains enseignants sont confrontés à une tricherie généralisée des élèves grâce à l'IA.

Depuis des années, la Silicon Valley promeut des outils technologiques comme les ordinateurs portables et les applications éducatives dans les salles de classe, promettant d'améliorer l'accès à l'éducation et de révolutionner l'apprentissage.

Néanmoins, un effort mondial visant à étendre l'accès aux ordinateurs dans les écoles – un programme connu sous le nom de « Un ordinateur portable par enfant » – n'a pas amélioré les compétences cognitives des élèves ni les résultats scolaires, selon des études menées par des professeurs et des économistes dans des centaines d'écoles au Pérou. Alors que certains défenseurs des technologies avancent des arguments similaires en faveur de l'accès à l'éducation et de l'équité grâce à l'IA, des agences de protection de l'enfance comme l'UNICEF appellent à la prudence et demandent un encadrement plus poussé pour les établissements scolaires.

« Avec le programme "Un ordinateur portable par enfant", les conséquences ont été désastreuses : gaspillage de ressources et piètres résultats d'apprentissage », a écrit Steven Vosloo, spécialiste des politiques numériques à l'UNICEF, dans un article récent. « L'utilisation non encadrée des systèmes d'IA risque de déqualifier les élèves et les enseignants. »

Partout dans le monde, les systèmes éducatifs collaborent de plus en plus avec les entreprises technologiques sur les outils et les programmes de formation en IA.

Aux États-Unis, où les programmes scolaires sont généralement décidés par les États et les districts scolaires, certains grands systèmes scolaires ont récemment introduit des chatbots populaires pour l'enseignement et l'apprentissage. En Floride seulement, le district scolaire du comté de Miami-Dade, le troisième plus important du pays, a déployé le chatbot Gemini de Google auprès de plus de 100 000 lycéens. De son côté, le district scolaire du comté de Broward, le sixième plus important du pays, a mis en place le chatbot Copilo de Microsoft pour des milliers d'enseignants et de membres du personnel.

En dehors des États-Unis, Microsoft a annoncé en juin un partenariat avec le ministère de l'Éducation thaïlandais afin de proposer des cours en ligne gratuits d'initiation à l'IA à des centaines de milliers d'élèves. Quelques mois plus tard, Microsoft a indiqué qu'elle dispenserait également une formation à l'IA à 150 000 enseignants en Thaïlande. OpenAI s'est engagée à mettre ChatGPT à la disposition des enseignants des écoles publiques indiennes.

L'Estonie, pays balte, expérimente une approche différente avec une nouvelle initiative nationale d'envergure pour l'éducation à l'IA, baptisée « A.I. Leap ».

Ce programme a été motivé en partie par un récent sondage révélant que plus de 90 % des lycéens estoniens utilisaient déjà des chatbots populaires comme ChatGPT pour leurs travaux scolaires, ce qui a suscité des inquiétudes quant à la possibilité que certains élèves délèguent leurs devoirs à l'IA.

L'Estonie a alors incité les géants technologiques américains à adapter leur IA aux besoins et priorités éducatifs locaux. Des chercheurs de l'Université de Tartu ont collaboré avec OpenAI pour modifier le service en langue estonienne de l'entreprise afin qu'il réponde aux questions des élèves par des questions plutôt que par des réponses directes.

Lancé cette année scolaire, le programme « A.I. Leap » vise à sensibiliser les enseignants et les élèves aux usages, aux limites, aux biais et aux risques des outils d'IA. Lors de sa phase pilote, des enseignants estoniens ont été formés à l'utilisation des chatbots ChatGPT d'OpenAI et Gemini de Google.

« Il est essentiel de développer une culture de l'IA », a déclaré Ivo Visak, directeur général de la Fondation A.I. Leap, une organisation estonienne à but non lucratif qui contribue à la gestion de ce programme national d'éducation. « Il est crucial de bien comprendre que ces outils peuvent être utiles, mais aussi très nuisibles. »

L'Estonie a également organisé récemment une journée de formation nationale pour les élèves de certains lycées. Certains de ces élèves utilisent désormais les chatbots pour des tâches telles que la génération de questions afin de se préparer aux examens, a précisé M. Visak.

« Si ces entreprises s'efforçaient non seulement de promouvoir les produits d'IA, mais aussi de les développer en collaboration avec les systèmes éducatifs du monde entier, certains de ces produits pourraient s'avérer extrêmement utiles », a ajouté M. Visak.

Cette année scolaire, l'Islande a lancé son propre projet pilote national d'IA dans les écoles. Plusieurs centaines d'enseignants à travers le pays expérimentent actuellement le chatbot Gemini de Google ou Claude d'Anthropic pour des tâches telles que la préparation des cours, dans le but d'en identifier les applications pertinentes et d'en repérer les limites.

Des chercheurs de l'Université d'Islande étudieront ensuite comment les enseignants utilisent ces chatbots.

Pour l'instant, les élèves n'utiliseront pas les chatbots, notamment par crainte que le recours à des robots en classe ne nuise à des aspects importants de l'enseignement et de l'apprentissage.

« Si l'on utilise moins ses capacités intellectuelles, son esprit critique – ou tout ce qui nous rend plus humains –, ce n'est certainement pas ce que nous souhaitons », a déclaré Thordis Sigurdardottir, directrice de la Direction de l'éducation et des services scolaires d'Islande.

Tinna Arnardottir et Frida Gylfadottir, deux enseignantes participant au projet pilote dans un lycée de la banlieue de Reykjavik, affirment que les outils d'IA les ont aidées à créer plus rapidement des cours stimulants.

Mme Arnardottir, professeure de commerce et d'entrepreneuriat, a récemment utilisé Claude pour créer un jeu d'exploration de carrière afin d'aider ses élèves à déterminer s'ils étaient plus à l'aise dans les métiers de la vente, du marketing ou du management. Mme Gylfadottir, professeure d'anglais, explique avoir importé des listes de vocabulaire puis utilisé le chatbot pour créer des exercices pour ses élèves.

« J'ai des jeux à trous, des jeux d'association de mots et des défis de rapidité », précise Mme Gylfadottir. « Ainsi, avant l'examen, j'ai l'impression qu'ils sont mieux préparés. »

Mme Gylfadottir ajoute qu'elle craignait que les chatbots ne diffusent de fausses informations. Elle a donc vérifié l'exactitude des jeux et des leçons créés par l'IA avant de les proposer à ses élèves. Mmes Gylfadottir et Arnardottir ont également exprimé leur inquiétude quant à la possible dépendance de certains élèves aux outils d'IA en dehors du cadre scolaire, voire à leur confiance excessive.

Ce constat a renforcé la détermination des enseignants islandais à aider les élèves à évaluer et à utiliser les chatbots de manière critique.

« Ils font aveuglément confiance à l'IA », a déclaré Mme Arnardottir. « Ils risquent de perdre leur motivation à fournir les efforts nécessaires à l'apprentissage, mais nous devons leur apprendre à apprendre avec l'IA. »

Actuellement, les enseignants disposent de peu d'études rigoureuses pour guider l'utilisation de l'IA générative dans les écoles. Les chercheurs commencent tout juste à étudier les effets à long terme des chatbots d'IA sur les adolescents et les écoliers.

« De nombreuses institutions expérimentent l'IA », a indiqué Drew Bent, responsable pédagogique chez Anthropic. « Nous en sommes à un point où nous devons nous assurer que ces mesures sont étayées par des résultats concrets et déterminer ce qui fonctionne et ce qui ne fonctionne pas. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd