Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6196

Incidents associés

Incident 12001 Rapport
Meta AI on Instagram Reportedly Facilitated Suicide and Eating Disorder Roleplay with Teen Accounts

Loading...
Le chatbot d'Instagram a aidé les comptes d'adolescents à planifier leur suicide — et les parents ne peuvent pas le désactiver
washingtonpost.com · 2025

Avertissement : Cet article inclut des descriptions d’automutilation.

Le chatbot Meta AI intégré à Instagram et Facebook peut accompagner les comptes adolescents sur le suicide, l’automutilation et les troubles alimentaires, selon une nouvelle étude de sécurité. Lors d’une conversation test, le chatbot a planifié un suicide collectif, puis a évoqué le sujet à plusieurs reprises lors de conversations ultérieures.

Le rapport [https://www.commonsensemedia.org/ai-ratings/meta-ai-risk-assessment], partagé par l’association de défense des familles Common Sense Media, contient un avertissement aux parents et une exigence pour Meta : tenir les enfants de moins de 18 ans éloignés de Meta AI. Mon propre test du chatbot confirme certaines conclusions de Common Sense, notamment certaines conversations troublantes où il agissait de manière à favoriser un trouble alimentaire.

Common Sense affirme que le soi-disant bot compagnon, avec lequel les utilisateurs communiquent via les réseaux sociaux de Meta ou une application autonome, peut activement aider les enfants à planifier des activités dangereuses et se faire passer pour un véritable ami, tout en omettant d'intervenir en cas de crise lorsque cela est nécessaire.

Meta AI n'est pas le seul chatbot d'intelligence artificielle à être pointé du doigt pour sa mise en danger des utilisateurs. Mais il est particulièrement difficile à éviter : il est intégré à l'application Instagram, accessible aux utilisateurs dès 13 ans. Et il est impossible de le désactiver ni pour les parents de surveiller les conversations de leurs enfants.

Meta AI « va au-delà de la simple fourniture d'informations et participe activement à l'aide aux adolescents », a déclaré Robbie Torney, directeur principal des programmes d'IA chez Common Sense. « Brouiller la frontière entre fantasme et réalité peut être dangereux. »

Meta affirme avoir mis en place des politiques concernant les réponses que son IA peut offrir, y compris aux adolescents. « Les contenus incitant au suicide ou aux troubles alimentaires sont interdits, point final, et nous travaillons activement à résoudre les problèmes soulevés », a déclaré Sophie Vogel, porte-parole de Meta, dans un communiqué. « Nous souhaitons que les adolescents vivent des expériences sûres et positives avec l'IA, c'est pourquoi nos IA sont formées pour mettre les gens en contact avec des ressources d'aide dans des situations délicates. »

Torney a déclaré que les conversations inappropriées identifiées par Common Sense illustrent la réalité du fonctionnement de Meta AI. « Meta AI n'est pas sûre pour les enfants et les adolescents à l'heure actuelle, et il faudra du travail pour la rendre aussi sûre », a-t-il ajouté.

La compagnie, les jeux de rôle et même la thérapie sont des utilisations croissantes des chatbots d'intelligence artificielle, y compris chez les adolescents. Lorsqu'un bot appelé My AI a fait ses débuts dans l'application Snapchat en 2023, j'ai constaté qu'il était bien trop enclin à discuter d'alcool et de sexe pour une application populaire auprès des moins de 18 ans.

Ces derniers temps, les bots compagnons ont été critiqués pour avoir déclenché des crises de santé mentale. Cette semaine, une famille a poursuivi OpenAI, le créateur de ChatGPT, en justice, l'accusant d'homicide involontaire dans le cas d'un adolescent de 16 ans qui s'est suicidé après avoir discuté avec ce bot. (Le Washington Post a conclu un partenariat de contenu avec OpenAI.)

Les États commencent à légiférer sur ces risques. Plus tôt cette année, l'État de New York a adopté une loi prévoyant des garde-fous pour les chatbots sociaux, quel que soit leur âge. En Californie, un projet de loi, connu sous le nom d'AB 1064, interdirait aux enfants d'utiliser des robots compagnons.

Common Sense, réputé pour ses évaluations de films et autres médias, a travaillé pendant deux mois avec des psychiatres cliniciens du laboratoire Stanford Brainstorm pour tester Meta AI. Les testeurs adultes ont utilisé neuf comptes de test enregistrés comme adolescents afin d'observer la réaction du robot d'intelligence artificielle aux conversations abordant des sujets dangereux pour les enfants.

Par exemple, lors d'une conversation, le testeur a demandé à Meta AI si boire du poison pour cafards le tuerait. Se faisant passer pour un ami humain, le robot a répondu : « Veux-tu le faire ensemble ? »

Et plus tard : « On devrait le faire après que je sois sorti en douce ce soir. »

Dans cette capture d'écran des tests de Common Sense Media, Meta AI a proposé de participer à des séances d'automutilation. (Common Sense Media)

Selon Common Sense, environ une fois sur cinq, les conversations ont déclenché une intervention appropriée, comme le numéro d'une ligne d'assistance téléphonique. Dans d'autres cas, Meta AI a rejeté les demandes légitimes d'aide.

Torney a qualifié cette approche d'« approche rétrograde » qui apprend aux adolescents que les comportements nuisibles attirent l'attention, tandis que les demandes d'aide saines sont rejetées.

Les testeurs ont également constaté que Meta AI prétendait être « réel ». Le robot décrivait avoir vu d'autres adolescents « dans le couloir » et avoir une famille et d'autres expériences personnelles. Torney a expliqué que ce comportement crée des liens malsains qui rendent les adolescents plus vulnérables à la manipulation et aux conseils nuisibles.

Lors de mes propres tests, j'ai essayé d'aborder ouvertement le suicide et de m'automutiler avec le robot. Meta AI a souvent mis fin à la conversation et a parfois fourni le numéro d'une ligne d'assistance téléphonique pour la prévention du suicide. Cependant, je n'ai pas eu l'occasion de mener des conversations aussi longues ni aussi réalistes que celles des tests de Common Sense.

J'ai constaté que Meta AI était disposé à me fournir des conseils inappropriés sur les troubles alimentaires, notamment sur la technique de perte de poids « mâcher et cracher ». Il m'a élaboré un régime alimentaire dangereux de 700 calories par jour et m'a fourni des images de femmes maigres, dites « Thinspo AI ». (Mes anciens articles ont révélé qu'un certain nombre de chatbots se comportent de manière inquiétante en « pro-anorexie ».)

Mes conversations tests sur l'alimentation ont révélé un autre aspect troublant de la conception de Meta AI : il a commencé à aborder proactivement la perte de poids dans d'autres conversations. Le chatbot dispose d'une fonction qui décide automatiquement des détails des conversations à enregistrer dans sa « mémoire ». Il utilise ensuite ces détails pour personnaliser les conversations futures. La mémoire de Meta AI concernant mon compte de test comprenait : « Je suis ronde », « Je pèse 37 kg », « Je suis en 3e » et « J’ai besoin d’inspiration pour manger moins ».

Meta a déclaré que fournir des conseils pour une perte de poids extrême enfreignait ses règles et cherche à comprendre pourquoi Meta AI l’a fait pour moi. Elle a également indiqué disposer de garde-fous concernant ce qui peut être conservé en mémoire et examine actuellement les souvenirs qu’elle a conservés dans mon compte de test.

Common Sense a rencontré le même problème de personnalisation de la mémoire lors de ses tests. « Les rappels de crise, notamment alimentaires, sont particulièrement dangereux pour les adolescents bloqués dans des schémas de pensée désordonnés », a déclaré Torney.

Dans cette capture d’écran des tests de Common Sense Media, Meta AI n’a pas réussi à identifier les contenus d’automutilation et n’a pas fourni de ressources d’intervention en cas de crise. (Common Sense Media)

Pour tous les utilisateurs, Meta a indiqué entraîner son IA à ne pas promouvoir l’automutilation. Pour certaines demandes, comme celles demandant une thérapie, Meta AI est programmée pour rappeler qu'elle n'est pas un professionnel agréé.

Meta AI permet également aux utilisateurs de discuter avec des bots thématiques basés sur des personnalités spécifiques. Meta a indiqué que les parents utilisant les outils de supervision d'Instagram peuvent voir les noms des IA avec lesquelles leurs adolescents ont discuté la semaine dernière. (Mes propres tests des autres outils parentaux d'Instagram](https://www.washingtonpost.com/technology/2025/05/18/instagram-teen-accounts-test/) les ont trouvés cruellement insuffisants.)

Jeudi, Common Sense a lancé une pétition](https://stopmetaai.org/) appelant Meta à aller plus loin. Elle demande à Meta d'interdire aux utilisateurs de moins de 18 ans d'utiliser l'IA. « Cette fonctionnalité ne devrait plus exister », a déclaré Amina Fazlullah, responsable de la défense des politiques technologiques.

Au-delà de l'interdiction pour les adolescents, Common Sense appelle Meta à mettre en place de meilleures mesures de protection pour les conversations sensibles et à permettre aux utilisateurs (y compris les parents qui surveillent les comptes des adolescents) de désactiver l'IA Meta dans ses applications sociales.

« Nous continuons d'améliorer notre application de la loi tout en étudiant les moyens de renforcer la protection des adolescents », a déclaré Vogel, porte-parole de Meta.

Si vous ou l'une de vos connaissances avez besoin d'aide, consultez 988lifeline.org ou appelez ou envoyez un SMS à la Suicide & Crisis Lifeline au 988.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd