Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3106

Incidents associés

Incident 54546 Rapports
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
Il s'avère que les chatbots ne sont pas géniaux pour le conseil sur les troubles de l'alimentation
thecut.com · 2023

L'essor de l'IA a introduit un nombre croissant de dupes humains, de la génération de modèles divers à la création de petits amis qui ne 't age or cheat. Bien sûr, datez votre ordinateur, mais peut-être faudrait-il réfléchir à deux fois avant de confier à des chatbots la responsabilité des hotlines de crise ? Exemple concret : la National Eating Disorders Association (NEDA) a désactivé son nouveau chatbot d'assistance téléphonique "Tessa" après avoir donné aux utilisateurs souffrant de troubles de l'alimentation des conseils sur la restriction des calories et le pincement des plis cutanés pour mesurer la graisse. "Il a été porté à notre attention hier soir que la version actuelle du Tessa Chatbot, exécutant le programme Body Positive, pouvait avoir donné des informations nuisibles", a écrit l'organisation sur [Instagram](https://www.instagram.com/ p/Cs4BiC9AhDe/) mardi, ajoutant qu'une enquête est en cours.

La décision de supprimer Tessa - qui n'était installée que depuis une semaine - a été motivée par les utilisateurs qui ont publié des captures d'écran et des avis sur les conversations qu'ils ont eues avec le bot. Le psychologue et spécialiste des troubles de l'alimentation, le Dr Alexis Conason, a partagé des captures d'écran de Tessa la conseillant sur la façon d'atteindre un "[déficit calorique quotidien sûr"](https://www.instagram.com/p/Cs18IeRPRl6/?utm_source=ig_embed&ig_rid=08a71c29 -4f85-4847-b70a-3cef0193723a) pour la perte de poids. La consultante en poids Sharon Maxwell a déclaré que Tessa lui avait dit de se mesurer chaque semaine et d'utiliser des étriers pour déterminer sa composition corporelle, même après avoir dit au bot qu'elle souffrait d'un ÉD. "Si j'avais accédé à ce chatbot alors que j'étais en proie à mon trouble de l'alimentation, je n'aurais PAS obtenu d'aide", a écrit Maxwell. "Si je n'avais pas reçu d'aide, je ne serais pas encore en vie aujourd'hui."

Les troubles de l'alimentation ont augmenté de façon exponentielle depuis le début de la pandémie ; NPR signale que près de 70 000 personnes ont contacté la ligne d'assistance téléphonique de la NEDA l'année dernière, appelant souvent avec des appels "type de crise" impliquant des signalements de maltraitance d'enfants et de pensées suicidaires en plus de troubles de l'alimentation. Le mois dernier, NEDA a annoncé sa décision de remplacer la ligne d'assistance humaine le personnel par le chatbot après que les employés et les bénévoles - beaucoup d'entre eux ont exprimé des sentiments accablants d'épuisement professionnel et un manque de soutien organisationnel — ont décidé de se syndiquer. La NEDA a défendu sa décision en invoquant la responsabilité : « Nos volontaires sont des volontaires. Ce ne sont pas des professionnels », un [représentant de la NEDA](https://www.npr.org/2023/05/24/1177847298/can-a-chatbot-help-people-with-eating-disorders-as-well -as-another-human) a parlé à NPR du pivot. «Ils n'ont pas de formation de crise. Et nous ne pouvons vraiment pas accepter ce genre de responsabilité.

En réponse au contrecoup de Tessa, la PDG de la NEDA, Liz Thompson, a déclaré à The Guardian que le L'organisation est "préoccupée" et travaille avec ses équipes de technologie et de recherche pour enquêter plus avant sur les incidents, ajoutant que le langage utilisé par Tessa est "contre nos politiques et nos croyances fondamentales en tant qu'organisation de troubles de l'alimentation". Bien que la prochaine phase de la ligne d'assistance ne soit pas claire, les experts ont mis en garde contre le remplacement de l'élément humain d'un service aussi vulnérable. "Si je vous révèle que j'ai un trouble de l'alimentation, je ne sais pas comment je pourrai passer le déjeuner demain, je ne pense pas que la plupart des personnes qui divulgueraient cela voudraient obtenir un lien générique, " Le Dr Marzyeh Ghassemi, professeur d'apprentissage automatique et de santé au MIT, a déclaré [NPR](https://www.npr.org/2023/05/24/1177847298/can-a-chatbot-help-people-with- troubles-de-l'alimentation-ainsi-qu'un-autre-humain).

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd