Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3126

Incidents associés

Incident 54546 Rapports
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
Le chatbot de la ligne d'assistance sur les troubles de l'alimentation a été fermé pour des conseils « préjudiciables » qu'il offrait après avoir remplacé des travailleurs
yahoo.com · 2023

Un [chatbot](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https %3A%2F%2Fcomplex.com%2Ftag%2Ftech&xcust=7428125%7CBF-VERIZON&xs=1) qui aurait [remplacé les travailleurs](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F %2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https%3A%2F%2Fcomplex.com%2Ftag%2Fcapitalism&xcust=7428125%7CBF-VERIZON&xs=1) lors d'un repas Le service d'assistance téléphonique pour les troubles a été fermé, du moins pour le moment, après qu'il a été découvert qu'il avait donné des conseils « préjudiciables et sans rapport ».

Dans une [déclaration](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url= https%3A%2F%2Fwww.instagram.com%2Fp%2FCs4BiC9AhDe%2F&xcust=7428125%7CBF-VERIZON&xs=1) publié cette semaine, la National Eating Disorders Association (NEDA) a annoncé que le bot, appelé "Tessa"— est au centre d'une enquête.

"Il a été porté à notre attention hier soir que la version actuelle du Tessa Chatbot, exécutant le programme Body Positive, pourrait avoir donné des informations nuisibles et sans rapport avec le programme", a déclaré un porte-parole (https://go.redirectingat .com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https%3A%2F%2Fwww.instagram.com%2Fp %2FCs4BiC9AhDe%2F&xcust=7428125%7CBF-VERIZON&xs=1). "Nous enquêtons immédiatement sur cette affaire et avons supprimé ce programme jusqu'à nouvel ordre pour une enquête complète. Merci aux membres de la communauté qui ont porté cela à notre attention et ont partagé leurs expériences.

En mai, le chatbot a fait l'objet de nombreux titres à la lumière de l'annonce qu'il prendrait une plus grande charge à partir du 1er juin. ://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https%3A%2F%2Fwww .npr.org%2F2023%2F05%2F24%2F1177847298%2Fcan-a-chatbot-help-people-with-eating-disorders-as-well-as-other-human&xcust=7428125%7CBF-VERIZON&xs=1) ils étaient licencié. En fait, cette nouvelle serait arrivée peu de temps après que les membres du personnel eurent informé la NEDA de leur syndicalisation.

Dans un autre Vice [rapport](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful- conseils&url=https%3A%2F%2Fwww.vice.com%2Fen%2Farticle%2Fn7ezkm%2Feating-disorder-helpline-fires-staff-transitions-to-chatbot-after-unionization&xcust=7428125%7CBF-VERIZON&xs=1) de Chloé Xiang en mai, le Dr Ellen Fitzsimmons-Craft - une professeure de l'Université de Washington dont l'équipe a créé Tessa après avoir été embauchée par la NEDA - a déclaré que le chatbot avait été créé à l'aide de "décennies de recherche". De plus, Fitzsimmons-Craft, qui a également été cité dans l'article original de NPR, a abordé la couverture du bot sur Twitter en [indiquant](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F% 2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https%3A%2F%2Ftwitter.com%2Ffitzsimmonscraf%2Fstatus%2F1662633671172530176&xcust=7428125%7CBF-VERIZON&xs= 1) que Tessa n'a "jamais été destiné à remplacer 1: 1 la ligne d'assistance". De plus, a-t-elle ajouté, il s'agit d'un chatbot basé sur des règles, c'est-à-dire "pas un chatbot IA".

Dans un tweet [déclaration](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url =https%3A%2F%2Ftwitter.com%2FHLAUnited%2Fstatus%2F1664480098160979968&xcust=7428125%7CBF-VERIZON&xs=1) jeudi, le syndicat NEDA Helpline Associates a déclaré que "l'échec alarmant" du chatbot "servait de validation supplémentaire que peut-être l'humain il vaut mieux laisser l'empathie à l'humanité. Dans une déclaration précédente, comme on le voit ci-dessous, les membres du syndicat ont déclaré qu'ils "condamnaient maintenant et pour toujours" la "décision irresponsable et dangereuse" de la NEDA.

Et bien qu'il ait été dit que Tessa n'a pas été conçue comme un chatbot d'IA et est plutôt destinée à servir dans une capacité basée sur des règles, cette histoire parle des mêmes préoccupations que beaucoup ont soulevées au milieu des critiques en cours d'exemples à part entière d'IA tels que [ChatGPT](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https% 3A%2F%2Fcomplex.com%2Ftag%2Fchatgpt&xcust=7428125%7CBF-VERIZON&xs=1).

Par exemple, un avocat [a récemment fait les gros titres](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down -harmful-advice&url=https%3A%2F%2Fwww.complex.com%2Flife%2Fa%2Ftracewilliamcowen%2Flawyer-regrets-using-chatgpt-lawsuit-nonexistent-cases&xcust=7428125%7CBF-VERIZON&xs=1) pour avoir dit qu'il maintenant " regrette grandement d'avoir utilisé ChatGPT alors qu'il travaillait pour un client qui avait poursuivi une compagnie aérienne. En bref, comme rapporté pour la première fois par le New York Times [le mois dernier](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline- chatbot-shut-down-harmful-advice&url=https%3A%2F%2Fwww.nytimes.com%2F2023%2F05%2F27%2Fnyregion%2Favianca-airline-lawsuit-chatgpt.html%3Fsmid%3Dtw-nytimes%26smtyp%3Dcur&xcust= 7428125%7CBF-VERIZON&xs=1), la décision de l'avocat d'emprunter la voie de l'IA "afin de compléter la recherche juridique" dans l'affaire a abouti à la citation d'au moins six cas inexistants dans un mémoire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd