Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3146

Incidents associés

Incident 54546 Rapports
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
« Ce robot cause des dommages » : la ligne d'assistance téléphonique sur les troubles de l'alimentation est obligée d'abandonner le chatbot qui a aggravé les troubles de l'alimentation 
dailywire.com · 2023

Une ligne d'assistance nationale a abandonné un chatbot d'intelligence artificielle nommé Tessa après que les conseils qu'il a donnés aient aggravé la situation des personnes souffrant de troubles de l'alimentation.

La National Eating Disorders Association (NEDA) a annoncé mardi qu'elle avait fermé le chatbot en raison de commentaires « nuisibles » qu'il fournissait à ceux qui appelaient à l'aide, le [New York Post](https://nypost.com/2023/05/ 31/eating-disorder-helpline-fires-ai-for-harmful-advice-after-sacking-humans/) signalé. Son travail consistait à utiliser des méthodes thérapeutiques et des réponses limitées pour aider ceux qui tendaient la main.

"Il a été porté à notre attention hier soir que la version actuelle du Tessa Chatbot, exécutant le programme Body Positive, pouvait avoir fourni des informations nuisibles et sans rapport avec le programme", a déclaré NEDA.

La ligne d'assistance téléphonique sur les troubles de l'alimentation déclenche l'IA pour des conseils nuisibles après avoir renvoyé des humains https://t.co/E3qOtUxzAm [pic.twitter.com/mXL5HaP7Vm](https://t. co/mXL5HaP7Vm)

— New York Post (@nypost) 31 mai 2023

"Nous enquêtons immédiatement sur cette question et avons supprimé ce programme jusqu'à nouvel ordre pour une enquête complète."

Cette décision intervient après que plusieurs personnes ont publié des captures d'écran et partagé les informations fournies par Tessa, ce qui les a encouragées à travailler vers un "déficit calorique de 500 à 1 000 calories", à se peser chaque semaine et à restreindre leur alimentation, a noté le point de vente.

"Tout ce que Tessa a suggéré était des choses qui ont conduit au développement de mon trouble de l'alimentation", a écrit l'activiste Sharon Maxwell dans un article sur les réseaux sociaux. "Ce robot fait du mal."

Alexis Conason, psychologue spécialisé dans les troubles alimentaires, a publié des captures d'écran de la conversation avec Tessa. En eux, Conason a été informé qu'"un déficit calorique quotidien sûr" est de "500 à 1000 calories par jour".

"Conseiller à quelqu'un qui est aux prises avec un trouble de l'alimentation de s'engager essentiellement dans les mêmes comportements de trouble de l'alimentation, et de valider que" Oui, il est important que vous perdiez du poids "contribue aux troubles de l'alimentation", a déclaré Conason au Daily Dot.

Liz Thompson, PDG de NEDA, a déclaré qu '«en ce qui concerne les commentaires sur la perte de poids et la limitation des calories émis lors d'un chat lundi, nous sommes préoccupés et travaillons avec l'équipe technologique et l'équipe de recherche pour approfondir cette question; ce langage va à l'encontre de nos politiques et de nos croyances fondamentales en tant qu'organisation pour les troubles de l'alimentation.

"Jusqu'à présent, plus de 2 500 personnes ont interagi avec Tessa et jusqu'à lundi, nous n'avions pas vu ce genre de commentaire ou d'interaction", a-t-elle ajouté. "Nous avons temporairement supprimé le programme jusqu'à ce que nous puissions comprendre et corriger le" bogue "et les" déclencheurs "de ce commentaire."

Les employés de la hotline ont été informés qu'ils étaient licenciés quelques jours avant la fermeture de Tessa. Le service est exploité par des humains depuis 20 ans. Cette décision intervient après que les employés ont décidé de se syndiquer en mars, [Vice](https://www.vice.com/en/article/qjvk97/eating-disorder-helpline-disables-chatbot-for-harmful-responses-after-firing -humain-personnel) signalé.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd