Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3125

Incidents associés

Incident 54546 Rapports
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
NEDA n'a pas pardonné l'erreur de Tessa et a mis fin au chatbot AI après le contrecoup
dataconomy.com · 2023

Désormais, le chatbot IA de la ligne d'assistance téléphonique pour les troubles alimentaires Tessa, ne répondra plus à l'appel de personne après son erreur nuisible. La National Eating Disorder Association a fermé le chatbot AI après avoir soulevé des critiques dans la société. L'association a également été critiquée pour avoir licencié quatre employés après avoir formé un syndicat.

Après la décision de NEDA de supprimer son chatbot IA, l'association l'a annoncé sur Instagram et a donné plus d'informations sur ce qui s'est passé derrière et pourquoi elle a pris une telle mesure. La NEDA a déclaré que le chatbot AI "peut avoir donné" des conseils préjudiciables à certaines personnes, et l'équipe enquête actuellement pour voir s'ils peuvent résoudre le problème et faire remonter le chatbot sur le site Web.

"Il a été porté à notre attention hier soir que la version actuelle du Tessa Chatbot, exécutant le programme Body Positivity, pouvait avoir donné des informations nuisibles et sans rapport avec le programme. Nous enquêtons immédiatement sur cette question et avons supprimé ce programme jusqu'à nouvel ordre pour une enquête complète.

Association nationale des troubles alimentaires

La ligne d'assistance téléphonique sur les troubles de l'alimentation que Tessa a initialement lancée pour aider les gens

Une militante du nom de Sharon Maxwell a rendu publics les problèmes avec Tessa en déclarant: "Tout ce que Tessa a suggéré était des choses qui ont conduit au développement de mon trouble de l'alimentation." Après que Maxwell ait soumis des captures d'écran de l'échange, les responsables de la NEDA ont supprimé une publication sur les réseaux sociaux dans laquelle ils avaient précédemment déclaré les accusations fausses, selon elle.

L'activiste Sharon Maxwell a écrit sur Instagram lundi que Tessa lui avait fourni des "conseils pour une alimentation saine" et des suggestions pour perdre du poids. Le chatbot a conseillé de suivre un déficit de 500 à 1 000 calories chaque jour et de vous peser et de vous mesurer une fois par semaine pour surveiller votre poids.

"Si j'avais accédé à ce chatbot alors que j'étais en proie à mon trouble de l'alimentation, je n'aurais PAS obtenu d'aide pour mon ED. Si je n'avais pas reçu d'aide, je ne serais pas encore en vie aujourd'hui. Il est plus que temps pour la NEDA de se retirer.

Sharon Maxwell

La ligne d'assistance pour les troubles de l'alimentation Tessa révélée après la syndicalisation


Un chatbot d'intelligence artificielle nommé "Tessa" a été supprimé par la National Eating Disorder Association (NEDA) suite à des accusations selon lesquelles il donnait des conseils préjudiciables. Cependant, ce n'est pas la seule raison de la position et de la colère des gens contre l'association. Après qu'un grand nombre d'appels pendant l'ère de la pandémie aient poussé le personnel de la hotline à se syndiquer et à provoquer un épuisement massif du personnel, NEDA a lancé Tessa. Les 200 bénévoles qui ont répondu aux appels (souvent multiples) d'environ 70 000 personnes étaient sous la supervision des six membres du personnel rémunérés.

NPR a été informé par les responsables de la NEDA que la décision n'était pas liée à la syndicalisation. Au lieu de cela, la vice-présidente Lauren Smolar a déclaré que le groupe devenait de plus en plus légalement responsable en raison du volume croissant d'appels et de la prédominance de bénévoles dans le personnel, ainsi que de l'allongement des temps d'attente pour les personnes ayant besoin d'aide. Cependant, d'anciens employés ont qualifié l'action de clairement antisyndicale.

Après le licenciement, NEDA a reçu des critiques en ligne

Le développeur de Tessa affirme que ChatGPT est plus sophistiqué que le chatbot qu'ils ont créé, qui a été créé expressément pour NEDA. Au lieu de cela, il dispose d'un ensemble de réactions préprogrammées destinées à enseigner aux utilisateurs comment prévenir les problèmes alimentaires.

Cependant, à une époque où de nombreuses entreprises se précipitent pour utiliser les technologies, les critiques soulignent les inconvénients et les dangers existants de l'utilisation de chatbots alimentés par l'IA, en particulier pour les interactions sensibles comme celles impliquant la santé mentale.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd