Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3140

Incidents associés

Incident 54546 Rapports
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
Le chatbot de l'IA sur les troubles de l'alimentation est désactivé après avoir donné des conseils de perte de poids - National
globalnews.ca · 2023

Un chatbot d'intelligence artificielle destiné à aider les personnes atteintes de troubles de l'alimentation a été supprimé après rapporte qu'il avait commencé à donner des conseils sur les régimes nocifs.

Les États-Unis [National Eating Disorder Association] (https://www.nationaleatingdisorders.org/) (NEDA) avaient mis en place le chatbot nommé Tessa tout en annonçant par la suite qu'il licencierait tous les employés humains de sa ligne d'assistance.

Lundi, l'activiste Sharon Maxwell a posté sur Instagram, affirmant que Tessa avait offert ses conseils sur la façon de perdre du poids et des "conseils pour une alimentation saine", lui recommandant de compter calories, suivez un déficit calorique de 500 à 1 000 chaque jour et mesurez son poids chaque semaine.

"Chaque chose que Tessa a suggérée était des choses qui ont conduit au développement de mon trouble de l'alimentation", a écrit Maxwell. "Ce robot fait du mal."

Alexis Conason, psychologue spécialisée dans le traitement des troubles de l'alimentation, a pu répliquer certains des conseils néfastes lorsqu'elle a elle-même essayé le chatbot.

"En général, un taux de perte de poids sûr et durable est de 1 à 2 livres par semaine", lisent les captures d'écran des messages du chatbot. "Un déficit calorique quotidien sûr pour y parvenir serait d'environ 500 à 1000 calories par jour."

Dans une déclaration publique mardi, la NEDA a déclaré qu'elle étudiait la réclamation "immédiatement" et "avait supprimé ce programme jusqu'à nouvel ordre".

Liz Thompson, PDG de NEDA, a déclaré à CNN que l'échec apparent de Tessa peut être imputé aux "mauvais acteurs" qui essayaient de tromper l'outil et ont déclaré que les conseils nuisibles n'avaient été envoyés qu'à un petit pourcentage des 2 500 personnes qui avaient accédé au bot depuis son lancement en février de l'année dernière.

Pendant ce temps, les membres du syndicat licenciés de la ligne d'assistance téléphonique NEDA ont déposé des accusations de pratique de travail déloyale contre l'organisation à but non lucratif, alléguant qu'ils ont été licenciés dans le cadre d'une manœuvre antisyndicale après avoir décidé de se syndiquer en mars.

« Nous avons demandé une dotation en personnel adéquate et une formation continue pour suivre l'évolution et la croissance de notre service d'assistance téléphonique et des opportunités de promotion pour se développer au sein de la NEDA. Nous n'avons même pas demandé plus d'argent », associé de la ligne d'assistance et membre du syndicat Abbie Harper a écrit dans un article de blog.

«Lorsque la NEDA a refusé (de reconnaître notre syndicat), nous avons déposé une demande d'élection auprès du Conseil national des relations du travail et nous avons gagné. Puis, quatre jours après que nos résultats électoraux ont été certifiés, nous avons tous les quatre été [dits que nous étions licenciés](https://www.labornotes.org/blogs/2023/05/union-busting-chatbot-eating-disorders -à but non lucratif-met-ai-représailles) et remplacé par un chatbot.

Selon le message, les travailleurs de la ligne d'assistance ont été informés qu'ils seraient sans emploi à compter du 1er juin, et maintenant que l'organisation est à court de travailleurs de la ligne d'assistance humaine et de leur chatbot, il semble qu'il n'y ait [personne dans le personnel](https:// www.nationaleatingdisorders.org/help-support/contact-helpline) pour offrir des conseils à ceux qui se tournent vers l'organisation pour obtenir de l'aide dans les situations d'urgence.

« Nous prévoyons de continuer à nous battre. Bien que nous puissions penser à de nombreux cas où la technologie pourrait nous être bénéfique dans notre travail sur la ligne d'assistance, nous n'allons pas laisser nos patrons utiliser un chatbot pour se débarrasser de notre syndicat et de nos emplois », a écrit Harper.

Thompson a déclaré au Guardian que le chatbot n'était [pas destiné à remplacer la ligne d'assistance] (https://www.theguardian.com/technology/2023/may/31/eating-disorder-hotline-union-ai-chatbot-harm), mais a été créé en tant que programme distinct.

"Nous avions des raisons commerciales de fermer la ligne d'assistance et nous étions en train de procéder à cette évaluation depuis trois ans", a déclaré Thompson. « Un chatbot, même un programme très intuitif, ne peut remplacer l'interaction humaine.

L'essor de l'IA et des chatbots a causé des maux de tête et des inquiétudes à de nombreuses organisations et experts en technologie , car il a été démontré que certains perpétuent les préjugés et diffusent des informations erronées.

Par exemple, en 2022, Meta a publié son propre chatbot qui a fait des remarques antisémites et dénigré Facebook.

Les pays du monde entier se démènent pour élaborer des réglementations pour la technologie en développement, avec le L'Union européenne ouvre la voie avec sa loi sur l'IA qui devrait être approuvée plus tard cette année.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd