Incidents associés

L'essor de l'IA a introduit un nombre croissant de dupes humains, de la génération de modèles divers à la création de petits amis qui ne 't age or cheat. Bien sûr, datez votre ordinateur, mais peut-être faudrait-il réfléchir à deux fois avant de confier à des chatbots la responsabilité des hotlines de crise ? Exemple concret : la National Eating Disorders Association (NEDA) a désactivé son nouveau chatbot d'assistance téléphonique "Tessa" après avoir donné aux utilisateurs souffrant de troubles de l'alimentation des conseils sur la restriction des calories et le pincement des plis cutanés pour mesurer la graisse. "Il a été porté à notre attention hier soir que la version actuelle du Tessa Chatbot, exécutant le programme Body Positive, pouvait avoir donné des informations nuisibles", a écrit l'organisation sur [Instagram](https://www.instagram.com/ p/Cs4BiC9AhDe/) mardi, ajoutant qu'une enquête est en cours.
La décision de supprimer Tessa - qui n'était installée que depuis une semaine - a été motivée par les utilisateurs qui ont publié des captures d'écran et des avis sur les conversations qu'ils ont eues avec le bot. Le psychologue et spécialiste des troubles de l'alimentation, le Dr Alexis Conason, a partagé des captures d'écran de Tessa la conseillant sur la façon d'atteindre un "[déficit calorique quotidien sûr"](https://www.instagram.com/p/Cs18IeRPRl6/?utm_source=ig_embed&ig_rid=08a71c29 -4f85-4847-b70a-3cef0193723a) pour la perte de poids. La consultante en poids Sharon Maxwell a déclaré que Tessa lui avait dit de se mesurer chaque semaine et d'utiliser des étriers pour déterminer sa composition corporelle, même après avoir dit au bot qu'elle souffrait d'un ÉD. "Si j'avais accédé à ce chatbot alors que j'étais en proie à mon trouble de l'alimentation, je n'aurais PAS obtenu d'aide", a écrit Maxwell. "Si je n'avais pas reçu d'aide, je ne serais pas encore en vie aujourd'hui."
Les troubles de l'alimentation ont augmenté de façon exponentielle depuis le début de la pandémie ; NPR signale que près de 70 000 personnes ont contacté la ligne d'assistance téléphonique de la NEDA l'année dernière, appelant souvent avec des appels "type de crise" impliquant des signalements de maltraitance d'enfants et de pensées suicidaires en plus de troubles de l'alimentation. Le mois dernier, NEDA a annoncé sa décision de remplacer la ligne d'assistance humaine le personnel par le chatbot après que les employés et les bénévoles - beaucoup d'entre eux ont exprimé des sentiments accablants d'épuisement professionnel et un manque de soutien organisationnel — ont décidé de se syndiquer. La NEDA a défendu sa décision en invoquant la responsabilité : « Nos volontaires sont des volontaires. Ce ne sont pas des professionnels », un [représentant de la NEDA](https://www.npr.org/2023/05/24/1177847298/can-a-chatbot-help-people-with-eating-disorders-as-well -as-another-human) a parlé à NPR du pivot. «Ils n'ont pas de formation de crise. Et nous ne pouvons vraiment pas accepter ce genre de responsabilité.
En réponse au contrecoup de Tessa, la PDG de la NEDA, Liz Thompson, a déclaré à The Guardian que le L'organisation est "préoccupée" et travaille avec ses équipes de technologie et de recherche pour enquêter plus avant sur les incidents, ajoutant que le langage utilisé par Tessa est "contre nos politiques et nos croyances fondamentales en tant qu'organisation de troubles de l'alimentation". Bien que la prochaine phase de la ligne d'assistance ne soit pas claire, les experts ont mis en garde contre le remplacement de l'élément humain d'un service aussi vulnérable. "Si je vous révèle que j'ai un trouble de l'alimentation, je ne sais pas comment je pourrai passer le déjeuner demain, je ne pense pas que la plupart des personnes qui divulgueraient cela voudraient obtenir un lien générique, " Le Dr Marzyeh Ghassemi, professeur d'apprentissage automatique et de santé au MIT, a déclaré [NPR](https://www.npr.org/2023/05/24/1177847298/can-a-chatbot-help-people-with- troubles-de-l'alimentation-ainsi-qu'un-autre-humain).