Incidents associés
Un [chatbot](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https %3A%2F%2Fcomplex.com%2Ftag%2Ftech&xcust=7428125%7CBF-VERIZON&xs=1) qui aurait [remplacé les travailleurs](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F %2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https%3A%2F%2Fcomplex.com%2Ftag%2Fcapitalism&xcust=7428125%7CBF-VERIZON&xs=1) lors d'un repas Le service d'assistance téléphonique pour les troubles a été fermé, du moins pour le moment, après qu'il a été découvert qu'il avait donné des conseils « préjudiciables et sans rapport ».
Dans une [déclaration](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url= https%3A%2F%2Fwww.instagram.com%2Fp%2FCs4BiC9AhDe%2F&xcust=7428125%7CBF-VERIZON&xs=1) publié cette semaine, la National Eating Disorders Association (NEDA) a annoncé que le bot, appelé "Tessa"— est au centre d'une enquête.
"Il a été porté à notre attention hier soir que la version actuelle du Tessa Chatbot, exécutant le programme Body Positive, pourrait avoir donné des informations nuisibles et sans rapport avec le programme", a déclaré un porte-parole (https://go.redirectingat .com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https%3A%2F%2Fwww.instagram.com%2Fp %2FCs4BiC9AhDe%2F&xcust=7428125%7CBF-VERIZON&xs=1). "Nous enquêtons immédiatement sur cette affaire et avons supprimé ce programme jusqu'à nouvel ordre pour une enquête complète. Merci aux membres de la communauté qui ont porté cela à notre attention et ont partagé leurs expériences.
En mai, le chatbot a fait l'objet de nombreux titres à la lumière de l'annonce qu'il prendrait une plus grande charge à partir du 1er juin. ://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https%3A%2F%2Fwww .npr.org%2F2023%2F05%2F24%2F1177847298%2Fcan-a-chatbot-help-people-with-eating-disorders-as-well-as-other-human&xcust=7428125%7CBF-VERIZON&xs=1) ils étaient licencié. En fait, cette nouvelle serait arrivée peu de temps après que les membres du personnel eurent informé la NEDA de leur syndicalisation.
Dans un autre Vice [rapport](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful- conseils&url=https%3A%2F%2Fwww.vice.com%2Fen%2Farticle%2Fn7ezkm%2Feating-disorder-helpline-fires-staff-transitions-to-chatbot-after-unionization&xcust=7428125%7CBF-VERIZON&xs=1) de Chloé Xiang en mai, le Dr Ellen Fitzsimmons-Craft - une professeure de l'Université de Washington dont l'équipe a créé Tessa après avoir été embauchée par la NEDA - a déclaré que le chatbot avait été créé à l'aide de "décennies de recherche". De plus, Fitzsimmons-Craft, qui a également été cité dans l'article original de NPR, a abordé la couverture du bot sur Twitter en [indiquant](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F% 2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https%3A%2F%2Ftwitter.com%2Ffitzsimmonscraf%2Fstatus%2F1662633671172530176&xcust=7428125%7CBF-VERIZON&xs= 1) que Tessa n'a "jamais été destiné à remplacer 1: 1 la ligne d'assistance". De plus, a-t-elle ajouté, il s'agit d'un chatbot basé sur des règles, c'est-à-dire "pas un chatbot IA".
Dans un tweet [déclaration](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url =https%3A%2F%2Ftwitter.com%2FHLAUnited%2Fstatus%2F1664480098160979968&xcust=7428125%7CBF-VERIZON&xs=1) jeudi, le syndicat NEDA Helpline Associates a déclaré que "l'échec alarmant" du chatbot "servait de validation supplémentaire que peut-être l'humain il vaut mieux laisser l'empathie à l'humanité. Dans une déclaration précédente, comme on le voit ci-dessous, les membres du syndicat ont déclaré qu'ils "condamnaient maintenant et pour toujours" la "décision irresponsable et dangereuse" de la NEDA.
Et bien qu'il ait été dit que Tessa n'a pas été conçue comme un chatbot d'IA et est plutôt destinée à servir dans une capacité basée sur des règles, cette histoire parle des mêmes préoccupations que beaucoup ont soulevées au milieu des critiques en cours d'exemples à part entière d'IA tels que [ChatGPT](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down-harmful-advice&url=https% 3A%2F%2Fcomplex.com%2Ftag%2Fchatgpt&xcust=7428125%7CBF-VERIZON&xs=1).
Par exemple, un avocat [a récemment fait les gros titres](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline-chatbot-shut-down -harmful-advice&url=https%3A%2F%2Fwww.complex.com%2Flife%2Fa%2Ftracewilliamcowen%2Flawyer-regrets-using-chatgpt-lawsuit-nonexistent-cases&xcust=7428125%7CBF-VERIZON&xs=1) pour avoir dit qu'il maintenant " regrette grandement d'avoir utilisé ChatGPT alors qu'il travaillait pour un client qui avait poursuivi une compagnie aérienne. En bref, comme rapporté pour la première fois par le New York Times [le mois dernier](https://go.redirectingat.com?id=74679X1524629&sref=https%3A%2F%2Fwww.buzzfeed.com%2Ftracewilliamcowen%2Feating-disorder-hotline- chatbot-shut-down-harmful-advice&url=https%3A%2F%2Fwww.nytimes.com%2F2023%2F05%2F27%2Fnyregion%2Favianca-airline-lawsuit-chatgpt.html%3Fsmid%3Dtw-nytimes%26smtyp%3Dcur&xcust= 7428125%7CBF-VERIZON&xs=1), la décision de l'avocat d'emprunter la voie de l'IA "afin de compléter la recherche juridique" dans l'affaire a abouti à la citation d'au moins six cas inexistants dans un mémoire.