Incidents associés

Chatbot, vous êtes viré.
La National Eating Disorders Association a désactivé son chatbot, nommé Tessa, en raison des réponses « nuisibles » qu'il donnait aux gens.
"Tout ce que Tessa a suggéré était des choses qui ont conduit au développement de mon trouble de l'alimentation", a écrit l'activiste Sharon Maxwell dans un post Instagram.
Le chatbot devait devenir le principal système de soutien pour les personnes cherchant de l'aide auprès de l'association, la plus grande organisation à but non lucratif dédiée aux troubles alimentaires. Tessa, décrite comme le "chatbot du bien-être", a été formée pour résoudre les problèmes d'image corporelle en utilisant des méthodes thérapeutiques et des réponses limitées.
Cependant, le bot a encouragé Maxwell à perdre 1 à 2 livres par semaine, à compter les calories, à atteindre un déficit calorique de 500 à 1 000 par jour, à se mesurer et à se peser chaque semaine et à restreindre son alimentation.
La National Eating Disorders Association a mis son chatbot, nommé Tessa, en pause pendant qu'elle enquêtait sur les conseils préjudiciables donnés aux personnes aux prises avec des troubles de l'alimentation.
Après que plusieurs personnes aient partagé leurs expériences tout aussi alarmantes avec Tessa, NEDA a annoncé mardi la fermeture du chatbot dans une publication Instagram.
"Il a été porté à notre attention hier soir que la version actuelle du Tessa Chatbot, exécutant le programme Body Positive, pouvait avoir fourni des informations nuisibles et sans rapport avec le programme", a déclaré la NEDA (https://www.instagram. com/p/Cs4BiC9AhDe/). "Nous enquêtons immédiatement sur cette question et avons supprimé ce programme jusqu'à nouvel ordre pour une enquête complète."
Le Post a contacté la NEDA pour commentaires.
Deux jours avant que Tessa ne soit débranchée, la NEDA prévoyait de licencier ses employés humains, qui exploitaient la ligne d'assistance téléphonique sur les troubles de l'alimentation depuis 20 ans, le 1er juin.
La décision de la NEDA de donner la botte aux employés est intervenue après que les travailleurs ont décidé de se syndiquer en mars, [Vice a rapporté](https://www.vice.com/en/article/qjvk97/eating-disorder-helpline-disables-chatbot-for- réactions-préjudiciables-après-licenciement-personnel-humain).
« Nous avons demandé une dotation en personnel adéquate et une formation continue pour suivre l'évolution et la croissance de notre ligne d'assistance et les opportunités de promotion pour se développer au sein de la NEDA. Nous n'avons même pas demandé plus d'argent », Abbie Harper, associée de la ligne d'assistance et membre du syndicat [a écrit dans un article de blog](https://www.labornotes.org/blogs/2023/05/union-busting-chatbot-eating- troubles-associatif-met-ai-représailles).
"Lorsque la NEDA a refusé [de reconnaître notre syndicat], nous avons déposé une candidature auprès du Conseil national des relations du travail et nous avons gagné. Puis, quatre jours après la certification de nos résultats électoraux, nous avons tous les quatre été informés que nous allions être licenciés et remplacés par un chatbot.
Le syndicat représentant les travailleurs licenciés a déclaré qu'"un chatbot ne remplace pas l'empathie humaine, et nous pensons que cette décision causera un préjudice irréparable à la communauté des troubles de l'alimentation", a déclaré le représentant [Vice Media](https://www.vice. com/en/article/qjvk97/eating-disorder-helpline-disables-chatbot-for-harmful-responses-after-firing-human-staff).
Maxwell a appuyé ce sentiment en disant: "Ce robot cause du mal."
Initialement, la vice-présidente des communications et du marketing de la NEDA, Sarah Chase, ne croyait pas aux allégations de Maxwell. "C'est un mensonge éhonté", a-t-elle écrit sous le message de Maxwell, qui est maintenant supprimé, selon the Daily Dot.
Alexis Conason, psychologue spécialisée dans les troubles alimentaires, a également révélé sa conversation avec Tessa à travers une série de captures d'écran sur Instagram, où on lui dit qu'"un coffre-fort déficit calorique quotidien » est « 500-1000 calories par jour ».
"Conseiller à quelqu'un qui est aux prises avec un trouble de l'alimentation de s'engager essentiellement dans les mêmes comportements de trouble de l'alimentation, et de valider que" Oui, il est important que vous perdiez du poids "contribue aux troubles de l'alimentation", a déclaré Conason au Daily Dot.
"En ce qui concerne les commentaires sur la perte de poids et la limitation des calories émis lors d'un chat lundi, nous sommes préoccupés et travaillons avec l'équipe technologique et l'équipe de recherche pour approfondir cette question ; ce langage va à l'encontre de nos politiques et de nos croyances fondamentales en tant qu'organisation de troubles de l'alimentation », a déclaré Liz Thompson, PDG de NEDA, au Post.
"Jusqu'à présent, plus de 2 500 personnes ont interagi avec Tessa et jusqu'à lundi, nous n'avions pas vu ce genre de commentaire ou d'interaction. Nous avons temporairement arrêté le programme jusqu'à ce que nous puissions comprendre et corriger le "bogue" et les "déclencheurs" de ce commentaire.
Alors que NEDA a été témoin des inconvénients de l'intelligence artificielle sur le lieu de travail, certaines entreprises envisagent encore l'idée d'incorporer l'intelligence artificielle et d'éliminer les employés humains.
Un nouveau document de recherche affirme qu'un nombre impressionnant d'employés pourraient voir leur carrière impactée par la montée en puissance de ChatGPT, un [chatbot](https://nypost.com/2022/12/06/scary-chatgpt-could-render-google -obsolète-en-deux-ans/) sorti en novembre.
"Certains emplois dans des secteurs tels que le journalisme, l'enseignement supérieur, la conception graphique et logicielle - ceux-ci risquent d'être complétés par l'IA", a déclaré [Chinmay Hegde](https://nypost.com/2023/01/25/chat- gpt-could-make-these-jobs-obsolete/), un professeur agrégé d'ingénierie à NYU, qui qualifie ChatGPT dans son état actuel de "très, très bon, mais pas parfait".