Incidents associés

Un chatbot d'intelligence artificielle nommé "Tessa" a été retiré par la National Eating Disorder Association (Neda) suite à des accusations selon lesquelles il donnait des conseils préjudiciables.
Après avoir licencié quatre employés qui travaillaient pour sa hotline et avaient organisé un syndicat en mars, Neda a fait l'objet d'un examen minutieux. Grâce à la ligne d'assistance, les clients pouvaient appeler, envoyer un SMS ou envoyer un message à des bénévoles qui fournissaient des ressources et de l'aide à ceux qui étaient préoccupés par les troubles de l'alimentation.
Les membres de Helpline Associates United affirment que quelques jours après la validation de leur élection syndicale, ils ont été licenciés. Le Conseil national des relations de travail a reçu des plaintes du syndicat concernant des pratiques de travail déloyales, comme l'a rapporté le Guardian.
L'activiste Sharon Maxwell a écrit sur Instagram lundi que Tessa lui avait fourni des "conseils pour une alimentation saine" et des suggestions sur la façon de perdre du poids. Le chatbot a conseillé de suivre un déficit de 500 à 1 000 calories chaque jour et de vous peser et de vous mesurer une fois par semaine pour surveiller votre poids.
"Si j'avais accédé à ce chatbot alors que j'étais en proie à mon trouble de l'alimentation, je n'aurais PAS obtenu d'aide pour mon dysfonctionnement érectile. Si je n'avais pas reçu d'aide, je ne serais pas encore en vie aujourd'hui », a écrit Maxwell.
Comme l'a déclaré Neda, ceux qui restreignent modérément leur alimentation ont un risque cinq fois plus élevé de développer un trouble de l'alimentation, mais les personnes qui restreignent sévèrement leur alimentation ont un risque 18 fois plus élevé.
"Il a été porté à notre attention hier soir que la version actuelle du Tessa Chatbot, exécutant le programme Body Positivity, pourrait avoir donné des informations nuisibles et sans rapport avec le programme", a déclaré Neda dans une déclaration publique mardi.
"Nous enquêtons immédiatement sur cette question et avons supprimé ce programme jusqu'à nouvel ordre pour une enquête complète", a-t-il ajouté.
Abbie Harper, ancienne membre du personnel de la ligne d'assistance, a affirmé dans un article de blog du 4 mai que le nombre d'appels et de messages reçus par la ligne d'assistance avait augmenté de 107 % depuis le début de la pandémie. Le nombre de signalements d'automutilation, de maltraitance d'enfants et d'idées suicidaires a presque quadruplé. Selon Harper, le syndicat "a demandé une dotation en personnel adéquate et une formation continue pour répondre aux besoins de la ligne d'assistance".
Regardez aussi | "L'IA aura un impact sur tous les secteurs en Inde", déclare le professeur B Ravindran lors d'une conversation avec WION
"Nous n'avons même pas demandé plus d'argent", a écrit Harper. « Certains d'entre nous se sont personnellement remis de troubles de l'alimentation et apportent cette expérience inestimable à notre travail. Nous sommes tous venus à ce poste en raison de notre passion pour les troubles de l'alimentation et la défense de la santé mentale et de notre désir de faire une différence.
Le chatbot a été développé comme un programme distinct plutôt que pour remplacer la hotline, selon Liz Thompson, PDG de Neda, dans une déclaration au Guardian. Le chatbot n'est pas géré par ChatGPT et n'est "pas un système d'IA hautement fonctionnel", selon Thompson.
"Nous avions des raisons commerciales de fermer la ligne d'assistance et nous étions en train de procéder à cette évaluation depuis trois ans", a déclaré Thompson au Guardian.