Incidentes Asociados

Menos de una semana después de anunciar planes para reemplazar el personal de su línea de ayuda humana con un AI. chatbot llamado Tessa, la Asociación Nacional de Trastornos Alimentarios (NEDA) ha desconectado la tecnología.
"Llamó nuestra atención [el lunes] por la noche que la versión actual de Tessa Chatbot... podría haber brindado información que era dañina", dijo NEDA [en una publicación de Instagram] (https://www.instagram.com/p /Cs4BiC9AhDe/). “Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”.
El chatbot se configuró para reemplazar por completo a los asociados humanos en la línea directa de la organización el 1 de junio. No está claro cómo la organización planea dotar de personal a esa línea de ayuda en este momento.
Los problemas con Tessa fueron hechos públicos por una activista llamada Sharon Maxwell, quien dijo: “Cada cosa que sugirió Tessa fueron cosas que llevaron al desarrollo de mi desorden alimenticio." Los funcionarios de NEDA inicialmente llamaron mentiras a esas afirmaciones en una publicación en las redes sociales, pero las eliminaron después de que Maxwell envió capturas de pantalla de la interacción, dijo.
Alexis Conason, un psicólogo que se especializa en el tratamiento de los trastornos alimentarios, pudo recrear los problemas [publicando capturas de pantalla de una conversación con el chatbot en Instagram] (https://www.instagram.com/p/Cs18IeRPRl6/).
“Imagínese a las personas vulnerables con trastornos alimentarios que se acercan a un robot en busca de apoyo porque eso es todo lo que tienen disponible y reciben respuestas que promueven aún más el trastorno alimentario”, escribió.
NEDA presentó a Tessa después de que la decisión del personal de la línea directa de sindicalizarse luego de una gran cantidad de llamadas de la era de la pandemia provocó el agotamiento masivo del personal. Los seis empleados remunerados supervisaron un personal voluntario de aproximadamente 200 personas, que manejaron llamadas (a veces múltiples) de casi 70 000 personas el año pasado.
Funcionarios de NEDA dijeron a NPR la decisión no tuvo nada que ver con la sindicalización. En cambio, dijo la vicepresidenta Lauren Smolar, el número creciente de llamadas y el personal mayoritariamente voluntario creaban más responsabilidad legal para la organización y aumentaban los tiempos de espera para las personas que necesitaban ayuda. Sin embargo, los ex trabajadores calificaron la medida como [descaradamente antisindical] (https://www.labornotes.org/blogs/2023/05/union-busting-chatbot-eating-disorders-nonprofit-puts-ai-retaliation).
El creador de Tessa dice que el chatbot, que fue diseñado específicamente para NEDA, no es tan avanzado como ChatGPT. En cambio, está programado con una cantidad limitada de respuestas destinadas a ayudar a las personas a aprender estrategias para evitar [trastornos alimentarios] (https://fortune.com/well/2023/03/05/eating-disorders-overlooked-people-of-color /).
“No es una herramienta abierta para que hables y sientas que solo vas a tener acceso a un oído atento, tal vez como lo fue la línea de ayuda”, dijo la Dra. Ellen Fitzsimmons-Craft, profesora de psiquiatría en la la facultad de medicina de la Universidad de Washington que ayudó a diseñar a Tessa, [le dijo a NPR](https://www.npr.org/2023/05/24/1177847298/can-a-chatbot-help-people-with-eating-disorders-as- bien-como-otro-humano).