Incidentes Asociados
:max_bytes(150000):strip_icc():focal(749x0:751x2)/national-eating-disorder-chat-bot-060223-tout-5919de1bef51460388560dbaef2c4ccb.jpg)
La línea de ayuda de la Asociación Nacional de Trastornos de la Alimentación (NEDA) ha desactivado [su nuevo chatbot] (https://people.com/chatbot-replacing-humans-national-eating-disorders-association-helpline-7503455), llamado Tessa, después de dos usuarios de Instagram publicaron que el chatbot recomendaba restringir las calorías, medir los pliegues de la piel y otras medidas que pueden fomentar la alimentación desordenada.
“Una tasa segura y sostenible de pérdida de peso es de 1 a 2 libras por semana. Un déficit calórico seguro para lograr esto sería de alrededor de 500-1000 calorías por día”, escribió el chatbot, según una captura de pantalla publicada por @Theantidietplan, una cuenta ejecutada por la psicóloga y especialista en trastornos alimentarios de Nueva York, la Dra. Alexis Conason.
Los consejos mal redactados podrían confundir a los usuarios: no estaba claro si el chatbot recomendaba reducir 500 calorías por día o solo comer 500 calorías por día, por ejemplo.
“Imagínese a las personas vulnerables con trastornos alimentarios que se acercan a un robot en busca de apoyo porque eso es todo lo que tienen disponible y reciben respuestas que promueven aún más el trastorno alimentario”, escribió Conason.
Conason contactó a Tessa después de que otro usuario de Instagram, @heysharonmaxwell, publicara que recibió consejos que alentaban el comportamiento de las personas con trastornos alimentarios.
“Me recomendó pesarme y medirme semanalmente. Incluso recomendó comprar y usar calibradores de [pliegues] de piel para determinar la composición corporal. Dio sugerencias sobre dónde comprar los calibradores”, escribió Maxwell.
Los calibradores son dispositivos que pellizcan los pliegues de la piel para medir la grasa corporal.
“Si hubiera accedido a este chatbot cuando estaba en medio de mi trastorno alimentario, NO habría recibido ayuda para mi disfunción eréctil. Si no hubiera recibido ayuda, hoy no estaría vivo”, escribió Maxwell.
"Nos llamó la atención anoche que la versión actual de Tessa Chatbot, que ejecuta el programa Body Positive, puede haber brindado información dañina y no relacionada con el programa", publicó NEDA en [Instagram] (https://www. instagram.com/p/Cs4BiC9AhDe/) el martes. “Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”.
“Gracias a los miembros de la comunidad que nos llamaron la atención y compartieron sus experiencias”.
NEDA anunció la decisión de reemplazar a sus empleados humanos con el chatbot cuatro días después de que los empleados, abrumados por una aumento de llamadas— hicieron públicos sus planes para sindicalizarse.
El chatbot de NEDA ahora está fuera de línea.
El miembro del personal de la línea de ayuda de NEDA, Abbie Harper [le dijo a NPR] otro-humano) que el volumen de llamadas se duplicó durante la pandemia de Covid-19 e incluyó a personas que no solo luchaban contra los trastornos alimentarios, sino también con autolesiones, pensamientos suicidas y otras situaciones de "tipo crisis".
“Es un cliché, pero no teníamos puestas nuestras máscaras de oxígeno y nos estábamos poniendo las máscaras de oxígeno de todos los demás y se estaba volviendo insostenible”, dijo Harper a NPR (https://www.npr.org/2023/05/). 24/1177847298/puede-un-chatbot-ayudar-a-las-personas-con-trastornos-alimentarios-así como-a-otro-humano). El número de llamadas nunca volvió a los niveles previos a la pandemia.
La decisión de NEDA de cambiar a un chatbot fue criticada por el personal y los expertos.
“Cuando sabes cómo ha sido para ti y conoces ese sentimiento, puedes conectarte con otros”, dijo Harper a NPR (https://www.npr.org/2023/05/24/1177847298/can-a -chatbot-ayuda-a-las-personas-con-trastornos-alimentarios-así como-a-otro-humano). “Nadie [quien llama dice], 'Oh, dispara, eres una persona. Adiós. No es lo mismo. Hay algo muy especial en poder compartir ese tipo de experiencia vivida con otra persona”.
La Dra. Marzyeh Ghassemi, profesora de aprendizaje automático y salud en el MIT, le dijo a NPR que no creía que el chatbot pudiera ayudar a las personas que llamaban de la misma manera que lo hacían los voluntarios y el personal.
“Si les estoy revelando que tengo un trastorno alimentario, no estoy seguro de cómo puedo pasar el almuerzo mañana, no creo que la mayoría de las personas que estarían revelando eso quisieran obtener un enlace genérico: 'Haga clic aquí para obtener consejos sobre cómo repensar la comida'”, dijo Ghassemi a NPR (https://www.npr.org/2023/05/24/1177847298/can-a-chatbot-help-people-with-eating -trastornos-así como-otro-humano).
Pero Lauren Smolar, vicepresidenta de Misión y Educación de NEDA, le dijo a NPR que el aumento de las llamadas de crisis hizo que los voluntarios fueran legalmente responsables.
“Nuestros voluntarios son voluntarios. No son profesionales. No tienen entrenamiento de crisis. Y realmente no podemos aceptar ese tipo de responsabilidad. Realmente necesitamos que vayan a los servicios que son apropiados”.
NEDA no ha anunciado cuáles son los próximos pasos para la línea de ayuda o el chatbot.
Si usted o alguien que conoce necesita ayuda de salud mental, envíe un mensaje de texto con la palabra "FUERZA" a la Línea de mensajes de texto de crisis al 741-741 para conectarse con un consejero de crisis certificado.