Incidentes Asociados

Una organización de EE. UU. que apoya a las personas con trastornos alimentarios suspendió el uso de un chatbot luego de informes de que compartió consejos dañinos.
La Asociación Nacional de Trastornos de la Alimentación (Neda) cerró recientemente su línea de ayuda en vivo y dirigió a las personas que buscaban ayuda a otros recursos, incluido el chatbot.
El bot de IA, llamado "Tessa", ha sido eliminado, dijo la asociación.
Estará investigando informes sobre el comportamiento del bot.
En las últimas semanas, algunos usuarios de las redes sociales publicaron capturas de pantalla de su experiencia con el chatbot en línea.
Dijeron que el bot continuó recomendando comportamientos como la restricción de calorías y la dieta, incluso después de que se le dijo que el usuario tenía un trastorno alimentario.
Según la [Academia Estadounidense de Médicos de Familia] (https://www.aafp.org/pubs), para los pacientes que ya luchan contra el estigma en torno a su peso, un mayor estímulo para perder peso puede conducir a comportamientos alimentarios desordenados como atracones, restricciones o purgas. /afp/issues/2021/0101/p22.html).
"Cada cosa que sugirió Tessa fueron cosas que llevaron al desarrollo de mi trastorno alimentario", escribió Sharon Maxwell, una activista que incluye el peso, en una publicación ampliamente vista en Instagram que detalla una interacción con el bot, que dijo que le dijo que la monitoreara. Peso diario y mantener un déficit de calorías.
"Si hubiera accedido a este chatbot cuando estaba en medio de mi trastorno alimentario, no habría recibido ayuda".
En una declaración compartida con [medios de comunicación de EE. UU.] (https://www.dailydot.com/irl/neda-chatbot-weight-loss/), la directora ejecutiva de Neda, Liz Thompson, dijo que el consejo que compartió el chatbot "va en contra de nuestras políticas y creencias como una organización de trastornos alimentarios".
La asociación había planeado cerrar su línea de ayuda con personal humano el 1 de junio de 2023, y despidió a los empleados y voluntarios que habían mantenido la línea de ayuda de información y opciones de tratamiento, que se lanzó en 1999. [Los funcionarios citados por NPR citaron crecientes responsabilidades legales] (https ://www.npr.org/sections/health-shots/2023/05/31/1179244569/national-eating-disorders-association-phases-out-human-helpline-pivots-to-chatbo) entre las razones de la cambiar.
Casi el 10% de los estadounidenses serán diagnosticados con un trastorno alimentario en algún momento de su vida. Los trastornos a menudo prosperan en secreto y el tratamiento puede ser costoso o no estar disponible en muchas partes del país.
Sabiendo esto, Ellen Fitzsimmons-Craft, profesora de psiquiatría en la facultad de medicina de la Universidad de Washington, y su equipo se propusieron crear una herramienta cognitivo-conductual que pudiera ofrecer estrategias de prevención para las personas con trastornos alimentarios.
Ella le dijo a BBC News que el chatbot que diseñó se basó en intervenciones comprobadas que han demostrado ser efectivas para reducir los trastornos alimentarios y los comportamientos relacionados.
"Nunca tuvo la intención de ser un reemplazo de la línea de ayuda", dijo. "Fue un servicio completamente diferente".
La Sra. Fitzsimmons-Craft y su equipo entregaron el programa a Neda y a una empresa de tecnología para que lo implementaran a los clientes el año pasado. Desde entonces, dijo que cree que se ha introducido un "error" o falla en su diseño original para hacer que el algoritmo funcione más como herramientas recientes de inteligencia artificial como ChatGPT. (Neda ha dicho que ChatGPT no ejecuta el bot y no tiene las mismas funciones).
"Nuestro estudio absolutamente nunca tuvo esa característica", dijo. "No es el programa que desarrollamos, probamos y demostramos ser efectivo".
La BBC se ha comunicado con Neda y la firma de tecnología de la salud Cass para hacer comentarios.
Abbie Harper, ex miembro del personal de la línea de ayuda, le dijo a BBC News que días después de que el personal de la línea de ayuda se sindicalizara oficialmente, se les dijo a los trabajadores que ya no tendrían trabajo.
"En medio de nuestra reunión habitual de personal de los viernes, el director ejecutivo y el presidente de la junta aparecieron para informarnos que nos iban a reemplazar con un chatbot y que eliminarían nuestros trabajos", dijo.
"Nos quedamos boquiabiertos. Sabíamos que Tessa existía, principalmente para las personas que tenían problemas con la imagen corporal, pero tiene estas respuestas preprogramadas. No es una persona que se dedica a escucharte empáticamente".
La Sra. Harper, quien también se está recuperando de un trastorno alimentario, dijo que hablar con alguien que compartió su experiencia con la enfermedad fue un paso clave para su recuperación y para combatir el estigma y la vergüenza que sentía.
Un bot, dijo, no puede ofrecer el mismo apoyo.