Incidentes Asociados

Una organización sin fines de lucro estadounidense eliminó su chatbot de inteligencia artificial después de que una publicación viral en las redes sociales revelara que ofrecía consejos dañinos en lugar de ayudar a las personas.
La Asociación Nacional de Trastornos de la Alimentación (/tema/trastornos de la alimentación) (Neda), que dice que es la organización sin fines de lucro más grande que apoya a las personas con trastornos de la alimentación, desconectó su chatbot Tessa solo unos meses después de haber despedido de manera controvertida a cuatro de sus personal detrás de su línea telefónica de apoyo después de haberse sindicalizado.
Los empleados despedidos habían alegado que la organización sin fines de lucro quería reemplazarlos con el chatbot, algo que negó.
Cuando un usuario se acercó a Tessa para pedirle consejo sobre cómo recuperarse de un [trastorno alimentario](/tema/trastorno alimentario), le recomendó que contara sus calorías, se pesara semanalmente y también le sugirió dónde podía obtener calibradores de piel para medir la grasa corporal. .
Desde que surgió la publicación viral, varios expertos señalaron que contar calorías y medir la grasa corporal son antitéticos para [aquellos que se recuperan de trastornos alimentarios] (https://www.independent.co.uk/life-style/health-and-families/ trastornos alimentarios-personas-amigos-b2290272.html).
“Cada cosa que sugirió Tessa fueron cosas que llevaron al desarrollo de mi trastorno alimentario”, publicó la activista Sharon Maxwell en Instagram. “Este robot causa daño”.
“Si hubiera accedido a este chatbot cuando estaba en medio de mi trastorno alimentario, NO habría recibido ayuda para mi disfunción eréctil”, dijo la Sra. Maxwell.
Cuando Alexis Conason, una psicóloga especializada en el tratamiento de trastornos alimentarios, probó el bot, observó que las respuestas del chatbot podrían "promover aún más los trastornos alimentarios".
Casi 30 millones de personas en los EE. UU. pueden tener [un trastorno alimentario en su vida](https://www.independent.co.uk/life-style/health-and-families/tiktok- Eating-disorder-link-latest-b2075025.html), según algunas estimaciones.
“Imagínese personas vulnerables con trastornos alimentarios llegando a un robot en busca de apoyo porque eso es todo lo que tienen disponible y recibir respuestas que promueven aún más el trastorno alimentario”, dijo la Sra. Conason en Instagram.
En reacción al incidente, Neda dijo que eliminará el chatbot hasta nuevo aviso y agregó que llevará a cabo una investigación completa.
“Anoche nos llamó la atención que la versión actual del chatbot de Tessa que ejecuta el programa Body Positivity puede haber brindado información dañina y no relacionada con el programa”, dijo la asociación de trastornos alimentarios en un comunicado.
“Gracias a los miembros de la comunidad que nos llamaron la atención y compartieron sus experiencias”, dijo.
La medida se produce después de que la organización sin fines de lucro negara usar el chatbot como reemplazo de los empleados que despidió en marzo. Sin embargo, se informó que la organización había planeado reemplazar toda la [línea de ayuda] (/tema/línea de ayuda) operada por humanos de la asociación con el chatbot de Tessa a partir del jueves.
El personal que estaba con la organización sin fines de lucro alegó que la decisión de reemplazar a los humanos detrás de la línea de ayuda con el chatbot fue una represalia contra su sindicalización.
Abbie Harper, miembro del sindicato Helpline Associates United y asociada de la línea directa, señaló en una publicación de blog que el uso del chatbot elimina el aspecto personal del sistema de apoyo donde el personal puede hablar de sus experiencias personales.
“Es por eso que la línea de ayuda y los humanos que la componen son tan importantes”, señaló la publicación del blog.
Al comentar sobre los comentarios, la jefa interina de Neda, Elizabeth Thompson, dijo a The Register que las afirmaciones de que la organización sin fines de lucro reemplazó su servicio de línea de ayuda con un chatbot no eran ciertas.
“Un chatbot, incluso un programa altamente intuitivo, no puede reemplazar la interacción humana. Teníamos razones comerciales para cerrar la línea de ayuda y habíamos estado en el proceso de esa evaluación durante tres años”, dijo la Sra. Thompson.