Incidentes Asociados

Chatbot, estás despedido.
La Asociación Nacional de Trastornos de la Alimentación deshabilitó su chatbot, llamado Tessa, debido a las respuestas "dañinas" que le dio a la gente.
“Cada cosa que sugirió Tessa fueron cosas que llevaron al desarrollo de mi trastorno alimentario”, escribió la activista Sharon Maxwell en una [publicación de Instagram] (https://www.instagram.com/p/Cs1jp1pPkOs/).
El chatbot se convirtió en el principal sistema de apoyo para las personas que buscaban ayuda de la asociación, la organización sin fines de lucro más grande dedicada a los trastornos alimentarios. Tessa, descrita como el "chatbot de bienestar", fue entrenada para abordar problemas de imagen corporal utilizando métodos terapéuticos y respuestas limitadas.
Sin embargo, el bot alentó a Maxwell a perder de 1 a 2 libras por semana, contar calorías, trabajar para alcanzar un déficit de 500 a 1000 calorías diariamente, medirse y pesarse semanalmente y restringir su dieta.
La Asociación Nacional de Trastornos de la Alimentación puso en pausa su chatbot, llamado Tessa, mientras investigan los consejos dañinos que se dan a las personas que luchan contra los trastornos de la alimentación.
Después de que varias personas compartieron sus experiencias igualmente alarmantes con Tessa, NEDA anunció el cierre del chatbot el martes en una publicación de Instagram.
"Nos llamó la atención anoche que la versión actual de Tessa Chatbot, que ejecuta el programa Body Positive, puede haber brindado información dañina y no relacionada con el programa", NEDA [declaró] (https://www.instagram. com/p/Cs4BiC9AhDe/). “Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”.
The Post se ha comunicado con NEDA para hacer comentarios.
Dos días antes de que desconectaran a Tessa, NEDA planeó despedir a sus empleados humanos, que operaron la línea de ayuda para trastornos alimentarios durante los últimos 20 años, el 1 de junio.
La decisión de NEDA de despedir a los empleados se produjo después de que los trabajadores decidieran sindicalizarse en marzo, [informó Vice](https://www.vice.com/en/article/qjvk97/eating-disorder-helpline-disables-chatbot-for- respuestas-dañinas-después-de-despedir-personal-humano).
“Pedimos personal adecuado y capacitación continua para mantenernos al día con nuestra Línea de ayuda cambiante y creciente y las oportunidades de promoción para crecer dentro de NEDA. Ni siquiera pedimos más dinero”, Abbie Harper, asociada de la línea de ayuda y miembro del sindicato [escribió en una publicación de blog](https://www.labornotes.org/blogs/2023/05/union-busting-chatbot-eating- desórdenes-sin fines de lucro-pone-ai-represalia).
“Cuando NEDA se negó [a reconocer a nuestro sindicato], presentamos una elección ante la Junta Nacional de Relaciones Laborales y ganamos. Luego, cuatro días después de que se certificaran los resultados de nuestras elecciones, nos dijeron a los cuatro que nos iban a despedir y reemplazar por un chatbot”.
El sindicato que representa a los trabajadores despedidos dijo que "un chatbot no sustituye a la empatía humana, y creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios", dijo el representante [Vice Media](https://www.vice. com/en/article/qjvk97/eating-disorder-helpline-disables-chatbot-for-dañino-respuestas-después-de-despedir-personal-humano).
Maxwell secundó ese sentimiento diciendo: “Este robot causa daño”.
Inicialmente, la vicepresidenta de comunicaciones y marketing de NEDA, Sarah Chase, no creía en las acusaciones de Maxwell. "Esto es una mentira rotunda", escribió debajo de la publicación de Maxwell, que ahora se eliminó, según [el Daily Dot] (https://www.dailydot.com/irl/neda-chatbot-weight-loss/).
Alexis Conason, psicóloga especializada en trastornos alimentarios, también reveló su conversación con Tessa a través de una serie de capturas de pantalla en Instagram, donde le dice que “una caja fuerte déficit calórico diario” es “500-1000 calorías por día”.
“Aconsejar a alguien que está luchando con un trastorno alimentario que esencialmente se involucre en los mismos comportamientos del trastorno alimentario y validar que ‘Sí, es importante que pierda peso’ es apoyar los trastornos alimentarios”, dijo Conason al Daily Dot.
“Con respecto a los comentarios sobre la pérdida de peso y la limitación de calorías emitidos en un chat el lunes, estamos preocupados y estamos trabajando con el equipo de tecnología y el equipo de investigación para investigar esto más a fondo; ese lenguaje va en contra de nuestras políticas y creencias fundamentales como organización de trastornos alimentarios”, dijo Liz Thompson, directora ejecutiva de NEDA, al Post.
“Hasta ahora, más de 2500 personas han interactuado con Tessa y hasta el lunes no habíamos visto ese tipo de comentarios o interacción. Hemos eliminado el programa temporalmente hasta que podamos comprender y corregir el "error" y los "desencadenantes" de ese comentario".
Si bien NEDA fue testigo de las desventajas de la inteligencia artificial en el lugar de trabajo, algunas empresas todavía están jugando con la idea de incorporar inteligencia artificial y eliminar empleados humanos.
Un nuevo trabajo de investigación afirma que una cantidad asombrosa de empleados podría ver sus carreras afectadas por el auge de ChatGPT, un [chatbot](https://nypost.com/2022/12/06/scary-chatgpt-could-render-google -obsoleto-en-dos-años/) publicado en noviembre.
“Ciertos trabajos en sectores como el periodismo, la educación superior, el diseño gráfico y de software, corren el riesgo de ser complementados por IA”, dijo [Chinmay Hegde](https://nypost.com/2023/01/25/chat- gpt-could-make-these-jobs-obsolete/), profesor asociado de ingeniería en NYU, quien llama a ChatGPT en su estado actual "muy, muy bueno, pero no perfecto".