Incidentes Asociados
Un chatbot impulsado por IA que reemplazó a los empleados en una línea directa de trastornos alimentarios se cerró después de que brindó consejos dañinos a las personas que buscaban ayuda.
La saga comenzó a principios de este año cuando la Asociación Nacional de Trastornos Alimentarios (NEDA) anunció que cerraría su línea de ayuda dirigida por humanos y reemplazaría a los trabajadores con un chatbot llamado "Tessa". Esa decisión se produjo después de que los empleados de la línea de ayuda votaran a favor de sindicalizarse.
La IA podría anunciarse como una forma de aumentar la productividad en el lugar de trabajo e incluso facilitar algunos trabajos, pero Tessa la temporada duró poco. El chatbot terminó brindando consejos dudosos e incluso dañinos a las personas con trastornos alimentarios, como recomendarles que cuenten las calorías y luchen por un [déficit] (https://www.healthline.com/nutrition/calorías-deficit#definition-and -importancia) de hasta 1.000 calorías por día, entre otros "consejos", según los críticos.
"Cada cosa que sugirió Tessa fueron cosas que llevaron al desarrollo de mi trastorno alimentario", escribió Sharon Maxwell, quien se describe a sí misma como una consultora de peso inclusivo y activista gorda, en Instagram. "Este robot causa daño".
En una publicación de Instagram el miércoles, NEDA anunció que cerraría a Tessa, al menos temporalmente.
"Nos llamó la atención anoche que la versión actual de Tessa Chatbot, que ejecuta el programa Body Positive, puede haber brindado información dañina y no relacionada con el programa", dijo el grupo en un comunicado. “Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”.
La declaración no señaló si NEDA reemplazaría a Tessa con una línea de ayuda operada por humanos. La organización no respondió de inmediato a una solicitud de comentarios.
Los trabajadores de la línea de ayuda de NEDA que habían sido despedidos y reemplazados por Tessa escribieron el 26 de mayo que estaban decepcionados con la decisión de reemplazarlos con tecnología de IA. "Un chatbot no reemplaza la empatía humana", dijeron en un tuit, y agregaron que la decisión perjudicaría a las personas con trastornos alimentarios.
Otros consejos que Tessa brindó incluyeron la recomendación de comprar [calibradores] de piel (https://weightology.net/the-pitfalls-of-body-fat-measurement-part-5-skinfolds/) para evaluar la composición corporal, incluso sugirió dónde comprar las pinzas, escribió Maxwell. El chatbot "señaló que la sociedad tiene estándares de belleza poco realistas, mientras que ella me dio consejos sobre dietas", dijo.