Incidentes Asociados

Un chatbot de inteligencia artificial llamado "Tessa" ha sido retirado por la Asociación Nacional de Trastornos de la Alimentación (Neda) tras las acusaciones de que estaba dando consejos perjudiciales.
Después de despedir a cuatro empleados que trabajaban para su línea directa y habían organizado un sindicato en marzo, Neda ha sido objeto de escrutinio. A través de la línea directa, los clientes podían llamar, enviar un mensaje de texto o enviar mensajes a voluntarios que brindaban recursos y asistencia a quienes estaban preocupados por los trastornos alimentarios.
Los miembros de Helpline Associates United afirman que días después de que se validara su elección sindical, fueron despedidos. La Junta Nacional de Relaciones Laborales ha recibido quejas del sindicato sobre prácticas laborales injustas, según informa The Guardian.
La activista Sharon Maxwell escribió en Instagram el lunes que Tessa le había brindado "consejos de alimentación saludable" y sugerencias sobre cómo adelgazar. El chatbot aconsejó seguir un déficit de 500 a 1000 calorías cada día y pesarse y medirse una vez por semana para controlar su peso.
“Si hubiera accedido a este chatbot cuando estaba en medio de mi trastorno alimentario, NO habría recibido ayuda para mi disfunción eréctil. Si no hubiera recibido ayuda, hoy no estaría vivo”, escribió Maxwell.
Según Neda, aquellos que restringen moderadamente sus alimentos tienen un riesgo cinco veces mayor de desarrollar un trastorno alimentario, pero las personas que restringen severamente su dieta tienen un riesgo 18 veces mayor.
“Anoche nos llamó la atención que la versión actual de Tessa Chatbot, que ejecuta el programa Body Positivity, puede haber brindado información dañina y no relacionada con el programa”, dijo Neda en un comunicado público el martes.
“Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”, agregó.
La ex miembro del personal de la línea de ayuda, Abbie Harper, afirmó en una publicación de blog del 4 de mayo que la cantidad de llamadas y mensajes recibidos por la línea directa había aumentado en un 107 por ciento desde el inicio de la pandemia. El número de informes de autolesiones, maltrato infantil e ideación suicida casi se cuadriplicó. Según Harper, el sindicato "pidió personal adecuado y capacitación continua para mantenerse al día con las necesidades de la línea directa".
También mira | "IA para impactar todos los sectores en la India", dice el profesor B Ravindran en una conversación con WION
“Ni siquiera pedimos más dinero”, escribió Harper. “Algunos de nosotros nos hemos recuperado personalmente de trastornos alimentarios y aportamos esa invaluable experiencia a nuestro trabajo. Todos llegamos a este trabajo debido a nuestra pasión por los trastornos alimentarios y la defensa de la salud mental y nuestro deseo de marcar la diferencia”.
El chatbot se desarrolló como un programa distinto en lugar de reemplazar la línea directa, según Liz Thompson, directora ejecutiva de Neda, en un comunicado a The Guardian. El chatbot no es administrado por ChatGPT y "no es un sistema de inteligencia artificial altamente funcional", según Thompson.
“Teníamos razones comerciales para cerrar la línea de ayuda y habíamos estado en el proceso de esa evaluación durante tres años”, dijo Thompson a The Guardian.