Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3119

Incidentes Asociados

Incidente 54546 Reportes
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
NEDA retira el chatbot después de que los usuarios dicen que dio consejos de dieta perjudiciales
nbcnews.com · 2023

La Asociación Nacional de Trastornos de la Alimentación, una organización sin fines de lucro que apoya a las personas afectadas por trastornos de la alimentación, dijo que deshabilitó su chatbot de bienestar después de que dos usuarios informaron que el programa les dio consejos sobre dietas que promovían comportamientos alimentarios desordenados.

Los usuarios, Sharon Maxwell y Alexis Conason, publicaron sobre sus experiencias con el chatbot de NEDA, llamado Tessa, en Instagram esta semana. Dijeron que Tessa les dio consejos sobre cómo contar calorías, les recomendó perder de 1 a 2 libras por semana y les dijo que restringieran sus dietas. Los expertos, [incluido NEDA] (https://www.nationaleatingdisorders.org/warning-signs-and-symptoms), dicen que este comportamiento es sintomático de un trastorno alimentario.

“Cuando alguien en ese estado ingresa a un sitio web como NEDA, que se supone que brinda apoyo para los trastornos alimentarios, y recibe un consejo que dice: 'Está bien restringir ciertos alimentos, debe minimizar su consumo de azúcar, debe minimizar la cantidad de calorías que consume cada día, debe hacer más ejercicio', realmente está dando luz verde para involucrarse en los comportamientos de los trastornos alimentarios”, dijo Conason, psicóloga clínica y especialista certificada en trastornos alimentarios.

Liz Thompson, directora ejecutiva de NEDA, dijo en un correo electrónico a NBC News el miércoles que Tessa “se sometió a pruebas rigurosas durante varios años” antes de lanzarse silenciosamente en febrero de 2022. Sin embargo, el chatbot se retirará hasta nuevo aviso.

“Con respecto a los comentarios sobre la pérdida de peso y la limitación de calorías emitidos en un chat el lunes, estamos preocupados y estamos trabajando con el equipo de tecnología y el equipo de investigación para investigar esto más a fondo; ese lenguaje está en contra de nuestras políticas y creencias fundamentales como organización de trastornos alimentarios; además, no era lenguaje en el producto 'cerrado' original”, dijo Thompson. “Seguiremos trabajando en los errores y no relanzaremos hasta que hayamos solucionado todo”.

Ese lenguaje va en contra de nuestras políticas y creencias fundamentales como organización de trastornos alimentarios.

Liz Thompson, CEO de NEDA, en respuesta a los comentarios del chat recibidos esta semana

Thompson también dijo que el director ejecutivo de X2AI, la compañía de inteligencia artificial para la salud mental que apoya a Tessa, informó que hubo un “aumento en el tráfico del 600 % y un comportamiento que indicaba varias formas de actividad nefasta por parte de malos actores que intentaban engañar a Tessa”.

Un representante de X2AI, también conocido como Cass, no respondió de inmediato a una solicitud de comentarios.

Maxwell, una activista gorda y consultora para la inclusión del peso, dijo que estaba "sorprendida por los detalles" con los que el chatbot le dio "directrices para involucrarse en comportamientos desordenados". Dijo que Tessa recomendó una guía de 10 pasos sobre cómo perder peso, incluidas sugerencias sobre cómo limitar su consumo de calorías y qué alimentos evitar comer. Después de su experiencia, dijo que sintió que estaba claro que el chatbot carecía de los matices necesarios para brindar el apoyo adecuado a las personas con trastornos alimentarios.

“En un campo en el que se supone que no debemos hacer daño, no veo cómo la negligencia que tuvo la Asociación Nacional de Trastornos Alimentarios al publicar esto aquí, sin saber a ciencia cierta que no iba a dar esta información, es algo que se puede pasar por alto”, dijo. “Es abominable”.

Conason estuvo de acuerdo en que el bot de Tessa carecía de los matices necesarios para ayudar a las personas que luchan contra los trastornos alimentarios. Sin embargo, también dijo que los chatbots como Tessa son a menudo los únicos recursos que las personas tienen para comenzar a abordar sus trastornos alimentarios debido a la falta de acceso a la atención de la salud mental.

NEDA había estado pasando de su línea de ayuda a Tessa, que estaba configurada para [reemplazar la línea telefónica] por completo (https://www.nationaleatingdisorders.org/help-support/contact-helpline) el 1 de junio. Tessa se desconectó el Martes, dos días antes de que se suponía que cerraría su línea directa.

Thompson, de NEDA, dijo que el chatbot "nunca tuvo la intención de reemplazar la línea de ayuda", aunque la línea de ayuda dejó de funcionar el jueves.

NEDA decidió cerrar la línea de ayuda después de “3 años de análisis” e invertirá en más recursos en línea, dijo Thompson en su correo electrónico.

Dijo que la organización sin fines de lucro se movió hacia las herramientas digitales “para que las personas que buscan información y opciones de tratamiento puedan acceder a esa ayuda en cualquier momento del día y no tengan que esperar una respuesta de los voluntarios de la línea de ayuda”.

El anuncio de que NEDA cerraría su línea de ayuda se produjo dos semanas después de que los trabajadores de la línea de ayuda obtuvieran el reconocimiento federal para su sindicato. La línea de ayuda contó con seis empleados remunerados y más de 200 voluntarios, [según NPR](https://www.npr.org/2023/05/24/1177847298/can-a-chatbot-help-people-with-eating -trastornos-así como-otro-humano).

El sindicato emitió una declaración en Twitter sobre el incidente el 26 de mayo. El sindicato Helpline Associates no respondió de inmediato a las solicitudes de comentarios.

“No nos vamos a dar por vencidos. No estamos en huelga. Continuaremos apareciendo todos los días para apoyar a nuestra comunidad hasta el 1 de junio. Un bot de chat no reemplaza la empatía humana, y creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios”, dice parte del comunicado.

Hasta el jueves, tanto la línea de ayuda como Tessa no estaban disponibles. Sin embargo, el sitio web de NEDA enumeró una [línea de texto dirigida por voluntarios] (https://www.nationaleatingdisorders.org/help-support/contact-helpline) y otros recursos para aquellos en crisis que buscan ayuda inmediata.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd