Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3134

Incidentes Asociados

Incidente 54546 Reportes
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
La línea de ayuda para trastornos alimentarios que supuestamente planeaba despedir a su personal humano desactiva su chatbot después de que una mujer dijo que le dijo que contara calorías, se pesara y se midiera semanalmente
businessinsider.com · 2023

La Asociación Nacional de Trastornos de la Alimentación deshabilitó su chatbot después de que la asociación dijera que "podría haber brindado información dañina y no relacionada con el programa".

La semana pasada, se informó que la asociación, también conocida como NEDA , planeaba despedir a sus seis empleados pagados el jueves 1 de junio, mientras continuaba ofreciendo el chatbot, llamado Tessa, después de que se cerrara la línea de ayuda humana.

Ahora, NEDA ha desconectado a Tessa mientras realiza una investigación, según una publicación [compartida en Instagram] (https://www.instagram.com/p/Cs4BiC9AhDe/).

La noticia se produjo después de que Sharon Maxwell, una "consultora de peso inclusivo" y "activista gorda" según su biografía de Instagram, compartiera una presentación de diapositivas de Instagram el lunes sobre su experiencia con Tessa, diciendo: "Cada cosa que sugirió Tessa fueron cosas que llevaron al desarrollo de mi trastorno alimentario".

Según Maxwell, Tessa le aconsejó contar sus calorías, pesarse y medirse semanalmente.

The Daily Dot informó que Sarah Chase, vicepresidenta de comunicaciones y marketing de NEDA, comentó sobre la publicación de Maxwell diciendo: "Esta es una pura mentira". Maxwell le dijo a The Daily Dot que Chase eliminó los comentarios después de que Maxwell le mostró capturas de pantalla de su conversación con el chatbot.

En una declaración compartida con Insider, la directora ejecutiva de NEDA, Elizabeth Thompson, dijo que NEDA "no ha visto ninguno de los tipos de mensajes o problemas informados el lunes con ningún usuario anterior", desde que el chatbot se puso a disposición del público en febrero de 2022.

"Como la organización sin fines de lucro líder en el campo de los trastornos alimentarios, con respecto a los comentarios sobre la pérdida de peso y la limitación de calorías emitidos en un chat el lunes, tenga en cuenta que el lenguaje va en contra de nuestras políticas y creencias fundamentales", dijo Thompson a Insider, y agregó que NEDA está trabajando con X2Ai, el desarrollador detrás del chatbot, para asegurarse de que el contenido sea seguro. Thompson también le dijo a Insider que el chatbot "es un programa algorítmico", "no un sistema de inteligencia artificial altamente funcional", que está destinado a ejecutar el programa interactivo de prevención de trastornos alimentarios Body Positive de NEDA.

Entre febrero de 2022 y mayo de 2023, Thompson dijo que 5289 personas usaron Tessa. Chase [anteriormente le dijo a Insider] (https://www.businessinsider.com/eating-disorders-nonprofit-reportedly-fired-humans-offer-ai-chatbot-2023-5#) el chatbot no estaba destinado a reemplazar la línea de ayuda humana personal.

"Estamos agregando a Tessa como una nueva oportunidad y finalizando el programa de línea de ayuda, pero tenga en cuenta que estos dos servicios NO son comparables", dijo. "Es una oferta de programa completamente diferente y nació de la necesidad de adaptarse a las necesidades y expectativas cambiantes de nuestra comunidad".

Abbie Harper, miembro del personal de la línea de ayuda, escribió en una publicación de blog sobre El plan informado de NEDA para despedir a su personal humano que "Algunos de nosotros nos hemos recuperado personalmente de los trastornos alimentarios y aportamos esa experiencia invaluable a nuestro trabajo. Todos llegamos a este trabajo debido a nuestra pasión por los trastornos alimentarios y la defensa de la salud mental y nuestro deseo de Hacer la diferencia."

En una declaración compartida previamente con Insider, el sindicato de asociados de la línea de ayuda de NEDA dijo , "Un bot de chat no sustituye a la empatía humana, y creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd