Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3146

Incidentes Asociados

Incidente 54546 Reportes
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
'Este robot causa daño': la línea de ayuda para trastornos alimentarios se vio obligada a abandonar el chatbot que empeoraba los trastornos alimentarios
dailywire.com · 2023

Una línea de ayuda nacional abandonó un chatbot de inteligencia artificial llamado Tessa después de que el consejo que dio empeorara las cosas para quienes sufrían trastornos alimentarios.

La Asociación Nacional de Trastornos de la Alimentación (NEDA, por sus siglas en inglés) anunció el martes que cerró el chatbot por comentarios "dañinos" que proporcionó a quienes pedían ayuda, el [New York Post] (https://nypost.com/2023/05/ 31/eating-disorder-helpline-fires-ai-for-dañino-consejo-después-de-sacando-humanos/) reportado. Su trabajo consistía en utilizar métodos terapéuticos y respuestas limitadas para ayudar a quienes se acercaban.

“Nos llamó la atención anoche que la versión actual de Tessa Chatbot, que ejecuta el programa Body Positive, puede haber brindado información dañina y no relacionada con el programa”, declaró NEDA.

La línea de ayuda para trastornos alimentarios despide a AI por consejos dañinos después de despedir a humanos https://t.co/E3qOtUxzAm [pic.twitter.com/mXL5HaP7Vm](https://t. co/mXL5HaP7Vm)

— New York Post (@nypost) 31 de mayo de 2023

“Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”.

La medida se produce después de que varias personas publicaran capturas de pantalla y compartieran la información que proporcionó Tessa, que los animó a trabajar para lograr un "déficit de 500-1,000 calorías diarias", pesarse semanalmente y restringir su dieta, señaló el medio.

“Cada cosa que sugirió Tessa fueron cosas que llevaron al desarrollo de mi trastorno alimentario”, escribió la activista Sharon Maxwell en una publicación en las redes sociales. “Este robot causa daño”.

Alexis Conason, psicóloga especializada en trastornos alimentarios, publicó capturas de pantalla de la conversación con Tessa. En ellos, se le dijo a Conason que "un déficit calórico diario seguro" es "500-1000 calorías por día".

“Aconsejar a alguien que está luchando con un trastorno alimentario que esencialmente se involucre en los mismos comportamientos del trastorno alimentario y validar que ‘Sí, es importante que pierda peso’ es apoyar los trastornos alimentarios”, dijo Conason al Daily Dot.

Liz Thompson, directora ejecutiva de NEDA, dijo que “con respecto a los comentarios sobre la pérdida de peso y la limitación de calorías emitidos en un chat el lunes, estamos preocupados y estamos trabajando con el equipo de tecnología y el equipo de investigación para investigar esto más a fondo; ese lenguaje está en contra de nuestras políticas y creencias fundamentales como organización de trastornos alimentarios.

“Hasta ahora, más de 2500 personas han interactuado con Tessa y hasta el lunes no habíamos visto ese tipo de comentarios o interacción”, agregó. "Hemos eliminado el programa temporalmente hasta que podamos entender y corregir el 'error' y los 'desencadenantes' de ese comentario".

A los empleados de la línea directa se les dijo que serían despedidos días antes de que cerraran Tessa. El servicio ha sido operado por humanos durante los últimos 20 años. La medida se produce después de que los empleados decidieran sindicalizarse en marzo, [Vice](https://www.vice.com/en/article/qjvk97/eating-disorder-helpline-disables-chatbot-for-harmful-responses-after-fireing -humano-personal) informado.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd