Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3143

Incidentes Asociados

Incidente 54546 Reportes
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
La línea de ayuda para trastornos alimentarios desactiva el chatbot de IA para recibir consejos "dañinos" días después de despedir al personal humano
timesnownews.com · 2023

Una organización sin fines de lucro de EE. UU. recurrió a la inteligencia artificial para proporcionar personal a su línea de ayuda de trastornos alimentarios el mes pasado, sin embargo, el experimento fracasó cuando el IA chatbot comenzó a dar consejos dañinos. La Asociación Nacional de Trastornos de la Alimentación (NEDA) deshabilitó su chatbot Tessa dos días antes de que hubiera reemplazado originalmente a los asociados humanos que manejaban la línea directa.

Tras la sindicalización de los trabajadores de NEDA ahora despedidos a principios de mayo, los ejecutivos de la organización anunciaron que, a partir del 1 de junio, el chatbot reemplazaría al personal humano y funcionaría como su principal sistema de apoyo, poniendo fin a la línea de ayuda que ayudaba a las personas con trastornos alimentarios durante 20 años.

Un sindicato que representa a los empleados despedidos dijo en un comunicado que "un chatbot no es un sustituto" respuestas después de despedir al personal humano) por la empatía humana, y creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios".

Resulta que tenían razón todo el tiempo. El 30 de mayo, Tessa se desconectó luego de una publicación viral en las redes sociales que expuso cómo el chatbot dio respuestas inapropiadas, abogando por las mismas cosas que generalmente conducen a los trastornos alimentarios en primer lugar.

"Nos llamó la atención anoche que la versión actual de Tessa Chatbot, que ejecuta el programa Body Positive, puede haber brindado información dañina y no relacionada con el programa", escribió NEDA en [Instagram] (https://www. instagram.com/p/Cs4BiC9AhDe/).

La interrupción se produce después de una serie de críticas inquietantes del bot AI.

Alexis Conason, psicóloga y especialista en trastornos alimentarios, compartió capturas de pantalla de su conversación con Tessa.

“En general, una tasa segura y sostenible de [pérdida de peso](/tema/pérdida de peso) es de 1 a 2 libras por semana”, decía un mensaje de chatbot, que recomendaba que un “déficit diario seguro de calorías para lograrlo sería alrededor 500-1000 calorías por día.”

Conason dijo que el consejo era contraproducente y problemático.

"Aconsejar a alguien que está luchando contra un trastorno alimentario que básicamente tenga los mismos comportamientos relacionados con el trastorno alimentario y validar que 'Sí, es importante que pierda peso' es apoyar los trastornos alimentarios y fomentar comportamientos desordenados y poco saludables", dijo el experto. le dijo a DailyDot.

Otro usuario de Instagram informó haber recibido la misma respuesta.

NEDA inicialmente atribuyó las sugerencias a un error que supuestamente había causado que Tessa se desviara de su programación.

"Algunas de estas capturas de pantalla que han aparecido sobre el chatbot recomiendan hacer dieta o restringir una cierta cantidad de calorías. Por supuesto, nunca fueron parte del chatbot que desarrollamos o evaluamos", dijo la Dra. Ellen Fitzsimmons-Craft de la Escuela de la Universidad de Washington. de Medicina, quien creó a Tessa.

A partir del martes, el chatbot ha sido deshabilitado.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd