Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3121

Incidentes Asociados

Incidente 54546 Reportes
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
El grupo reemplaza la línea directa con Chatbot, retira Chatbot por malos consejos
newser.com · 2023

Es un movimiento que podría deleitar a cualquier persona preocupada por los posibles efectos de destrucción de empleo de las herramientas de inteligencia artificial. Como informa BBC, la Asociación Nacional de Trastornos Alimentarios (NEDA) de EE. recomendar estrategias dietéticas potencialmente dañinas a las personas con trastornos alimentarios. Esto ocurrió solo una semana después de que NEDA eligiera usar el bot en lugar de una línea de ayuda en vivo operada por humanos. El grupo anunció el problema con Tessa en una publicación de Instagram, según [Fortune](https://fortune.com/well/2023/05/31 /neda-ai-chatbot-dañino-consejo/). "Nos llamó la atención... que la versión actual de Tessa Chatbot... puede haber dado información que era dañina", dice la publicación. “Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”.

Como NPR informó el miércoles, NEDA recurrió a la IA después de operar su línea de ayuda en vivo para personas que sufren de anorexia, bulimia y otros trastornos alimentarios durante más de dos décadas. Según los informes, la organización sin fines de lucro notificó al personal de la línea de ayuda menos de una semana después de haber formado un sindicato. NEDA dijo que el cambio no tuvo nada que ver con la sindicalización de empleados vivos y todo que ver con un aumento considerable de llamadas y mensajes de texto a la línea directa durante la pandemia de COVID-19. Ese aumento en el volumen de llamadas, según el liderazgo de NEDA, significó una mayor responsabilidad y, por lo tanto, el "giro hacia el uso ampliado de la tecnología asistida por IA".

En cuanto al mal comportamiento de Tessa, CNN informa que la directora general de NEDA, Liz Thompson, culpó a los "malos actores" por intentar para incitar al chatbot a dar consejos dañinos o incluso no relacionados a los usuarios. Antes de que se hicieran públicos los problemas del bot, los ex miembros del personal de la línea de ayuda twittearon una declaración en la que dijeron que los chatbots no pueden "sustituir la empatía humana, y creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios". (Lea más inteligencia artificial historias).

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd