Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3113

Incidentes Asociados

Incidente 54546 Reportes
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
La Asociación Nacional de Trastornos de la Alimentación cierra A.I. chatbot que planeó usar para reemplazar a los humanos diciendo que "puede haber dado" información dañina
fortune.com · 2023

Menos de una semana después de anunciar planes para reemplazar el personal de su línea de ayuda humana con un AI. chatbot llamado Tessa, la Asociación Nacional de Trastornos Alimentarios (NEDA) ha desconectado la tecnología.

"Llamó nuestra atención [el lunes] por la noche que la versión actual de Tessa Chatbot... podría haber brindado información que era dañina", dijo NEDA [en una publicación de Instagram] (https://www.instagram.com/p /Cs4BiC9AhDe/). “Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”.

El chatbot se configuró para reemplazar por completo a los asociados humanos en la línea directa de la organización el 1 de junio. No está claro cómo la organización planea dotar de personal a esa línea de ayuda en este momento.

Los problemas con Tessa fueron hechos públicos por una activista llamada Sharon Maxwell, quien dijo: “Cada cosa que sugirió Tessa fueron cosas que llevaron al desarrollo de mi desorden alimenticio." Los funcionarios de NEDA inicialmente llamaron mentiras a esas afirmaciones en una publicación en las redes sociales, pero las eliminaron después de que Maxwell envió capturas de pantalla de la interacción, dijo.

Alexis Conason, un psicólogo que se especializa en el tratamiento de los trastornos alimentarios, pudo recrear los problemas [publicando capturas de pantalla de una conversación con el chatbot en Instagram] (https://www.instagram.com/p/Cs18IeRPRl6/).

“Imagínese a las personas vulnerables con trastornos alimentarios que se acercan a un robot en busca de apoyo porque eso es todo lo que tienen disponible y reciben respuestas que promueven aún más el trastorno alimentario”, escribió.

NEDA presentó a Tessa después de que la decisión del personal de la línea directa de sindicalizarse luego de una gran cantidad de llamadas de la era de la pandemia provocó el agotamiento masivo del personal. Los seis empleados remunerados supervisaron un personal voluntario de aproximadamente 200 personas, que manejaron llamadas (a veces múltiples) de casi 70 000 personas el año pasado.

Funcionarios de NEDA dijeron a NPR la decisión no tuvo nada que ver con la sindicalización. En cambio, dijo la vicepresidenta Lauren Smolar, el número creciente de llamadas y el personal mayoritariamente voluntario creaban más responsabilidad legal para la organización y aumentaban los tiempos de espera para las personas que necesitaban ayuda. Sin embargo, los ex trabajadores calificaron la medida como [descaradamente antisindical] (https://www.labornotes.org/blogs/2023/05/union-busting-chatbot-eating-disorders-nonprofit-puts-ai-retaliation).

El creador de Tessa dice que el chatbot, que fue diseñado específicamente para NEDA, no es tan avanzado como ChatGPT. En cambio, está programado con una cantidad limitada de respuestas destinadas a ayudar a las personas a aprender estrategias para evitar [trastornos alimentarios] (https://fortune.com/well/2023/03/05/eating-disorders-overlooked-people-of-color /).

“No es una herramienta abierta para que hables y sientas que solo vas a tener acceso a un oído atento, tal vez como lo fue la línea de ayuda”, dijo la Dra. Ellen Fitzsimmons-Craft, profesora de psiquiatría en la la facultad de medicina de la Universidad de Washington que ayudó a diseñar a Tessa, [le dijo a NPR](https://www.npr.org/2023/05/24/1177847298/can-a-chatbot-help-people-with-eating-disorders-as- bien-como-otro-humano).

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd