Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3125

Incidentes Asociados

Incidente 54546 Reportes
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
NEDA no perdonó el error de Tessa y canceló el chatbot de IA después de la reacción violenta
dataconomy.com · 2023

A partir de ahora, el chatbot de IA de la línea de ayuda para trastornos alimentarios Tessa no responderá a la llamada de nadie después de su error dañino. La Asociación Nacional de Trastornos de la Alimentación cerró el chatbot de IA después de generar críticas en la sociedad. La asociación también ha sido criticada por despedir a cuatro empleados después de que formaron un sindicato.

Después de la decisión de NEDA de eliminar su chatbot de IA, la asociación lo anunció en Instagram y dio más información sobre lo que sucedió detrás de él y por qué tomó tal acción. NEDA dijo que el chatbot de IA "puede haber dado" consejos dañinos a ciertas personas, y el equipo ahora está investigando para ver si pueden solucionar el problema y hacer que el chatbot vuelva a estar en el sitio web.

“Nos llamó la atención anoche que la versión actual de Tessa Chatbot, que ejecuta el programa Body Positivity, puede haber brindado información dañina y no relacionada con el programa. Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”.

Asociación Nacional de Trastornos de la Alimentación

La línea de ayuda para trastornos alimentarios Tessa se lanzó inicialmente para ayudar a las personas

Una activista llamada Sharon Maxwell hizo públicos los problemas con Tessa al afirmar: "Cada cosa que sugirió Tessa fue algo que condujo al desarrollo de mi trastorno alimentario". Después de que Maxwell envió capturas de pantalla del intercambio, los funcionarios de NEDA eliminaron una publicación en las redes sociales en la que previamente habían declarado falsas las acusaciones, según ella.

La activista Sharon Maxwell escribió en Instagram el lunes que Tessa le había brindado "consejos de alimentación saludable" y sugerencias sobre cómo perder peso. El chatbot aconsejó seguir un déficit de 500 a 1000 calorías cada día y pesarse y medirse una vez por semana para controlar su peso.

“Si hubiera accedido a este chatbot cuando estaba en medio de mi trastorno alimentario, NO habría recibido ayuda para mi disfunción eréctil. Si no hubiera recibido ayuda, hoy no estaría vivo. Ya es hora de que NEDA se haga a un lado”.

Sharon Maxwell

La línea de ayuda para trastornos alimentarios Tessa revelada después de la sindicalización


La Asociación Nacional de Trastornos Alimentarios (NEDA, por sus siglas en inglés) eliminó un chatbot de inteligencia artificial llamado "Tessa" tras las acusaciones de que estaba dando consejos dañinos. Sin embargo, no es la única razón detrás de la postura y la ira de la gente contra la asociación. Después de que una gran cantidad de llamadas durante la era de la pandemia provocaron que el personal de la línea directa se sindicalizara y provocara el agotamiento masivo del personal, NEDA lanzó Tessa. Los 200 voluntarios que respondieron llamadas (a menudo múltiples) de aproximadamente 70 000 personas estaban bajo la supervisión de los seis miembros del personal pagados.

NPR fue informado por funcionarios de NEDA que la decisión no estaba relacionada con la sindicalización. En cambio, la vicepresidenta Lauren Smolar afirmó que el grupo se estaba volviendo cada vez más legalmente responsable debido al creciente volumen de llamadas y al predominio de voluntarios en el personal, así como a los tiempos de espera cada vez más prolongados para quienes necesitaban asistencia. Sin embargo, los ex empleados calificaron la acción como claramente antisindical.

Después del despido, NEDA recibió críticas en línea

El desarrollador de Tessa afirma que ChatGPT es más sofisticado que el chatbot que crearon, que fue creado expresamente para NEDA. En cambio, tiene un conjunto de reacciones preprogramadas que pretenden enseñar a los usuarios cómo prevenir problemas de alimentación.

Sin embargo, en un momento en que muchas empresas se apresuran a usar las tecnologías, las críticas subrayan los inconvenientes y peligros existentes de usar chatbots impulsados por IA, particularmente para interacciones sensibles como las relacionadas con la salud mental.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd