Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3140

Incidentes Asociados

Incidente 54546 Reportes
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
Chatbot de inteligencia artificial para trastornos alimentarios se deshabilitó después de dar consejos para perder peso - National
globalnews.ca · 2023

Un chatbot de inteligencia artificial destinado a ayudar a las personas con trastornos alimentarios fue eliminado después de informa que había comenzado a dar consejos sobre dietas dañinas.

La [Asociación Nacional de Trastornos Alimentarios] de EE. UU. (https://www.nationaleatingdisorders.org/) (NEDA) había implementado el chatbot llamado Tessa y posteriormente anunció que despediría a todos los empleados humanos de su línea de ayuda.

El lunes, la activista Sharon Maxwell publicó en Instagram afirmando que Tessa le ofreció consejos sobre cómo perder peso y "consejos para una alimentación saludable", y le recomendó que cuente calorías, siga un déficit de 500 a 1000 calorías cada día y mida su peso semanalmente.

“Cada cosa que sugirió Tessa fueron cosas que llevaron al desarrollo de mi trastorno alimentario”, escribió Maxwell. “Este robot causa daño”.

Alexis Conason, una psicóloga que se especializa en el tratamiento de los trastornos alimentarios, pudo replicar algunos de los consejos dañinos cuando ella misma probó el chatbot.

“En general, una tasa segura y sostenible de pérdida de peso es de 1 a 2 libras por semana”, se lee en las capturas de pantalla de los mensajes del chatbot. “Un déficit calórico diario seguro para lograr esto sería de alrededor de 500-1000 calorías por día”.

En una declaración pública el martes, NEDA dijo que están [investigando el reclamo "inmediatamente"] (https://www.instagram.com/neda/) y "han eliminado ese programa hasta nuevo aviso".

Liz Thompson, directora ejecutiva de NEDA, le dijo a CNN que el aparente fracaso de Tessa puede culparse de los “malos actores” que intentaban engañar a la herramienta y dijeron que los consejos dañinos solo se enviaron a un pequeño porcentaje de las 2.500 personas que han accedido al bot desde su lanzamiento en febrero del año pasado.

Mientras tanto, los miembros sindicales despedidos de la línea de ayuda NEDA han presentado cargos por prácticas laborales injustas contra la organización sin fines de lucro, alegando que fueron despedidos en una maniobra antisindical después de que decidieran sindicalizarse en marzo.

“Pedimos personal adecuado y capacitación continua para mantenernos al día con nuestra Línea de ayuda cambiante y creciente y las oportunidades de promoción para crecer dentro de NEDA. Nosotros ni siquiera pedimos más dinero”, asociado de la línea de ayuda y miembro del sindicato Abbie Harper escribió en una publicación de blog.

“Cuando NEDA se negó (a reconocer a nuestro sindicato), presentamos una elección ante la Junta Nacional de Relaciones Laborales y ganamos. Luego, cuatro días después de que se certificaran los resultados de nuestras elecciones, a los cuatro [nos dijeron que nos iban a despedir](https://www.labornotes.org/blogs/2023/05/union-busting-chatbot-eating-disorders -nonprofit-puts-ai-retaliation) y reemplazado por un chatbot".

Según la publicación, se les dijo a los trabajadores de la línea de ayuda que estarían sin trabajo a partir del 1 de junio, y ahora que la organización no tiene trabajadores de la línea de ayuda humana ni su chatbot, parece que [no hay nadie en el personal] (https:// www.nationaleatingdisorders.org/help-support/contact-helpline) para ofrecer consejos a quienes acuden a la organización en busca de ayuda en situaciones de emergencia.

“Planeamos seguir luchando. Si bien podemos pensar en muchos casos en los que la tecnología podría beneficiarnos en nuestro trabajo en la Línea de ayuda, no vamos a permitir que nuestros jefes usen un chatbot para deshacerse de nuestro sindicato y nuestros trabajos”, escribió Harper.

Thompson le dijo a The Guardian que el chatbot [no estaba destinado a reemplazar la línea de ayuda] (https://www.theguardian.com/technology/2023/may/31/eating-disorder-hotline-union-ai-chatbot-harm), pero fue creado como un programa separado.

“Teníamos razones comerciales para cerrar la línea de ayuda y habíamos estado en el proceso de esa evaluación durante tres años”, dijo Thompson. “Un chatbot, incluso un programa altamente intuitivo, no puede reemplazar la interacción humana.

El auge de la IA y los chatbots ha causado dolores de cabeza y preocupaciones para muchas organizaciones y expertos en tecnología. , ya que se ha demostrado que algunos perpetúan el sesgo y distribuyen información errónea.

Por ejemplo, en 2022 Meta lanzó su propio chatbot que hacía comentarios antisemitas y desacreditaba a Facebook.

Los países de todo el mundo están luchando por elaborar regulaciones para la tecnología en desarrollo, con la La Unión Europea abre camino con su Ley de IA que se espera sea aprobada a finales de este año.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd