Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3133

Incidentes Asociados

Incidente 54546 Reportes
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
Chatbot da 'consejos dañinos' sobre el trastorno alimentario, ordena que se elimine
wionews.com · 2023

Un chatbot de inteligencia artificial llamado "Tessa" ha sido retirado por la Asociación Nacional de Trastornos de la Alimentación (Neda) tras las acusaciones de que estaba dando consejos perjudiciales.

Después de despedir a cuatro empleados que trabajaban para su línea directa y habían organizado un sindicato en marzo, Neda ha sido objeto de escrutinio. A través de la línea directa, los clientes podían llamar, enviar un mensaje de texto o enviar mensajes a voluntarios que brindaban recursos y asistencia a quienes estaban preocupados por los trastornos alimentarios.

Los miembros de Helpline Associates United afirman que días después de que se validara su elección sindical, fueron despedidos. La Junta Nacional de Relaciones Laborales ha recibido quejas del sindicato sobre prácticas laborales injustas, según informa The Guardian.

La activista Sharon Maxwell escribió en Instagram el lunes que Tessa le había brindado "consejos de alimentación saludable" y sugerencias sobre cómo adelgazar. El chatbot aconsejó seguir un déficit de 500 a 1000 calorías cada día y pesarse y medirse una vez por semana para controlar su peso.

“Si hubiera accedido a este chatbot cuando estaba en medio de mi trastorno alimentario, NO habría recibido ayuda para mi disfunción eréctil. Si no hubiera recibido ayuda, hoy no estaría vivo”, escribió Maxwell.

Según Neda, aquellos que restringen moderadamente sus alimentos tienen un riesgo cinco veces mayor de desarrollar un trastorno alimentario, pero las personas que restringen severamente su dieta tienen un riesgo 18 veces mayor.

“Anoche nos llamó la atención que la versión actual de Tessa Chatbot, que ejecuta el programa Body Positivity, puede haber brindado información dañina y no relacionada con el programa”, dijo Neda en un comunicado público el martes.

“Estamos investigando esto de inmediato y hemos eliminado ese programa hasta nuevo aviso para una investigación completa”, agregó.

La ex miembro del personal de la línea de ayuda, Abbie Harper, afirmó en una publicación de blog del 4 de mayo que la cantidad de llamadas y mensajes recibidos por la línea directa había aumentado en un 107 por ciento desde el inicio de la pandemia. El número de informes de autolesiones, maltrato infantil e ideación suicida casi se cuadriplicó. Según Harper, el sindicato "pidió personal adecuado y capacitación continua para mantenerse al día con las necesidades de la línea directa".

También mira | "IA para impactar todos los sectores en la India", dice el profesor B Ravindran en una conversación con WION

“Ni siquiera pedimos más dinero”, escribió Harper. “Algunos de nosotros nos hemos recuperado personalmente de trastornos alimentarios y aportamos esa invaluable experiencia a nuestro trabajo. Todos llegamos a este trabajo debido a nuestra pasión por los trastornos alimentarios y la defensa de la salud mental y nuestro deseo de marcar la diferencia”.

El chatbot se desarrolló como un programa distinto en lugar de reemplazar la línea directa, según Liz Thompson, directora ejecutiva de Neda, en un comunicado a The Guardian. El chatbot no es administrado por ChatGPT y "no es un sistema de inteligencia artificial altamente funcional", según Thompson.

“Teníamos razones comerciales para cerrar la línea de ayuda y habíamos estado en el proceso de esa evaluación durante tres años”, dijo Thompson a The Guardian.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd