Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3139

Incidentes Asociados

Incidente 54546 Reportes
Chatbot Tessa gives unauthorized diet advice to users seeking help for eating disorders

Loading...
Chatbot de respuesta a trastornos alimentarios desconectado luego de acusaciones de daño
venturebeat.com · 2023

Las organizaciones que buscan complementar o incluso reemplazar a algunos empleados humanos de atención al cliente podrían querer revisar primero la historia de advertencia de la Asociación Nacional de Trastornos Alimentarios (NEDA) que se desarrolló esta semana.

Como The Daily Dot y [Vice](https://www.vice.com/en/article/qjvk97/eating-disorder -helpline-disables-chatbot-for-harmful-responses-after-fireing-human-staff), NEDA había planeado descontinuar su línea telefónica de 20 años, o "[línea de ayuda] (https://www.nationaleatingdisorders .org/blog/would-i-benefit-calling-neda-helpline)”, para aquellos que buscan ayuda con trastornos alimentarios y problemas de imagen corporal. Al mismo tiempo, la organización planeó continuar ofreciendo a los usuarios la oportunidad de interactuar con un “chatbot de bienestar” llamado Tessa, desarrollado por la empresa Cass (anteriormente conocida como X2 AI Inc.) en conexión con investigadores de la Universidad de Washington y lanzado en el sitio web de NEDA en febrero de 2022.

Sin embargo, el personal humano de la línea de ayuda (seis empleados pagados y alrededor de 200 voluntarios, según [Vice](https://www.vice.com/en/article/n7ezkm/eating-disorder-helpline-fires-staff-transitions-to -chatbot-after-sindicalización) — dijo que NEDA planeaba dejarlos ir a todos y reemplazarlos con el chatbot Tessa, luego de la decisión de cuatro miembros del personal de sindicalizarse a principios de este año. El CEO de la organización confirmó a VentureBeat que planeaban cerrar la línea de ayuda, pero dijo que Tessa nunca tuvo la intención de actuar como su reemplazo.

“Hay un poco de confusión, iniciada por informes combinados, de que Tessa está reemplazando nuestra línea de ayuda o que teníamos la intención de que reemplazara la línea de ayuda”, dijo la directora ejecutiva de NEDA, Liz Thompson, a VentureBeat en un correo electrónico. “Eso simplemente no es cierto: un chatbot, incluso un programa muy intuitivo, no puede reemplazar la interacción humana. Teníamos razones comerciales para cerrar la línea de ayuda y habíamos estado en el proceso de esa evaluación durante tres años”.

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos compartirán cómo han integrado y optimizado las inversiones en IA para lograr el éxito y evitar errores comunes.

Una consultora de peso incluido, Sharon Maxwell, publicó en Instagram a principios de esta semana afirmando que había conversado con Tessa y que el chatbot le había dado consejos que podrían causar daño, incluso para dietas restrictivas: un tipo de dieta que busca eliminar ciertos alimentos o grupos de alimentos, o de otra manera limitar estrictamente los tipos y porciones de alimentos que una persona puede comer, y que ha sido [criticado por nutricionistas y otros especialistas en salud y bienestar expertos en los últimos años] (https://www.shape.com/weight-loss/management/why-you-should-stop-restrictive-dieting).

Después de la publicación de Maxwell, NEDA publicó una declaración en su cuenta de Instagram diciendo que la organización sabía de las acusaciones y había "eliminado ese programa [Tessa] hasta aviso adicional para una investigación completa”.

Thompson amplió la declaración en su correo electrónico a VentureBeat y escribió: “Con respecto a los comentarios sobre la pérdida de peso y la limitación de calorías emitidos en un chat el lunes, estamos preocupados y estamos trabajando con el equipo de tecnología y el equipo de investigación para investigar esto más a fondo; ese lenguaje está en contra de nuestras políticas y creencias fundamentales como organización de trastornos alimentarios. Es preocupante porque en un 'producto cerrado', de las 5289 personas que han estado involucradas en interactuar con Tessa, no habíamos visto nada como eso”.

Thompson también dijo que Cass informó de una actividad inusual en el chatbot de Tessa, lo que sugiere que estaba siendo atacado por bots o actores maliciosos. “La semana pasada, Tessa vio un aumento en el tráfico del 600 % y un comportamiento que indicaba varias formas de actividad nefasta de los malos que intentaban engañar a Tessa”, escribió Thompson. “Incluso con la avalancha de estos casos, la 'mensajes fuera de servicio' solo ocurrió el 0,1 % del tiempo de más de 25 000 mensajes. Continuaremos trabajando para asegurarnos de que la tecnología pueda hacer frente a futuros ataques”.

¿Volverá Tessa y, de ser así, cuándo? Thompson no ofreció una estimación de tiempo o un plan definitivo, pero indicó en su correo electrónico a VentureBeat que “seguiremos trabajando en los errores y no relanzaremos hasta que hayamos solucionado todo. Cuando hagamos el lanzamiento, también destacaremos qué es Tessa, qué no es Tessa y cómo maximizar la experiencia del usuario. ¡Manténganse al tanto!"

Con las empresas compitiendo para adoptar herramientas de IA generativa, el 65% de los ejecutivos encuestados por la firma de investigación de mercado KPMG recientemente dijeron que esperaban que la tecnología tuviera un impacto alto o extremadamente alto en sus organizaciones en 3 a 5 años, los responsables de la toma de decisiones de TI harían bien en aprender de la experiencia de NEDA.

Incluso los programas de IA bien intencionados diseñados con aportes de expertos para casos de uso específicos pueden producir respuestas indeseables y potencialmente dañinas, lo que impacta negativamente en los usuarios/clientes de una empresa y en la percepción pública. No está claro si NEDA podría haber evitado o minimizado la controversia que ahora enfrenta al ser más comunicativa o transparente en su toma de decisiones sobre la extinción de la línea de ayuda, pero claramente, tener un chatbot de IA preexistente en la mezcla solo alimentó las acusaciones de que es buscando devaluar y reemplazar el trabajo humano con inteligencia artificial, poniendo a NEDA a la defensiva, donde ahora se encuentra.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd