Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 882: Los resúmenes de lectura generados por IA en la aplicación Fable supuestamente escribieron comentarios sesgados y ofensivos.

Traducido por IA
Descripción:
Traducido por IA
Fable, una aplicación social dedicada a los libros, utilizó la API de OpenAI para generar resúmenes de lectura de fin de año basados en IA en diciembre de 2024. Estos resúmenes presuntamente contenían comentarios sesgados y ofensivos sobre raza, género y orientación sexual. Se dice que Fable se disculpó en una publicación en redes sociales el 1 de enero de 2025.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
 

Entidades

Ver todas las entidades
Alleged: Fable y OpenAI developed an AI system deployed by Fable, which harmed Fable y Fable users.
Sistema de IA presuntamente implicado: OpenAI API used by Fable

Estadísticas de incidentes

ID
882
Cantidad de informes
4
Fecha del Incidente
2024-12-29
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident OccurrenceResumen del lector de Fable sobre racismo (y probablemente inteligencia artificial)+2
Una aplicación de libros utilizó inteligencia artificial para “humillar” a sus usuarios. En lugar de eso, se volvió anti-woke
Resumen del lector de Fable sobre racismo (y probablemente inteligencia artificial)

Resumen del lector de Fable sobre racismo (y probablemente inteligencia artificial)

smartbitchestrashybooks.com

Una aplicación de libros utilizó inteligencia artificial para “humillar” a sus usuarios. En lugar de eso, se volvió anti-woke

Una aplicación de libros utilizó inteligencia artificial para “humillar” a sus usuarios. En lugar de eso, se volvió anti-woke

wired.com

Fable se vio envuelta en una polémica por los resúmenes ofensivos de los lectores de IA. ¿Qué pasó?

Fable se vio envuelta en una polémica por los resúmenes ofensivos de los lectores de IA. ¿Qué pasó?

usatoday.com

Fable, una aplicación de libros, realiza cambios tras mensajes ofensivos de IA

Fable, una aplicación de libros, realiza cambios tras mensajes ofensivos de IA

nytimes.com

Resumen del lector de Fable sobre racismo (y probablemente inteligencia artificial)
smartbitchestrashybooks.com · 2025
Traducido por IA

Hola, feliz año nuevo y siéntate. ¡Puede que haya más líos con la IA en marcha! Ya hemos estado hablando de la proliferación de narradores y autores de IA. ¿Por qué no empezar el año con una nueva basura generativa de IA, esta vez con un ac…

Una aplicación de libros utilizó inteligencia artificial para “humillar” a sus usuarios. En lugar de eso, se volvió anti-woke
wired.com · 2025
Traducido por IA

Fable, una popular aplicación de redes sociales que se describe a sí misma como un paraíso para los “ratones de biblioteca y los que ven libros compulsivamente”, creó una función de resumen de fin de año impulsada por IA que recapitula los …

Fable se vio envuelta en una polémica por los resúmenes ofensivos de los lectores de IA. ¿Qué pasó?
usatoday.com · 2025
Traducido por IA

La aplicación de seguimiento de libros Fable eliminará sus populares funciones de inteligencia artificial después de que la plataforma generara algunos resúmenes de lectores que eran ofensivos para la raza, el género, la sexualidad y la dis…

Fable, una aplicación de libros, realiza cambios tras mensajes ofensivos de IA
nytimes.com · 2025
Traducido por IA

Fable, una popular aplicación para hablar sobre libros y hacer un seguimiento de ellos, está cambiando la forma en que crea resúmenes personalizados para sus usuarios después de las quejas de que un modelo de inteligencia artificial utilizó…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Is Pokémon Go racist? How the app may be redlining communities of color

Is Pokémon Go racist? How the app may be redlining communities of color

Mar 2016 · 8 informes
DALL-E Mini Reportedly Reinforced or Exacerbated Societal Biases in Its Outputs as Gender and Racial Stereotypes

DALL-E Mini Reportedly Reinforced or Exacerbated Societal Biases in Its Outputs as Gender and Racial Stereotypes

Jun 2022 · 4 informes
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

Jul 2019 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Is Pokémon Go racist? How the app may be redlining communities of color

Is Pokémon Go racist? How the app may be redlining communities of color

Mar 2016 · 8 informes
DALL-E Mini Reportedly Reinforced or Exacerbated Societal Biases in Its Outputs as Gender and Racial Stereotypes

DALL-E Mini Reportedly Reinforced or Exacerbated Societal Biases in Its Outputs as Gender and Racial Stereotypes

Jun 2022 · 4 informes
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

Jul 2019 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178