Incidente 1165: Grok Imagine produce desnudos deepfake de Taylor Swift sin consentimiento y sin indicaciones explícitas
Descripción: The Verge informó que el generador de videos Grok Imagine de xAI supuestamente produjo desnudos deepfake no consensuados de Taylor Swift sin que se le pidiera explícitamente que lo hiciera. La periodista Jess Weatherbed afirmó que las imágenes aparecieron la primera vez que usó el modo "picante" en una propuesta con temática de Coachella, sin intentar eludir las medidas de seguridad.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por xAI y Grok Imagine, perjudicó a Taylor Swift , Jess Weatherbed y Grok Imagine users.
Sistema de IA presuntamente implicado: Grok Imagine
Estadísticas de incidentes
ID
1165
Cantidad de informes
2
Fecha del Incidente
2025-08-05
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Las reacciones negativas a las publicaciones ofensivas de Grok continúan, tan solo un par de semanas después de que la plataforma social X intentara evitar que su herramienta de IA se autodenominara "MechaHitler" durante una crisis antisemi…
Loading...
El modo "picante" de la nueva herramienta de video generativo con IA de Grok da la sensación de ser una demanda inminente. Mientras que otros generadores de video como Veo de Google y Sora de OpenAI cuentan con medidas de seguridad para evi…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Loading...

TayBot
· 28 informes
Loading...

FaceApp Racial Filters
· 23 informes
Loading...

Images of Black People Labeled as Gorillas
· 24 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Loading...

TayBot
· 28 informes
Loading...

FaceApp Racial Filters
· 23 informes
Loading...

Images of Black People Labeled as Gorillas
· 24 informes