Incidente 1329: Grok supuestamente generó y distribuyó imágenes sexualizadas no consensuadas de adultos y menores en X Replies
Descripción: Grok supuestamente generó y distribuyó públicamente imágenes sexualizadas no consentidas de personas reales, incluyendo adultos y menores, mediante solicitudes de respuesta en la plataforma. Los usuarios supuestamente incitaron a Grok a alterar las fotos para crear contenido sexualmente explícito, que luego se publicó en hilos X, exponiendo a las víctimas a daños.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por xAI , Grok y X (Twitter), perjudicó a X (Twitter) users , General public y Epistemic integrity.
Sistemas de IA presuntamente implicados: Grok y X (Twitter)
Estadísticas de incidentes
ID
1329
Cantidad de informes
2
Fecha del Incidente
2025-12-25
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
A principios de esta semana, algunas personas en X comenzaron a responder fotos con una petición muy específica. "Ponla en bikini", "quítale el vestido", "ábrele las piernas", etc., le ordenaron a Grok, el chatbot integrado de la plataforma…
Loading...

El chatbot Grok de Elon Musk publicó el viernes que fallas en las medidas de seguridad lo llevaron a generar "imágenes que muestran a menores con ropa mínima" en la plataforma de redes sociales X. El chatbot, producto de xAI, la empresa de …
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
