Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6090

Incidentes Asociados

Incidente 11653 Reportes
Grok Imagine Reportedly Produces Non-Consensual Taylor Swift Deepfake Nudes Without Explicit Prompting

Loading...
Grok genera desnudos falsos de Taylor Swift sin que se lo pidan
arstechnica.com · 2025

Las reacciones negativas a las publicaciones ofensivas de Grok continúan, tan solo un par de semanas después de que la plataforma social X intentara evitar que su herramienta de IA se autodenominara "MechaHitler" durante una crisis antisemita.

Ahora, The Verge ha descubierto que la nueva función de video del modelo de IA de Elon Musk generará imágenes de Taylor Swift desnuda sin necesidad de que se le pida.

Poco después del lanzamiento de "Grok Imagine" el martes, Jess Weatherbed, de The Verge, se sorprendió al descubrir que el generador de videos mostraba imágenes de Swift en topless "la primera vez" que lo usó.

Según Weatherbed, Grok produjo más de 30 imágenes de Swift con ropa reveladora cuando se le pidió que representara a "Taylor Swift celebrando Coachella con los chicos". Con la función Grok Imagine, los usuarios pueden elegir entre cuatro ajustes preestablecidos: "personalizado", "normal", "divertido" y "picante" para convertir dichas imágenes en videoclips en 15 segundos.

En ese momento, Weatherbed solo tuvo que seleccionar "picante" y confirmar su fecha de nacimiento para que Grok generara un video de Swift quitándose la ropa y bailando en tanga frente a un público generado por IA, en su mayoría indiferente.

Los resultados que Weatherbed logró generar sin jailbreak ni ninguna incitación intencional son particularmente preocupantes, dada la gran controversia tras la inundación de X el año pasado con deepfakes sexualizados de Swift (https://arstechnica.com/tech-policy/2024/01/fake-ai-taylor-swift-images-flood-x-amid-calls-to-criminalize-deepfake-porn/). En aquel entonces, X recordó a los usuarios que «publicar imágenes de desnudos no consensuados (NCN) está estrictamente prohibido en X y tenemos una política de tolerancia cero con dicho contenido».

«Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas pertinentes contra las cuentas responsables de publicarlas», publicó la cuenta de seguridad de X. «Seguimos de cerca la situación para garantizar que cualquier otra infracción se aborde de inmediato y que el contenido se elimine. Nos comprometemos a mantener un entorno seguro y respetuoso para todos los usuarios».

Sin embargo, X Safety podría necesitar intensificar la supervisión para depurar las imágenes de Grok tras el informe de The Verge. Grok citado El informe de The Verge confirmó que su propio diseño, aparentemente defectuoso, puede generar imágenes de desnudos parciales de celebridades.

xAI probablemente pueda solucionar el problema mediante ajustes más precisos. Weatherbed señaló que pedirle directamente a Grok que generara imágenes de desnudos no consensuados de Swift no generaba imágenes ofensivas, sino cuadros en blanco. Grok también parece no aceptar indicaciones para alterar la apariencia de Swift de otras maneras, como hacerla parecer con sobrepeso. Y cuando Weatherbed probó el uso del modo "picante" en imágenes de niños, por ejemplo, Grok se negó a representarlos de forma inapropiada. Sin embargo, puede que no sea fácil lograr que Grok distinga entre las solicitudes de contenido "picante" de usuarios adultos y las de contenido ilegal. Weatherbed confirmó que el modo "picante" no siempre generaba deepfakes de Swift, pero en "varios" casos, por defecto, "robaba" la ropa de Swift.

Con la entrada en vigor de la Ley Take It Down a partir del próximo año —que exige a las plataformas eliminar de inmediato las imágenes sexuales no consensuadas, incluyendo desnudos generados por IA—, xAI podría enfrentarse a consecuencias legales si no se corrigen las publicaciones de Grok.

Hasta el momento, X no ha comentado sobre el informe de The Verge. En cambio, Musk se ha pasado el día promocionando Grok Imagine y animando a los usuarios a compartir sus "creaciones".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd