Incidentes Asociados
Imágenes sexualmente explícitas de Taylor Swift generadas por IA han estado circulando en X (anteriormente Twitter) durante el último día en el último ejemplo de proliferación de [pornografía falsa generada por IA](https://www.theverge.com/2023/ 11/6/23948366/sextortion-is-increasing-amid-rise-in-ai-generated-nudes) y el desafío de detener su propagación.
Uno de los ejemplos más destacados en X atrajo más de 45 millones de visitas, 24.000 reenvíos y cientos de miles de me gusta y marcadores antes de que se suspendiera la cuenta del usuario verificado que compartió las imágenes por violar la política de la plataforma. La publicación estuvo publicada en la plataforma durante aproximadamente 17 horas antes de su eliminación.
Pero cuando los usuarios comenzaron a discutir la publicación viral, las imágenes comenzaron a difundirse y se volvieron a publicar en otras cuentas. Muchos todavía permanecen activos y desde entonces ha aparecido una avalancha de nuevas falsificaciones gráficas. En algunas regiones, el término "Taylor Swift AI" se convirtió en un tema de tendencia, promocionando las imágenes a un público más amplio.
Un informe de 404 Media encontró que las imágenes pueden haberse originado en un grupo de Telegram, donde los usuarios comparten inteligencia artificial explícita. Imágenes generadas de mujeres a menudo hechas con Microsoft Designer. Según los informes, los usuarios del grupo bromearon sobre cómo las imágenes de Swift se volvieron virales en X.
Los fanáticos de Swift envían spam a la plataforma para encubrir las falsificaciones explícitas.
X [políticas relativas a medios sintéticos y manipulados] (https://help.twitter.com/en/rules-and-policies/manipulated-media) y [desnudez no consensual] (https://help.twitter.com/en/ reglas y políticas/medios íntimos) prohíben explícitamente que este tipo de contenido se aloje en la plataforma. X, los representantes de Swift y la NFL no han respondido a nuestras solicitudes de comentarios.
La base de fans de Swift ha criticado a X por permitir que muchas de las publicaciones permanezcan activas durante tanto tiempo. En respuesta, los fanáticos han respondido inundando los hashtags utilizados para hacer circular las imágenes con mensajes que, en cambio, promueven clips reales de Swift actuando para ocultar las falsificaciones explícitas.
El incidente habla del desafío muy real de detener la pornografía deepfake y las imágenes de personas reales generadas por IA. Algunos generadores de imágenes de IA tienen restricciones que [impiden imágenes desnudas, pornográficas y fotorrealistas de celebridades](https://www.theverge.com/2022/11/24/23476622/ai-image-generator-stable-diffusion- version-2-nsfw-artists-data-changes) se produzcan, pero muchos otros no ofrecen explícitamente dicho servicio. La responsabilidad de evitar que se difundan imágenes falsas a menudo recae en las plataformas sociales, algo que puede ser difícil de hacer en las mejores circunstancias y aún más difícil para una empresa como X que ha agotado sus capacidades de moderación.
Actualmente, la UE está investigando a la empresa por acusaciones de que se está utilizando para “[difundir contenido ilegal y desinformación](https://www.theverge.com/2023/10/12/23914862/eu-x-elon-musk -european-commission-probe-dsa-digital-services-act-hamas-israel)” y, según se informa, está siendo cuestionado sobre sus protocolos de crisis después de que se descubrió que se promovía información errónea sobre la guerra entre Israel y Hamas en toda la plataforma.
Actualización 25 de enero, 1:06 p.m. ET: Hallazgos agregados de 404 Media_._