Incidentes Asociados
Una plataforma que promete "chats eróticos con IA" expuso al público casi dos millones de imágenes y vídeos, muchos de ellos de ciudadanos particulares, según informó 404 Media.
Secret Desires, un chatbot erótico y generador de imágenes con IA, expuso al público contenedores de almacenamiento en la nube que contenían fotos, nombres de mujeres y otra información personal, como lugares de trabajo y universidades, según 404 Media.
Esta "filtración masiva" es el caso más reciente de personas que utilizan herramientas de IA generativa para convertir fotos inocentes en deepfakes explícitos y no consensuados.
Algunas fotos y vídeos fueron tomados de influencers reales, figuras públicas y mujeres no famosas. Esta última categoría incluye capturas de pantalla de Snapchat y al menos una foto de un anuario. Algunos de los medios expuestos incluían imágenes de IA generadas por usuarios, como las creadas con la función de "cambio de caras", ahora obsoleta, que Secret Desires eliminó a principios de este año.
Al igual que Character.AI o Replika, Secret Desires permite a los usuarios crear personajes de IA y chatear con ellos. Si bien el contenido pornográfico no está permitido en Character.AI (y solo está permitido para ciertos usuarios de Replika), Secret Desires afirma que "ofrece intimidad y conexión ilimitadas" en su Guía de inicio rápido.
Como descubrió 404 Media, el contenido multimedia generado por IA encontrado en los contenedores de almacenamiento vulnerables era mayoritariamente explícito. Algunos nombres de archivo incluían términos como "17 años".
La empresa no respondió a la solicitud de comentarios de 404 Media, pero los archivos se volvieron inaccesibles aproximadamente una hora después de que la publicación se pusiera en contacto.
Durante años, mujeres y niñas han sido víctimas de deepfakes explícitos (https://mashable.com/article/explicit-deepfake-mental-health-recovery), que consisten en contenido generado por IA. Muchos deepfakes consisten en imágenes de mujeres "intercambiadas" en vídeos pornográficos. Esto aplica tanto a celebridades como Taylor Swift (https://mashable.com/article/taylor-swift-viral-deepfake-porn-explainer), como a mujeres que no son famosas. Esto también les sucede a las niñas, que crean material de abuso sexual infantil en línea (https://mashable.com/article/ai-child-sex-abuse-materials-dark-web-apple).
Este año, el Congreso aprobó la ley Take It Down Act para combatir las imágenes deepfake. La ley resultó controvertida, ya que varios grupos de defensa de la libertad de expresión afirman que puede utilizarse como arma contra material explícito consensuado o discurso político.