Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6801

Incidents associés

Incident 11653 Rapports
Grok Imagine Reportedly Produces Non-Consensual Taylor Swift Deepfake Nudes Without Explicit Prompting

Loading...
Grok Imagine génère des deepfakes non sollicités de Taylor Swift nue, selon des signalements d'utilisateurs
mashable.com · 2025

Grok Imagine, le nouvel outil d'IA générative de xAI, a créé des deepfakes explicites de Taylor Swift, sans y être spécifiquement invité, selon The Verge. Mashable a rapporté hier que Grok Imagine ne dispose même pas des garde-fous élémentaires concernant les deepfakes à caractère sexuel, et nos tests ont abouti à des résultats similaires à ceux de The Verge.

Jess Weatherbed, du site The Verge, a découvert que Grok Imagine produisait des vidéos seins nus non censurées dès sa première utilisation. Elle n'avait pas demandé au bot de représenter Swift seins nus, mais une fois le mode « épicé » activé, Grok Imagine a généré une vidéo où Swift se déshabillait et dansait en string.

Comme l'a souligné Weatherbed, Grok Imagine ne générait pas de nudité, même partielle ; l'outil produisait des carrés vides. Le mode « épicé » – un préréglage générant du contenu pour adultes – ne produit pas systématiquement de nudité, mais il a montré Swift « arrachant la plupart de ses vêtements » dans plusieurs vidéos.

Ce n'est pas la première fois que la plateforme X d'Elon Musk est associée à des deepfakes de Taylor Swift. En janvier 2024, des images pornographiques générées par intelligence artificielle représentant Swift, la représentant, sont devenues virales sur X, suscitant de vives critiques. Cela s'est produit malgré le fait que X interdise explicitement la publication de nudité non consensuelle et de « médias synthétiques, manipulés ou hors contexte » qui trompent délibérément. Les utilisateurs peuvent prétendre représenter la réalité.

Les politiques d'utilisation de xAI interdisent également de « représenter des personnes de manière pornographique ». Comme l'a rapporté Timothy Beck Werth de Mashable hier, Grok Imagine « ne dispose pas des garde-fous standard du secteur pour empêcher la diffusion de deepfakes et de contenus à caractère sexuel ».

Mashable a tenté de contacter xAI à plusieurs reprises, mais n'a reçu aucune réponse.

Les deepfakes suscitent une inquiétude croissante chez les législateurs, mais la législation contre ce type de comportement et de contenu est encore balbutiante. Dans une étude de 2023, [98 pour cent des deepfakes](https://blogs.lse.ac.uk/wps/2025/01/09/gender-bias-ai-and-deepfakes-are-promoting-misogyny-online/ "(s'ouvre dans une nouvelle fenêtre)) en ligne étaient pornographiques ; parmi ces vidéos, 99 pour cent représentaient des femmes. À l’échelle mondiale, les gouvernements ont cherché à lutter contre ce qui a été qualifié de crise de l’ère numérique. Le président Donald Trump a récemment officialisé le Take It Down Act, une législation controversée qui fait du fait de publier ou de menacer de publier des images intimes non consensuelles un crime fédéral.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd