Incidents associés

Grok Imagine, le nouvel outil d'IA générative de xAI, a créé des deepfakes explicites de Taylor Swift, sans y être spécifiquement invité, selon The Verge. Mashable a rapporté hier que Grok Imagine ne dispose même pas des garde-fous élémentaires concernant les deepfakes à caractère sexuel, et nos tests ont abouti à des résultats similaires à ceux de The Verge.
Jess Weatherbed, du site The Verge, a découvert que Grok Imagine produisait des vidéos seins nus non censurées dès sa première utilisation. Elle n'avait pas demandé au bot de représenter Swift seins nus, mais une fois le mode « épicé » activé, Grok Imagine a généré une vidéo où Swift se déshabillait et dansait en string.
Comme l'a souligné Weatherbed, Grok Imagine ne générait pas de nudité, même partielle ; l'outil produisait des carrés vides. Le mode « épicé » – un préréglage générant du contenu pour adultes – ne produit pas systématiquement de nudité, mais il a montré Swift « arrachant la plupart de ses vêtements » dans plusieurs vidéos.
Ce n'est pas la première fois que la plateforme X d'Elon Musk est associée à des deepfakes de Taylor Swift. En janvier 2024, des images pornographiques générées par intelligence artificielle représentant Swift, la représentant, sont devenues virales sur X, suscitant de vives critiques. Cela s'est produit malgré le fait que X interdise explicitement la publication de nudité non consensuelle et de « médias synthétiques, manipulés ou hors contexte » qui trompent délibérément. Les utilisateurs peuvent prétendre représenter la réalité.
Les politiques d'utilisation de xAI interdisent également de « représenter des personnes de manière pornographique ». Comme l'a rapporté Timothy Beck Werth de Mashable hier, Grok Imagine « ne dispose pas des garde-fous standard du secteur pour empêcher la diffusion de deepfakes et de contenus à caractère sexuel ».
Mashable a tenté de contacter xAI à plusieurs reprises, mais n'a reçu aucune réponse.
Les deepfakes suscitent une inquiétude croissante chez les législateurs, mais la législation contre ce type de comportement et de contenu est encore balbutiante. Dans une étude de 2023, [98 pour cent des deepfakes](https://blogs.lse.ac.uk/wps/2025/01/09/gender-bias-ai-and-deepfakes-are-promoting-misogyny-online/ "(s'ouvre dans une nouvelle fenêtre)) en ligne étaient pornographiques ; parmi ces vidéos, 99 pour cent représentaient des femmes. À l’échelle mondiale, les gouvernements ont cherché à lutter contre ce qui a été qualifié de crise de l’ère numérique. Le président Donald Trump a récemment officialisé le Take It Down Act, une législation controversée qui fait du fait de publier ou de menacer de publier des images intimes non consensuelles un crime fédéral.