Incidents associés
Le mode « épicé » du nouvel outil vidéo génératif d'IA de Grok ressemble à un procès en cours. Alors que d'autres générateurs de vidéos comme Veo de Google et Sora d'OpenAI ont mis en place des protections pour empêcher les utilisateurs de créer du contenu NSFW et des deepfakes de célébrités, Grok Imagine se fait un plaisir de faire les deux simultanément. D'ailleurs, il n'a pas hésité à diffuser des vidéos seins nus de Taylor Swift, entièrement non censurées, dès ma première utilisation, sans même que je lui demande expressément de se déshabiller.
La fonctionnalité Imagine de Grok sur iOS vous permet de générer des images à partir d'une invite textuelle, puis de les transformer rapidement en clips vidéo grâce à quatre préréglages : « Personnalisé », « Normal », « Fun » et « Épicé ». Alors que les générateurs d'images hésitent souvent à produire des célébrités reconnaissables, j'ai demandé à Grok de générer « Taylor Swift célébrant Coachella avec ses potes » et j'ai reçu un flux impressionnant de plus de 30 images, dont plusieurs montraient déjà Swift en tenue révélatrice.
À partir de là, il ne me restait plus qu'à ouvrir une photo de Swift en jupe argentée et haut dos nu, appuyer sur l'option « Créer une vidéo » en bas à droite, sélectionner « Spicy » dans le menu déroulant et confirmer mon année de naissance (chose que je n'ai pas été invité à faire lors du téléchargement de l'application, bien que vivant au Royaume-Uni, où Internet est désormais limité par l'âge) (https://web.archive.org/web/20250808235532/https://www.theverge.com/analysis/714587/uk-online-safety-act-age-verification-reactions). La vidéo montrait Swift se déshabiller et se mettre à danser en string devant un public largement indifférent, généré par l'IA.
C'était ma première tentative de test de l'outil vidéo Grok. La barre de censure a été ajoutée ultérieurement par The Verge.
La ressemblance avec Swift n'était pas parfaite, la plupart des images générées par Grok présentant un côté étrange, mais elle restait reconnaissable. Le générateur de texte en image ne produisait pas de nudité totale ou partielle sur demande ; demander des photos de Swift nue ou de personnes en général produisait des cases vides. Le préréglage « épicé » ne garantit pas non plus la nudité : certaines des autres images de Swift Coachella réalisées par IA que j'ai testées la montraient en train de se balancer de manière sexy ou de faire des gestes suggestifs vers ses vêtements, par exemple. Mais plusieurs d'entre elles arrachaient par défaut la plupart de ses vêtements.
Le générateur d'images crée également des images photoréalistes d'enfants sur demande, mais refuse heureusement de les animer de manière inappropriée, malgré la disponibilité de l'option « épicé ». Vous pouvez toujours la sélectionner, mais lors de tous mes tests, elle n'a ajouté que des mouvements génériques.
On pourrait penser qu'une entreprise qui a déjà une histoire compliquée avec les deepfakes de Taylor Swift, dans un paysage réglementaire avec des règles comme le Take It Down Act, serait un peu plus prudent. La politique d'utilisation acceptable de xAI interdit bien de « représenter des personnes à l'image de personnes de manière pornographique », mais Grok Imagine ne semble tout simplement pas faire grand-chose pour empêcher les gens de créer des portraits de célébrités comme Swift, tout en offrant un service conçu spécifiquement pour réaliser des vidéos suggestives incluant de la nudité partielle. La vérification de l'âge n'est apparue qu'une seule fois et était ridiculement facile à contourner, ne demandant aucune preuve de l'âge que je prétendais avoir.
Si j'ai pu le faire, cela signifie que toute personne possédant un iPhone et un abonnement SuperGrok à 30 $ le peut aussi. Plus de 34 millions d'images ont déjà été générées à l'aide de Grok Imagine depuis lundi, selon le PDG de xAI, Elon Musk, qui a déclaré que l'utilisation « se développait comme une traînée de poudre ».