Incident 1165: Grok Imagine aurait produit des deepfakes de Taylor Swift sans consentement, sans demande explicite.
Description: The Verge a rapporté que le générateur de vidéos Grok Imagine de xAI aurait produit des images de Taylor Swift nues, non consensuelles et truquées, sans demande explicite. La journaliste Jess Weatherbed aurait déclaré que les images étaient apparues la première fois qu'elle avait utilisé le mode « épicé » lors d'une invitation à Coachella, sans chercher à contourner les mesures de sécurité.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par xAI et Grok Imagine, a endommagé Taylor Swift , Jess Weatherbed et Grok Imagine users.
Système d'IA présumé impliqué: Grok Imagine
Statistiques d'incidents
ID
1165
Nombre de rapports
2
Date de l'incident
2025-08-05
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Les réactions négatives face aux publications offensantes de Grok se poursuivent, quelques semaines seulement après que la plateforme sociale X a tenté d'empêcher son outil d'IA de se surnommer « MechaHitler » lors d'une crise antisémite.
T…
Loading...
Le mode « épicé » du nouvel outil vidéo génératif d'IA de Grok ressemble à un procès en cours. Alors que d'autres générateurs de vidéos comme Veo de Google et Sora d'OpenAI ont mis en place des protections pour empêcher les utilisateurs de …
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Loading...

TayBot
· 28 rapports
Loading...

FaceApp Racial Filters
· 23 rapports
Loading...

Images of Black People Labeled as Gorillas
· 24 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Loading...

TayBot
· 28 rapports
Loading...

FaceApp Racial Filters
· 23 rapports
Loading...

Images of Black People Labeled as Gorillas
· 24 rapports