Incident 1170: Chris Cuomo amplifie une vidéo d'Alexandria Ocasio-Cortez, qualifiée de deepfake, qui contribuerait à un récit politique trompeur.
Description: Le présentateur de NewsNation, Chris Cuomo, aurait partagé sur Instagram une vidéo d'Alexandria Ocasio-Cortez, clairement présentée comme une parodie deepfake créée grâce à l'IA. Dans son commentaire, Cuomo aurait présenté les propos de la vidéo comme authentiques, les utilisant pour critiquer Ocasio-Cortez auprès de son public.
Editor Notes: This incident ID concerns the amplification of a reportedly AI-generated parody video depicting U.S. Representative Alexandria Ocasio-Cortez, purportedly labeled by its source as created with "ChatGPT + AI Art" (possibly referring to OpenAI's DALL-E image generation, although this has not been independently verified). The original creator and specific AI tools remain unconfirmed. Journalist Chris Cuomo reportedly reposted the video on Instagram without clear verification, thereby increasing its reach and potential for confusion. The harm described here arises less from the alleged creation of the deepfake than from its high-profile amplification, which reportedly resulted in public misperception and reputational harms.
Entités
Voir toutes les entitésAlleged: Unknown deepfake technology developer et OpenAI developed an AI system deployed by Unknown creator of Alexandria Ocasio-Cortez parody deepfake et Chris Cuomo, which harmed Chris Cuomo , Alexandria Ocasio-Cortez , General public et Epistemic integrity.
Statistiques d'incidents
ID
1170
Nombre de rapports
1
Date de l'incident
2025-08-06
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...

Le présentateur de télévision américain Chris Cuomo a été cloué au pilori pour s'être laissé prendre à une vidéo parodique, clairement identifiée, de la députée Alexandria Ocasio-Cortez (https://www.theguardian.com/us-news/alexandria-ocasio…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Loading...

Biased Google Image Results
· 18 rapports
Loading...

Images of Black People Labeled as Gorillas
· 24 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Loading...

Biased Google Image Results
· 18 rapports
Loading...

Images of Black People Labeled as Gorillas
· 24 rapports