Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1170: Chris Cuomo amplifie une vidéo d'Alexandria Ocasio-Cortez, qualifiée de deepfake, qui contribuerait à un récit politique trompeur.

Traduit par IA
Description:
Traduit par IA
Le présentateur de NewsNation, Chris Cuomo, aurait partagé sur Instagram une vidéo d'Alexandria Ocasio-Cortez, clairement présentée comme une parodie deepfake créée grâce à l'IA. Dans son commentaire, Cuomo aurait présenté les propos de la vidéo comme authentiques, les utilisant pour critiquer Ocasio-Cortez auprès de son public.
Editor Notes: This incident ID concerns the amplification of a reportedly AI-generated parody video depicting U.S. Representative Alexandria Ocasio-Cortez, purportedly labeled by its source as created with "ChatGPT + AI Art" (possibly referring to OpenAI's DALL-E image generation, although this has not been independently verified). The original creator and specific AI tools remain unconfirmed. Journalist Chris Cuomo reportedly reposted the video on Instagram without clear verification, thereby increasing its reach and potential for confusion. The harm described here arises less from the alleged creation of the deepfake than from its high-profile amplification, which reportedly resulted in public misperception and reputational harms.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown deepfake technology developer et OpenAI developed an AI system deployed by Unknown creator of Alexandria Ocasio-Cortez parody deepfake et Chris Cuomo, which harmed Chris Cuomo , Alexandria Ocasio-Cortez , General public et Epistemic integrity.
Systèmes d'IA présumés impliqués: Unknown deepfake technology , Instagram , ChatGPT et DALL-E

Statistiques d'incidents

ID
1170
Nombre de rapports
1
Date de l'incident
2025-08-06
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Incident OccurrenceChris Cuomo moqué pour sa réponse après être tombé dans le piège d'une vidéo deepfake d'AOC
Loading...
Chris Cuomo moqué pour sa réponse après être tombé dans le piège d'une vidéo deepfake d'AOC

Chris Cuomo moqué pour sa réponse après être tombé dans le piège d'une vidéo deepfake d'AOC

theguardian.com

Loading...
Chris Cuomo moqué pour sa réponse après être tombé dans le piège d'une vidéo deepfake d'AOC
theguardian.com · 2025
Traduit par IA

Le présentateur de télévision américain Chris Cuomo a été cloué au pilori pour s'être laissé prendre à une vidéo parodique, clairement identifiée, de la députée Alexandria Ocasio-Cortez (https://www.theguardian.com/us-news/alexandria-ocasio…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Biased Google Image Results

Biased Google Image Results

Mar 2016 · 18 rapports
Loading...
Picture of Woman on Side of Bus Shamed for Jaywalking

Picture of Woman on Side of Bus Shamed for Jaywalking

Nov 2018 · 24 rapports
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 24 rapports
Incident précédent

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Biased Google Image Results

Biased Google Image Results

Mar 2016 · 18 rapports
Loading...
Picture of Woman on Side of Bus Shamed for Jaywalking

Picture of Woman on Side of Bus Shamed for Jaywalking

Nov 2018 · 24 rapports
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 24 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • b9764d4