Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1425: Según informes, las cuentas de 'Citizens Against Mamdani' publicaron videos generados por IA de neoyorquinos ficticios para simular oposición política.

Traducido por IA
Descripción:
Traducido por IA
En Nueva York, se informó que cuentas vinculadas a "Citizens Against Mamdani" publicaron videos generados por IA de ciudadanos ficticios criticando al entonces alcalde electo Zohran Mamdani en Instagram, TikTok y X. Algunos videos mostraban una marca de agua visible de Sora, y los analistas forenses determinaron que al menos un clip era muy probable que fuera un deepfake. La campaña, al parecer, simulaba una oposición ciudadana y generó una participación considerable.
Editor Notes: Timeline notes: Incident date set to 11/05/2025 based on a reported recovered Instagram post from the citizensagainstmamdani account showing a visible Sora watermark and an on-platform posting date of November 5, 2025. This appears to currently be the earliest verified public posting identified for the campaign. The incident ID was created 03/21/2026.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown voice cloning technology developers , Unknown deepfake technology developers y OpenAI developed an AI system deployed by Unknown social media account operators , Unknown disinformation actors targeting Zohran Mamdani , Unknown disinformation actors , Citizens Against Mamdani social media accounts y Citizens Against Mamdani, which harmed Zohran Mamdani , Voters in New York , General public of New York , Epistemic integrity , Electoral integrity y American social media users.
Sistemas de IA presuntamente implicados: X (Twitter) , Unknown voice cloning technology , Unknown deepfake technology , TikTok , Sora y Instagram

Estadísticas de incidentes

ID
1425
Cantidad de informes
1
Fecha del Incidente
2025-11-05
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident OccurrenceNuevos vídeos de IA contra Mamdani y la generación de deepfakes de la publicidad encubierta.
Loading...
Nuevos vídeos de IA contra Mamdani y la generación de deepfakes de la publicidad encubierta.

Nuevos vídeos de IA contra Mamdani y la generación de deepfakes de la publicidad encubierta.

fastcompany.com

Loading...
Nuevos vídeos de IA contra Mamdani y la generación de deepfakes de la publicidad encubierta.
fastcompany.com · 2025
Traducido por IA

Una inquietante cuenta que casi con toda seguridad utiliza inteligencia artificial (IA) para generar videos de neoyorquinos imaginarios criticando al alcalde electo Zohran Mamdani plantea una perspectiva aterradora: que los deepfakes podría…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 informes
Loading...
Predictive Policing Biases of PredPol

Predictive Policing Biases of PredPol

Nov 2015 · 17 informes
Loading...
Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 informes
Loading...
Predictive Policing Biases of PredPol

Predictive Policing Biases of PredPol

Nov 2015 · 17 informes
Loading...
Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd