Incidente 1425: Según informes, las cuentas de 'Citizens Against Mamdani' publicaron videos generados por IA de neoyorquinos ficticios para simular oposición política.
Descripción: En Nueva York, se informó que cuentas vinculadas a "Citizens Against Mamdani" publicaron videos generados por IA de ciudadanos ficticios criticando al entonces alcalde electo Zohran Mamdani en Instagram, TikTok y X. Algunos videos mostraban una marca de agua visible de Sora, y los analistas forenses determinaron que al menos un clip era muy probable que fuera un deepfake. La campaña, al parecer, simulaba una oposición ciudadana y generó una participación considerable.
Editor Notes: Timeline notes: Incident date set to 11/05/2025 based on a reported recovered Instagram post from the citizensagainstmamdani account showing a visible Sora watermark and an on-platform posting date of November 5, 2025. This appears to currently be the earliest verified public posting identified for the campaign. The incident ID was created 03/21/2026.
Entidades
Ver todas las entidadesAlleged: Unknown voice cloning technology developers , Unknown deepfake technology developers y OpenAI developed an AI system deployed by Unknown social media account operators , Unknown disinformation actors targeting Zohran Mamdani , Unknown disinformation actors , Citizens Against Mamdani social media accounts y Citizens Against Mamdani, which harmed Zohran Mamdani , Voters in New York , General public of New York , Epistemic integrity , Electoral integrity y American social media users.
Sistemas de IA presuntamente implicados: X (Twitter) , Unknown voice cloning technology , Unknown deepfake technology , TikTok , Sora y Instagram
Estadísticas de incidentes
ID
1425
Cantidad de informes
1
Fecha del Incidente
2025-11-05
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Una inquietante cuenta que casi con toda seguridad utiliza inteligencia artificial (IA) para generar videos de neoyorquinos imaginarios criticando al alcalde electo Zohran Mamdani plantea una perspectiva aterradora: que los deepfakes podría…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Loading...

Deepfake Obama Introduction of Deepfakes
· 29 informes
Loading...

Predictive Policing Biases of PredPol
· 17 informes
Loading...

Wikipedia Vandalism Prevention Bot Loop
· 6 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Loading...

Deepfake Obama Introduction of Deepfakes
· 29 informes
Loading...

Predictive Policing Biases of PredPol
· 17 informes
Loading...

Wikipedia Vandalism Prevention Bot Loop
· 6 informes