Incidentes Asociados

Tras la operación militar estadounidense en Venezuela que condujo a la destitución de su líder, Nicolás Maduro, videos generados por IA que supuestamente muestran a ciudadanos venezolanos celebrando en las calles se han vuelto virales en redes sociales.
Estos videos de inteligencia artificial, que muestran multitudes celebrando, han acumulado millones de visualizaciones en plataformas como TikTok, Instagram y X.
Uno de los primeros y más compartidos videos en X fue publicado por la cuenta "Wall Street Apes", que cuenta con más de un millón de seguidores en la plataforma.
La publicación (https://x.com/WallStreetApes/status/2007586063876010289) muestra a varios ciudadanos venezolanos llorando de alegría y agradeciendo a Estados Unidos y al presidente Donald Trump por la destitución de Maduro.
El video ha sido marcado desde entonces por una nota comunitaria, una función de verificación de datos colaborativa en X que permite a los usuarios añadir contexto a las publicaciones que consideran engañosas. La nota decía: "Este video fue generado por IA y actualmente se presenta como una declaración fáctica con la intención de engañar a la gente".
El clip ha sido visto más de 5,6 millones de veces y compartido por al menos 38.000 cuentas, incluyendo la del magnate Elon Musk, antes de que finalmente lo eliminara.
La CNBC no pudo confirmar el origen del video, aunque verificadores de la BBC y la AFP afirmaron que la versión más antigua conocida del clip apareció en la cuenta de TikTok @curiousmindusa, que publica regularmente contenido generado por IA.
Incluso antes de que aparecieran estos videos, circulaban imágenes generadas por IA que mostraban a Maduro bajo custodia estadounidense, antes de que la administración Trump publicara una imagen auténtica del líder capturado.
El depuesto presidente venezolano fue capturado el 3 de enero de 2026, tras ataques aéreos y una incursión terrestre de las fuerzas estadounidenses, una operación que ha acaparado los titulares internacionales a principios de año.
Además de los videos generados por IA, el equipo de verificación de datos de AFP también detectó varios ejemplos de contenido engañoso sobre el derrocamiento de Maduro, incluyendo imágenes de celebraciones en Chile presentadas falsamente como escenas de Venezuela.
Trump también ha republicado varios videos relacionados con celebraciones venezolanas en Truth Social esta semana, aunque CNBC confirmó que muchos de ellos también se filmaron fuera de Venezuela, en ciudades como Ciudad de Panamá y Buenos Aires.
Uno de los videos compartidos por el presidente incluía imágenes antiguas que aparecieron en línea por primera vez en julio de 2024 y, por lo tanto, no estaban relacionadas con la reciente destitución de Maduro.
La difusión de este tipo de desinformación en torno a importantes acontecimientos noticiosos no es nueva. Contenido falso o engañoso similar se ha difundido durante los conflictos entre Israel y Palestina y Rusia y Ucrania.
Sin embargo, el alcance masivo del contenido generado por IA relacionado con los recientes acontecimientos en Venezuela es un claro ejemplo del creciente papel de la IA como herramienta para la desinformación.
Plataformas como Sora y Midjourney han facilitado más que nunca la generación rápida de videos hiperrealistas y su presentación como genuinos en medio del caos de los acontecimientos que se producen rápidamente. Los creadores de ese contenido a menudo buscan amplificar ciertas narrativas políticas o sembrar confusión entre el público global.
El año pasado, videos generados por IA de mujeres quejándose de la pérdida de sus beneficios del Programa de Asistencia Nutricional Suplementaria (SNAP) durante el cierre gubernamental también se hicieron virales. Uno de estos videos generados por IA engañó a Fox News, que lo presentó como real en un artículo que posteriormente fue eliminado.
Ante estas tendencias, las empresas de redes sociales se han enfrentado a una creciente presión para intensificar sus esfuerzos para etiquetar el contenido de IA potencialmente engañoso.
El año pasado, el gobierno de la India propuso una ley que exige dicho etiquetado, mientras que España aprobó multas de hasta 35 millones de euros para materiales de IA sin etiquetar.
Para abordar estas preocupaciones, las principales plataformas, como TikTok y Meta, han implementado herramientas de detección y etiquetado de IA, aunque los resultados parecen ser dispares.
CNBC pudo identificar algunos videos engañosos de TikTok sobre Venezuela que habían sido etiquetados como generados por IA, pero otros que parecían inventados o alterados digitalmente aún no tenían advertencias.
En el caso de X, la plataforma se ha basado principalmente en notas de la comunidad para etiquetar el contenido, aunque los críticos afirman que el sistema suele reaccionar con demasiada lentitud para evitar que la desinformación generada por IA se propague antes de ser identificada.
Adam Mosseri, quien supervisa Instagram y Threads, reconoció el desafío que enfrentan las redes sociales en una publicación reciente. "Todas las principales plataformas harán un buen trabajo identificando contenido de IA, pero empeorarán con el tiempo a medida que la IA mejore su capacidad para imitar la realidad", afirmó.
"Ya hay un número creciente de personas que creen, como yo, que será más práctico identificar a los medios de comunicación reales que a los falsos", añadió.
— Victoria Yeo de CNBC contribuyó a este informe