Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4832

Incidentes Asociados

Incidente 9594 Reportes
Deepfake Video of Indonesian President Prabowo Subianto and Other Officials Reportedly Used in Scam to Defraud Citizens Across 20 Provinces

Loading...
Indonesios estafados con deepfakes del presidente Prabowo
caledonianrecord.com · 2025

El presidente Prabowo Subianto, que lleva un sombrero y una camisa negros tradicionales de Indonesia, habla a la cámara en un vídeo de Instagram y pregunta a su pueblo cómo puede ayudarlos después de su elección el año pasado.

"¿Quién no ha recibido ayuda de mi parte? ¿Cuáles son sus necesidades en este momento?", parece preguntar Prabowo a los espectadores en el vídeo publicado en noviembre.

Pero aunque la boca del líder indonesio se mueve y sus ojos parpadean, las palabras que pronuncia son parte de una estafa deepfake fraudulenta descubierta por la policía el mes pasado que ha estafado a indonesios en 20 provincias.

A los que fueron atrapados por el mensaje se les pidió que se pusieran en contacto con un número de WhatsApp y entregaran entre 250.000 y un millón de rupias (15-60 dólares) como "tarifa administrativa" para obtener una ayuda que nunca se materializó.

Desde las elecciones indonesias del año pasado, los expertos han advertido sobre una oleada de deepfakes: audios, imágenes y videos que parecen provenir de una persona conocida pero que, de hecho, son obra de estafadores que utilizan herramientas de inteligencia artificial.

Y las víctimas dicen que los engaños son tan sofisticados que dejan a otros vulnerables a ser estafados también.

"La gente debería tener más cuidado. No se dejen engañar fácilmente por el atractivo de los premios", dijo Aryani, de 56 años, quien entregó 200.000 rupias a los estafadores después de ver un video deepfake de un destacado empresario indonesio.

"Necesito dinero, pero en lugar de eso me piden que envíe dinero. Incluso hicieron videollamadas conmigo, como si estuviera hablando directamente con ellos".

Durante la campaña presidencial del país del sudeste asiático, los deepfakes se convirtieron en una herramienta importante para difundir información errónea, tanto dañina como útil para los candidatos.

Pero ahora esa tecnología ha caído en manos de delincuentes que buscan ganar dinero contante y sonante.

  • Amplia circulación -

Los verificadores de AFP descubrieron que la cuenta detrás del clip de Prabowo ha publicado docenas de videos similares que parecen mostrar a varias figuras de alto perfil, incluido el vicepresidente indonesio Gibran Rakabuming Raka.

Esos videos también promueven la ayuda financiera falsa.

La policía arrestó a un sospechoso que se embolsó 65 millones de rupias (4.000 dólares) de la estafa, dijo Himawan Bayu Aji, director de la Unidad Nacional de Delitos Cibernéticos de Indonesia a los periodistas en febrero.

Dijo que los oficiales detuvieron a una segunda persona involucrada en otra estafa que también utilizó tecnología deepfake, sin revelar la cantidad recaudada.

La investigación de AFP Fact Check encontró que la difusión de esos videos tuvo un alcance mucho más amplio que las dos cuentas que anunció la policía.

Los videos deepfake del presidente, un exgeneral popular, todavía circulaban en las redes sociales después de los arrestos, incluidas docenas en TikTok con el hashtag "Prabowo comparte bendiciones".

Al menos 22 cuentas de TikTok estaban promocionando el mismo esquema fraudulento desde que Prabowo asumió el cargo en octubre, según descubrieron los periodistas de la AFP, y algunas parecían aprovecharse de su reciente ascenso a la presidencia.

Una cuenta con más de 77.000 seguidores acumuló 7,5 millones de visitas en un video inventado de Prabowo aparentemente repartiendo asistencia financiera.

Otra cuenta con miles de seguidores ha compartido 100 videos solo desde enero, la mayoría con videos deepfake del presidente ofreciendo dinero en efectivo.

TikTok dijo que había eliminado uno de los videos fraudulentos deepfake y la cuenta asociada, y agregó que continuaría eliminando cualquiera que violara las pautas de la comunidad de la plataforma, que prohíben las publicaciones engañosas.

La matriz de Facebook, Meta, no respondió a la solicitud de comentarios de la AFP.

AFP, junto con más de 100 otras organizaciones de verificación de datos, recibe pagos de TikTok y Meta para verificar publicaciones en las redes sociales que potencialmente contienen información falsa.

  • Más accesible -

Aribowo Sasmito, cofundador de la organización indonesia de verificación de datos Mafindo, dijo que su equipo estaba encontrando nuevas estafas deepfake cada semana debido a su prolífica propagación en línea.

"Hemos comenzado a ver videos deepfake desde el año pasado a medida que las herramientas de inteligencia artificial se han vuelto más accesibles y asequibles", dijo a AFP.

Los esquemas que utilizan deepfakes de figuras prominentes parecen estar en aumento.

El multimillonario tecnológico Elon Musk y el primer ministro de Canadá, Justin Trudeau, se encuentran entre una serie de celebridades que en los últimos años han sido blanco de suplantaciones sofisticadas para impulsar estafas de efectivo.

Aribowo dijo que su equipo de verificadores de datos estaba trabajando más duro que nunca para desacreditar estas estafas utilizando la última tecnología disponible para los delincuentes.

"Notamos que la calidad de estos videos ha mejorado con el tiempo. Se ha vuelto más difícil distinguir entre videos falsos y reales", agregó.

"El problema es el volumen de estas estafas".

sl-sty/jfx/cms/sco

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd