Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5457

Incidentes Asociados

Incidente 11291 Reporte
Purported AI-Generated Video Depicting Philippine President Ferdinand Marcos Jr. Using Drugs Shared by Rodrigo Duterte Supporters and Amplified by China-Linked Spamouflage

"Malicioso": Funcionarios filipinos critican un video deepfake de Marcos Jr. presuntamente consumiendo drogas.
scmp.com · 2024

Un video viral que presuntamente muestra al presidente filipino Ferdinand Marcos Jr. consumiendo drogas ha generado gran preocupación entre los funcionarios del gobierno, quienes lo calificaron de "intento malicioso y grosero" para socavar su gobierno.

Los analistas advierten que la tecnología deepfake probablemente utilizada para crear el video representa una amenaza cada vez más grave para Filipinas, que ya ha sido testigo de varios casos de alto perfil en los que se utiliza inteligencia artificial para generar desinformación con el objetivo de causar inestabilidad política.

El nuevo video viral fue publicado por partidarios de Duterte durante una manifestación en Estados Unidos antes del Discurso sobre el Estado de la Nación de Marcos Jr. el lunes, según el Departamento de Defensa Nacional.

"El video, obviamente falso, que circula desde una reunión de Maisug en Los Ángeles es, una vez más, un intento malicioso y grosero de desestabilizar la administración del presidente Marcos Jr. ¡No lo lograrán!", declaró el portavoz del Ministerio de Defensa, Arsenio Andolong, en un comunicado.

Maisug, que significa valiente, es un grupo asociado con la familia Duterte.

El secretario de Defensa, Gilberto Teodoro Jr., aseguró al público que las fuerzas armadas seguirían apoyando al gobierno de Marcos Jr. y siguiendo la cadena de mando.

"El video deja claro que ese no es nuestro presidente. Su video es falso y, obviamente, falso", declaró Teodoro.

"Resistiremos y lucharemos contra estos intentos infantiles de debilitar la constitución y nuestras instituciones. Nos coordinaremos con todas las agencias gubernamentales para reprimir a quienes están detrás de esta desagradable y horrible conspiración".

El Departamento de Justicia condenó el "video falso" y afirmó que tomaría las medidas necesarias para identificar y enjuiciar a quienes lo respaldan.

"La publicación de este video falso, justo antes del Discurso sobre el Estado de la Nación del presidente, indica inequívocamente la intención de socavar la credibilidad del presidente y el discurso crucial que pronunciará", declaró.

Expertos forenses de la policía ofrecieron una conferencia de prensa el martes para demostrar que el hombre del video no era el presidente, presentando fotos de Marcos Jr. y del hombre no identificado para comparar sus rasgos faciales. Se colocaron imágenes ampliadas de sus rostros y orejas derechas, una junto a la otra, para demostrar que la oreja de Marcos Jr. era más grande en proporción a su rostro y tenía una forma diferente a la del otro hombre, cuya oreja se curvaba hacia arriba.

De India a China: cómo los deepfakes están transformando la política asiática

"Ya sea inteligencia artificial, un impostor o lo que sea, en lo que respecta a la policía, ese no es el presidente", declaró el martes el secretario del Interior, Benjamin Abalos.

"Es una persona diferente a juzgar por la oreja. Eso sin siquiera considerar la línea de la mandíbula ni toda la estructura facial", añadió Abalos, describiendo el video como "malicioso".

Abalos había declarado anteriormente que quienes difundieron el video serían responsables en virtud de la Ley de Prevención de Delitos Cibernéticos de 2012.

Esta no es la primera vez que Marcos Jr. es objeto de un video deepfake. En abril, un video de audio "deepfake" de Marcos Jr. ordenando a sus militares actuar contra China también causó gran preocupación entre los funcionarios del gobierno.

En el audio manipulado, se escucha la voz de Marcos Jr., manipulada, diciendo que ha dado señales a sus militares para que "tomen medidas" si China ataca a Filipinas, y añadiendo que ya no puede permitir que los filipinos sufran daños a manos de Pekín.

Filipinas mantiene una larga disputa territorial con China en el Mar de Filipinas Occidental, nombre que Manila da a las aguas del Mar de China Meridional que se encuentran dentro de su zona económica exclusiva.

Negación de Duterte

El lunes, el expresidente Rodrigo Duterte negó haber participado en la publicación del video, pero afirmó creer que es auténtico.

Duterte insistió en su acusación de que el presidente consumía drogas, una afirmación que hizo por primera vez en enero, y añadió que la negación era la "defensa más débil".

"Con las debidas disculpas a todos los expertos que avalaron la autenticidad del video, la negativa del presidente Marcos a someterse a la prueba de drogas en el folículo piloso es la mejor prueba no solo de la autenticidad del video, sino, peor aún, de su adicción a las drogas", declaró Duterte en un comunicado.

"Los miembros de la dirección de Maisug se sorprendieron tanto como el resto del país al ver el video por primera vez".

Grave amenaza

Edmund Tayao, presidente y director ejecutivo del grupo de expertos Political Economic Elemental Researchers and Strategists, destacó las amenazas que los avances tecnológicos, en particular los ciberataques y la inteligencia artificial, podrían representar para el panorama político filipino.

"Cabe destacar especialmente que, en términos de infraestructura, aún nos estamos poniendo al día, sin mencionar que nuestra estructura gubernamental requiere una coordinación más sistémica. China es ahora la más avanzada en esta tecnología y, sin duda, tiene un interés en la política filipina, especialmente en cuanto a quién toma decisiones cruciales", declaró Tayao.

Al ser preguntado si los Duterte tenían conocimiento de un video falso de Marcos Jr., Tayao dijo que esperaba que ningún filipino estuviera involucrado.

"De lo contrario, estamos en serios problemas, ya que demuestra que algunos de nosotros estamos dispuestos a colaborar con el diablo solo para conseguir lo que buscamos", declaró.

Ramón Beleno III, director del departamento de ciencias políticas e historia de la Universidad Ateneo de Davao en la ciudad de Davao, declaró a This Week in Asia que el uso de deepfakes durante las elecciones era accesible y económico, y que la gente se dejaría convencer fácilmente.

"Dado que será visto y presenciado por personas con poco conocimiento, se convencerán de que es cierto. Si este es nuestro comportamiento durante las elecciones, no podremos elegir a las personas adecuadas porque nos dejaremos influenciar por información incorrecta", afirmó.

La semana pasada, el presidente de la Comisión Electoral, George García, anunció que la agencia publicará en agosto directrices para el uso de IA para promocionar a los candidatos en las elecciones intermedias del próximo año. Los filipinos votarán en las elecciones de mayo de 2025 para elegir a 12 miembros del Senado y a más de 300 miembros de la Cámara de Representantes, así como a miles de funcionarios, desde gobernadores y alcaldes hasta concejales.

A principios de este año, tres legisladores solicitaron, mediante un proyecto de ley, penas más severas contra los delitos cometidos con tecnología deepfake.

El proyecto de ley define "deepfake" como "cualquier grabación de audio, visual o audiovisual creada o alterada por medios técnicos, como grabaciones de vídeo, películas cinematográficas, grabaciones de sonido, imágenes electrónicas o fotografías, que sean tan convincentes que una persona razonable la confundiría con una representación auténtica del discurso o la conducta de una persona".

Los deepfakes ilegales pueden "infringir derechos de autor, violar la protección de datos, difamar a personas y atentar contra la privacidad", según el proyecto de ley.

Información adicional de Agence France-Presse

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf