Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5460

Incidentes Asociados

Incidente 6766 Reportes
Alleged Deepfake Audio Depicts Philippines President Ferdinand Marcos Jr. Ordering Military Action

Loading...
Un audio deepfake del presidente filipino instando a tomar medidas militares contra China genera preocupación.
ndtv.com · 2024

En un incidente alarmante, un audio falso en el que el presidente filipino, Ferdinand Marcos Jr., da instrucciones a sus militares para que respondan a China ha generado gran alarma entre los funcionarios del gobierno de Manila. Advierten que esto podría tener implicaciones para la política exterior del país.

El audio manipulado presenta una voz falsa y profunda de Marcos Jr., donde supuestamente indica a sus militares que intervengan si China representa una amenaza para Filipinas. Añade que no puede tolerar que Pekín siga perjudicando a los filipinos.

La tecnología deepfake implica el uso de inteligencia artificial para reemplazar aspectos de la apariencia o la voz de una persona con los de otra en medios sintéticos.

"No podemos comprometer ni a una sola persona solo para proteger lo que nos pertenece por derecho", dice la voz en el audio falso, que, según se informa, se publicó a través de un canal de YouTube con miles de suscriptores. El audio iba acompañado de una presentación de fotos que mostraban buques chinos en el Mar de China Meridional, según informó el South China Morning Post.

El martes por la noche, la Oficina Presidencial de Comunicaciones Comunitarias (OPC) emitió una advertencia pública sobre los medios manipulados y confirmó que eran completamente falsos.

"La Oficina Presidencial de Comunicaciones ha tenido conocimiento de que existe contenido de video publicado en una popular plataforma de streaming que circula en línea, el cual contiene audio manipulado, diseñado para sonar como el presidente Ferdinand R. Marcos Jr.", declaró la OCP en un comunicado.

"El audio deepfake intenta simular que el Presidente ha ordenado a nuestras Fuerzas Armadas de Filipinas que actúen contra un país extranjero en particular. Tal directiva no existe ni se ha emitido", añadió.

La Oficina de Coordinación de Operaciones de Filipinas (PCO) afirmó que trabaja activamente en medidas para combatir las noticias falsas, la desinformación y la desinformación a través de su Campaña de Alfabetización Mediática e Informacional.

"También estamos coordinando y trabajando estrechamente con agencias gubernamentales y actores relevantes del sector privado para abordar activamente la proliferación y el uso malicioso de deepfakes de video y audio, así como otros contenidos generados por IA", añadió.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd