Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5277

Incidentes Asociados

Incidente 10873 Reportes
Campaign Featuring Purported AI-Generated Audio Attributed to Omar al-Bashir Spreads During Sudanese Conflict

Loading...
IA: La tecnología de clonación de voz surge en la guerra civil de Sudán
bbc.com · 2023

Una campaña que utiliza inteligencia artificial para suplantar la identidad de Omar al-Bashir, exlíder de Sudán, ha recibido cientos de miles de visualizaciones en TikTok, añadiendo confusión en línea a un país desgarrado por la guerra civil.

Una cuenta anónima ha estado publicando lo que afirma son "grabaciones filtradas" del expresidente desde finales de agosto. El canal ha publicado decenas de clips, pero la voz es falsa.

Bashir, acusado de organizar crímenes de guerra y derrocado por el ejército en 2019, no ha sido visto en público durante un año y se cree que se encuentra gravemente enfermo. Niega las acusaciones de crímenes de guerra.

El misterio en torno a su paradero añade incertidumbre a un país en crisis tras el estallido de combates en abril entre el ejército, actualmente al mando, y el grupo rival Fuerzas de Apoyo Rápido.

Campañas como esta son significativas, ya que demuestran cómo las nuevas herramientas pueden distribuir contenido falso de forma rápida y económica a través de las redes sociales, según los expertos.

"Lo que más me preocupa es la democratización del acceso a sofisticadas tecnologías de manipulación de audio y video", afirma Hany Farid, investigador forense digital en la Universidad de California, Berkeley, EE. UU.

"Los actores sofisticados han podido distorsionar la realidad durante décadas, pero ahora cualquier persona con poca o ninguna experiencia técnica puede crear contenido falso de forma rápida y sencilla".

Las grabaciones se publican en un canal llamado La Voz de Sudán. Las publicaciones parecen ser una mezcla de clips antiguos de conferencias de prensa durante intentos de golpe de Estado, informes de noticias y varias "grabaciones filtradas" atribuidas a Bashir. Las publicaciones a menudo simulan ser tomadas de una reunión o conversación telefónica, y suenan granuladas, como cabría esperar de una línea telefónica defectuosa.

Para comprobar su autenticidad, consultamos primero a un equipo de expertos en Sudán de BBC Monitoring. Ibrahim Haithar nos dijo que probablemente no fueran recientes:

"La voz suena como la de Bashir, pero ha estado muy enfermo durante los últimos años y dudo que pueda hablar con tanta claridad".

Esto no significa que no sea él.

También revisamos otras posibles explicaciones, pero no se trata de un clip antiguo que resurge y es improbable que sea obra de un imitador.

La evidencia más concluyente provino de un usuario de X, anteriormente Twitter.

Reconocieron la primera de las grabaciones de Bashir publicada en agosto de 2023. Aparentemente, en ella aparece el líder criticando al comandante del ejército sudanés, el general Abdel Fattah Burhan.

La grabación de Bashir coincidió con una transmisión en vivo de Facebook realizada dos días antes por un popular comentarista político sudanés, conocido como Al Insirafi. Se cree que vive en Estados Unidos, pero nunca ha aparecido en cámara.

Los dos sonidos no se parecen mucho, pero los guiones son los mismos, y al reproducir ambos clips juntos, se reproducen perfectamente sincronizados.

Al comparar las ondas de audio, se observan patrones similares en el habla y el silencio, señala el Sr. Farid.

La evidencia sugiere que se ha utilizado un software de conversión de voz para imitar el habla de Bashir. El software es una herramienta potente que permite subir un fragmento de audio, que puede modificarse con una voz diferente.

Tras investigar más, surgió un patrón. Encontramos al menos cuatro grabaciones más de Bashir, tomadas de las transmisiones en vivo del mismo bloguero. No hay pruebas de su implicación.

La cuenta de TikTok es exclusivamente política y requiere un profundo conocimiento de lo que ocurre en Sudán, pero quién se beneficia de esta campaña es tema de debate. Una narrativa recurrente es la crítica al jefe del ejército, el general Burhan.

La motivación podría ser engañar al público haciéndoles creer que Bashir ha surgido para desempeñar un papel en la guerra. O el canal podría estar intentando legitimar un punto de vista político particular utilizando la voz del exlíder. No está claro cuál podría ser ese enfoque.

La Voz de Sudán niega haber engañado al público y afirma no estar afiliada a ningún grupo. Contactamos con la cuenta y recibimos un mensaje de texto que decía: "Quiero comunicar mi voz y explicar la realidad que atraviesa mi país a mi manera".

Un intento de esta magnitud de suplantar a Bashir puede considerarse "significativo para la región" y tiene el potencial de engañar al público, afirma Henry Ajder, cuya serie en BBC Radio 4 examinó la evolución de los medios sintéticos.

Los expertos en IA llevan mucho tiempo preocupados por la posibilidad de que los vídeos y audios falsos provoquen una ola de desinformación con el potencial de provocar disturbios y perturbar las elecciones.

"Lo alarmante es que estas grabaciones también podrían crear un entorno en el que muchos desconfíen incluso de las grabaciones reales", afirma Mohamed Suliman, investigador del Laboratorio Cívico de IA de la Universidad de Northeastern.

¿Cómo se puede detectar la desinformación basada en audio?

Como hemos visto en este ejemplo, las personas deberían preguntarse si la grabación parece creíble antes de compartirla.

Comprobar si fue publicada por una fuente fiable es vital, pero verificar el audio es difícil, sobre todo cuando el contenido circula en aplicaciones de mensajería. Es aún más difícil en tiempos de agitación social, como el que se vive actualmente en Sudán.

La tecnología para crear algoritmos capacitados para detectar audio sintético aún se encuentra en etapas iniciales de desarrollo, mientras que la tecnología para imitar voces ya está bastante avanzada.

Tras ser contactada por la BBC, TikTok eliminó la cuenta y afirmó que incumplía sus directrices sobre la publicación de "contenido falso que pueda causar un daño significativo" y sus normas sobre el uso de medios sintéticos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd