Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5278

Incidentes Asociados

Incidente 10873 Reportes
Campaign Featuring Purported AI-Generated Audio Attributed to Omar al-Bashir Spreads During Sudanese Conflict

Loading...
Una campaña de suplantación de identidad del exlíder de Sudán impulsada por IA se vuelve viral en TikTok
dig.watch · 2023

En un informe reciente de la BBC, una campaña anónima que emplea inteligencia artificial para hacerse pasar por el exlíder de Sudán, Omar al-Bashir, ha ganado amplia atención en TikTok, amplificando la confusión en línea en un país que ya está lidiando con una guerra civil. La campaña, que opera bajo el nombre de "La Voz de Sudán", ha estado publicando supuestas "grabaciones filtradas" de Bashir desde finales de agosto, a pesar de que la autenticidad de la voz ha sido cuestionada.

Dado que Bashir permanece oculto a la vista del público debido a una enfermedad y enfrenta acusaciones de crímenes de guerra, los expertos creen que se ha utilizado un software de conversión de voz para imitar su voz. Se descubrió que algunas de las grabaciones fueron tomadas de las transmisiones de un comentarista político sudanés en Estados Unidos.

El motivo de esta campaña no está claro, pero podría tener como objetivo engañar a la gente haciéndoles creer que Bashir está involucrado en la guerra en curso o promover una postura política específica. TikTok ha cerrado la cuenta tras ser contactada por la BBC, alegando la violación de sus directrices sobre la publicación de contenido falso y el uso de medios sintéticos.

¿Por qué es importante?

Esta campaña pone de relieve la facilidad con la que se puede difundir contenido falso a través de las redes sociales, lo que genera preocupación por el potencial de desinformación y disturbios, según indican expertos en inteligencia artificial. Detectar desinformación basada en audio es un desafío, y la tecnología para detectar audio sintético aún se encuentra en sus etapas iniciales. Los casos de la vida real se están extendiendo globalmente, como el caso de Eslovaquia (https://www.bloomberg.com/news/articles/2023-09-29/trolls-in-slovakian-election-tap-ai-deepfakes-to-spread-disinfo#xj4y7vzkg), donde videos deepfake con voces de políticos generadas por IA circularon antes de las elecciones parlamentarias. Mientras los países lidian con este problema, senadores de ambos partidos políticos en Estados Unidos (https://www.reuters.com/world/us/bipartisan-push-ban-deceptive-ai-generated-ads-us-elections-2023-09-12/) durante las elecciones federales.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd