Descripción: Un video viral que circuló en Pakistán presentaba un audio generado por IA que representaba falsamente al presidente turco Recep Tayyip Erdoğan expresando su apoyo al ex primer ministro encarcelado Imran Khan durante su visita de 2025. Se describe que el video reutilizó imágenes de 2020 y presentó audio generado por IA que inventó comentarios que Erdoğan nunca hizo. La voz sintética fue confirmada mediante herramientas forenses y análisis de audio.
Entidades
Ver todas las entidadesAlleged: Unknown deepfake technology developer y Unknown voice cloning technology developed an AI system deployed by Unknown actors, which harmed General public of Pakistan , General public of Turkey , Recep Tayyip Erdoğan , Imran Khan y Pakistan-Turkey relations.
Sistemas de IA presuntamente implicados: Unknown voice cloning technology y Unknown deepfake technology apps
Estadísticas de incidentes
ID
1029
Cantidad de informes
1
Fecha del Incidente
2025-02-15
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes

Afirmación: El presidente turco, Recep Tayyip Erdoğan, recordó a Imran Khan al dirigirse a la Asamblea Nacional durante su viaje de febrero de 2025. Dijo que "deseaba" poder estrecharle la mano al ex primer ministro y que esperaba "conocer …
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents