Incidentes Asociados

Mientras los miembros del partido de oposición más grande del Reino Unido se reunían en Liverpool para la conferencia de su partido (probablemente la última antes de que el Reino Unido celebre elecciones generales), un archivo de audio potencialmente explosivo comenzó a circular en X, antes conocido como Twitter.
La grabación de 25 segundos fue publicada por una cuenta X con el identificador “@Leo_Hutz” que se creó en enero de 2023. En el clip, aparentemente se escucha a Sir Keir Starmer, líder del Partido Laborista, insultar repetidamente a un empleado. "Obtuve un audio de Keir Starmer abusando verbalmente de su personal en la conferencia del Partido Laborista", publicó la cuenta X. "Este asqueroso matón está a punto de convertirse en nuestro próximo primer ministro".
No está claro si la grabación de audio es real, generada por IA o grabada con un imitador. La organización británica de verificación de datos Full Fact dijo que todavía está investigando. “Tal como estamos hablando ahora, no se puede validar de una manera ni de otra. Pero hay características que apuntan a que es falso”, dice Glen Tarman, jefe de promoción y políticas de Full Fact. "Hay una frase que parece repetida, en lugar de [usar] una entonación diferente la segunda vez que se usa, y hay algunos fallos en el ruido de fondo".
Los deepfakes de audio están surgiendo como un riesgo importante para el proceso democrático, a medida que el Reino Unido (y más de 50 países más) se acercan a las elecciones de 2024. Manipular contenido de audio se está volviendo más barato y fácil, mientras que los verificadores de datos dicen que es difícil de manera rápida y definitiva. identificar una grabación como falsa. Estas grabaciones podrían pasar horas o días flotando en las redes sociales antes de ser desacreditadas, y a los investigadores les preocupa que este tipo de contenido deepfake pueda crear una atmósfera política en la que los votantes no sepan en qué información pueden confiar.
"Si escuchas un fragmento de sonido o un vídeo en línea con esta semilla de duda sobre si esto es realmente real, corres el riesgo de socavar los cimientos de cómo ocurre el debate y la capacidad de las personas de sentirse informadas", dice Kate Dommett, profesora de política digital. en la Universidad de Sheffield.
La [política] de medios manipulados de X (https://help.twitter.com/en/rules-and-policies/manipulated-media) establece que los videos o audios que hayan sido alterados o manipulados de manera engañosa deben etiquetarse o eliminarse. Tampoco sucedió con la publicación y X no respondió a la solicitud de WIRED de comentar si la plataforma investigó la autenticidad de la grabación.
El equipo de Starmer aún no ha comentado. Pero varios parlamentarios del gobernante Partido Conservador calificaron la grabación de deepfake. "Hay una grabación de audio falsa de Keir Starmer circulando por ahí", dijo el diputado Tom Tugendhat en X. "Los últimos 30 años de vida pública han visto un debilitamiento catastrófico de la fe en las instituciones, por buenas y malas razones", Matt Warman, otro conservador. MP, publicado. “Pero el deepfake de Sir Keir Starmer de hoy es un nuevo mínimo, potenciado por la inteligencia artificial y las redes sociales. La democracia está bajo una amenaza real: la tecnología para verificar el contenido es esencial”.
El incidente se produce una semana después de un escándalo en las últimas horas de [la campaña electoral de Eslovaquia](https://www.wired.com/story/slovakias-election-deepfakes-show-ai-is-a-danger-to-democracy /), cuando se publicó en Facebook una grabación de audio que parecía mostrar al líder del partido opositor Eslovaquia Progresista hablando de sus planes para manipular las elecciones. Michal Šimečka denunció que el audio era falso y el departamento de verificación de datos de la AFP afirmó que el audio mostraba signos de manipulación. En ese momento, los verificadores de datos dijeron que se sentían mal preparados para desacreditar definitivamente las grabaciones de audio generadas por IA.
Países de todo el mundo están luchando por saber cómo responder a las grabaciones de audio que se consideran falsas. Las supuestas grabaciones deepfake han causado confusión tanto en Sudán como en [India](https://restofworld.org/2023/indian- político-filtrado-audio-ai-deepfake/). En Sudán, se sospechaba que estaban manipuladas las “grabaciones filtradas” del ex líder Omar al-Bashir, que no ha sido visto en público durante un año. En India, se publicó una grabación de audio de Palanivel Thiagarajan, un político de la oposición, que supuestamente acusaba a sus compañeros de partido de corrupción. Thiagarajan dijo que la grabación fue generada por una máquina.
El problema de los medios deepfake fáciles de crear se ve agravado por el hecho de que las herramientas de detección no están ampliamente disponibles, dice Sam Gregory, director ejecutivo de Witness, un grupo de derechos humanos que se centra en la tecnología. “No existe un estándar compartido para agregar marcas de agua o señales de procedencia al audio deepfake generado por IA, solo esfuerzos de empresas individuales. No sirve de nada tener una herramienta para detectar si el contenido es generado por una empresa cuando la misma herramienta daría un falso negativo sobre el audio falso creado por una de las muchas otras herramientas en el mercado”.
La incapacidad de demostrar definitivamente la autenticidad de una grabación de audio añade confusión que también será aprovechada por los políticos que aparecen en audio real, añade Gregory. “Los políticos afirmarán que el audio real es falso y presionarán a los verificadores de datos para que desacrediten esta afirmación, cuando carecen de las herramientas o la capacidad rápida para hacerlo”.