Incidentes Asociados

No hay evidencia de que un clip de audio que se ha vuelto viral en X (anteriormente Twitter), supuestamente del líder laborista Sir Keir Starmer insultando a un miembro de su personal , es genuino.
El clip, que tiene más de 1,5 millones de visitas en el momento de escribir este artículo y también ha sido compartido en Facebook, se publicó mientras se celebraba la conferencia del Partido Laborista. en Liverpool el domingo.
Es difícil demostrar definitivamente que un clip de audio no específico y sin atribuir ha sido falsificado. La aparición de este clip ha expuesto los crecientes desafíos de verificación que plantean las nuevas tecnologías y el desafío de garantizar una respuesta efectiva y proporcionada por parte de las plataformas de redes sociales a dicho contenido.
No hemos podido determinar si el clip fue generado con inteligencia artificial, editado de alguna otra manera o es de un imitador, pero no hemos visto ninguna evidencia que sugiera que sea real.
No hay pistas específicas en el clip en sí, como ruido de fondo identificable o nombres utilizados, que permitan verificarlo. Fuentes dentro del Partido Laborista han dicho que el clip es falso, al igual que el ministro de seguridad Tom Tugendhat y [Simon Clarke MP](https://twitter.com /SimonClarkeMP/status/1710979175589290434), ambos conservadores.
Tugendhat y Clarke sugirieron que el clip es una versión de audio de un [deepfake] (https://www.theguardian.com/technology/2020/jan/13/what-are-deepfakes-and-how-can-you- detectarlos) y se refirió al trabajo en curso para abordar los desafíos de la inteligencia artificial. Sin embargo, cuando preguntamos al señor Tugendhat en qué se basaba esa evaluación, no recibimos respuesta.
La cuenta X que afirmó haber recibido el clip de audio y dijo que era del Sr. Starmer "abusando verbalmente de su personal en la conferencia" actualmente opera bajo el nombre "El Borto”, y anteriormente ha publicado otras afirmaciones no demostradas sobre Starmer. No está claro quién administra la cuenta, que se creó en enero de 2023 y ahora tiene alrededor de 3.600 seguidores. Intentamos comunicarnos con el propietario de la cuenta pero no hemos recibido respuesta.
Reclamaciones no demostradas
El 21 de agosto, mientras operaba bajo el nombre “UK Politics”, la cuenta en cuestión [afirmó haber realizado una entrevista](https://twitter. com/leo_hutz/status/1693712849695093119) con el Sr. Starmer. El relato decía: “NUEVO: El líder laborista Keir Starmer ha dicho que apoyaría la pena de muerte “para los crímenes más atroces””.
No hemos visto ninguna evidencia que respalde tal afirmación, ni evidencia de que el Sr. Starmer haya realizado tal entrevista. De hecho, el señor Starmer ha dejado repetidamente su oposición. a la pena capital y ganó un premio por su trabajar en casos de pena de muerte.
Otros usuarios de X le pidieron que proporcionara la fuente, el titular de la cuenta respondió: “Nosotros somos la fuente. Nos estaba hablando a nosotros”. Luego, el titular de la cuenta [afirmó tener imágenes] (https://twitter.com/leo_hutz/status/1694081657463091451) del Sr. Starmer pronunciando esas palabras, pero dijo que no podían subirlas porque: "No tengo permiso para publicar". el video. Me podrían demandar”.
Al día siguiente, la cuenta subió [lo que parecía ser una foto] (https://twitter.com/leo_hutz/status/1693968319005458531) de un televisor sintonizado en un artículo del canal BBC News con la leyenda: “Keir Starmer pena de muerte comentarios”. Respondiendo a otros usuarios, el propietario de la cuenta X parecía dar a entender que las citas que había publicado el día anterior ahora estaban siendo reportadas por la emisora.
No hemos visto ninguna evidencia de que se trate de una imagen de un informe real de BBC News. No hemos encontrado ninguna mención de este informe en ningún otro lugar en línea, y un examen minucioso de la imagen parece mostrar inconsistencias con el texto del título, lo que sugiere que puede haber sido alterado digitalmente. Además, cuando Full Fact comprobó lo que se informaba en BBC News a las 13.28 horas del 22 de agosto (la hora que aparece en la foto), no se mencionó al Sr. Starmer y, en cambio, los presentadores estaban discutiendo la creciente popularidad del ajedrez.
“Es difícil confirmar los deepfakes con total certeza”
Hemos visto análisis del clip de audio por parte de varios expertos en audio diferentes, pero sin ninguna conclusión general definitiva.
Mike Russell, fundador de la empresa de producción de audio Music Radio Creative y profesional de audio certificado con más de 25 años de experiencia, realizó un análisis exhaustivo para un podcast, que al momento de escribir este artículo aún no se ha publicado. Le dijo a Full Fact que era "imposible confirmar al 100%" si el clip era o no un deepfake.
"Desafortunadamente, no hay un sí o un no definitivo", dijo. "Sigue siendo muy difícil confirmar los deepfakes con total certeza... nos estamos acercando rápidamente a un punto en el que ya no se puede confiar en el audio como evidencia fáctica con el aumento de la síntesis de IA. "
Aunque su análisis no pudo encontrar ningún "fallo" de la IA y algunas pruebas sugirieron que el audio era real, Russell también pudo utilizar herramientas de clonación de voz de IA para recrear muestras falsas extremadamente realistas de la voz de Sir Keir.
Un [estudio reciente](https://www.ucl.ac.uk/news/2023/aug/humans-unable-detect-over- quarter-deepfake-speech-samples) realizado por investigadores del University College London encontró que la tecnología necesario para producir clips de audio falsos ahora es ampliamente accesible y fácil de usar. "Si bien los primeros algoritmos de voz deepfake pueden haber requerido miles de muestras de la voz de una persona para poder generar audio original, los últimos algoritmos previamente entrenados pueden recrear la voz de una persona usando solo un clip de tres segundos de ella hablando", dijo.
"Los algoritmos de código abierto están disponibles gratuitamente y, si bien algo de experiencia sería beneficiosa, sería factible que una persona los entrenara en unos pocos días".
El mismo estudio incluyó un experimento que encontró que los humanos sólo son capaces de detectar audio alterado el 73% del tiempo.
La preocupación por la posibilidad de que el audio manipulado genere información errónea se destacó recientemente cuando, poco antes de las elecciones en Eslovaquia, se publicó una grabación de audio en En Facebook supuestamente aparece el líder de un partido político y un destacado periodista discutiendo cómo manipular la votación.
Ambos hombres negaron que alguna vez hubiera tenido lugar tal conversación y [los verificadores de datos de AFP] (https://fakty.afp.com/doc.afp.com.33WY9LF) dijeron que el audio mostraba signos de haber sido manipulado mediante inteligencia artificial.