Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3321

Incidentes Asociados

Incidente 60110 Reportes
AI-Generated Fake Audio of Verbal Abuse Incident Circulates of British Labour Leader Keir Starmer

Loading...
Líder de la oposición británica blanco de difamación de audio falsa generada por IA
therecord.media · 2023

Un clip de audio publicado en las redes sociales el domingo, que supuestamente muestra al líder de la oposición británica, Keir Starmer, abusando verbalmente de su personal, ha sido desacreditado como generado por IA mediante análisis del sector privado y del gobierno británico.

El audio de Keir Starmer fue publicado en X (anteriormente Twitter) mediante una cuenta seudónima el domingo por la mañana, día inaugural de la conferencia del Partido Laborista en Liverpool. La cuenta afirmó que el clip, que ya ha sido visto más de 1,4 millones de veces, era genuino y que su autenticidad había sido [corroborada](https: //twitter.com/leo_hutz/status/1711065591644143630) por un ingeniero de sonido.

Ben Colman, cofundador y director ejecutivo de Reality Defender, una empresa de detección de deepfake, cuestionó esta evaluación cuando Recorded Future News se puso en contacto con él: "Descubrimos que el audio tenía una probabilidad del 75 % de estar manipulado en función de una copia de una copia que ha estado circulando". (una transcodificación).

“Como no tenemos la verdad fundamental, damos una puntuación de probabilidad (en este caso 75%) y nunca una puntuación definitiva ('esto es falso' o 'esto es real'), inclinándonos mucho más hacia 'esto es probable'. "manipulado" que no", dijo Colman.

"También opinamos que el creador de este archivo añadió ruido de fondo para intentar evadir la detección, pero nuestro sistema también tiene en cuenta esto", dijo.

El audio fue criticado de forma bipartidista, a pesar del ambiente político altamente disputado en el Reino Unido, y las encuestas generalmente lo muestran el Partido Laborista está 17 puntos por delante de los conservadores en el poder.

Simon Clarke, diputado del Partido Conservador, advirtió en las redes sociales: “Esta mañana circula un audio profundamente falso de Keir Starmer: ignórelo”. El ministro de seguridad, Tom Tugendhat, también diputado conservador, también advirtió sobre la "grabación de audio falsa" e imploró a los usuarios de Twitter que no "amplificaran la misma".

“Los deepfakes amenazan nuestra libertad. Por eso el Grupo de Trabajo para la Defensa de la Democracia y el trabajo que está haciendo el Primer Ministro en materia de IA son fundamentales para protegernos a todos”, añadió Tugendhat. La palabra "deepfake" se usa coloquialmente para referirse a cualquier tipo de medio sintético generado por tecnologías de inteligencia artificial.

El Grupo de Trabajo para la Defensa de la Democracia se creó en noviembre de 2022 con la misión de reducir “el riesgo de interferencia extranjera en los procesos, las instituciones y la sociedad democráticas del Reino Unido, y garantizar que sean seguros y resistentes a las amenazas de interferencia extranjera”, según acordeón. una pregunta parlamentaria respondida anteriormente por Tugendhat.

Recorded Future News entiende que un análisis del archivo de audio realizado por el gobierno británico confirmó que era falso.

Captura de pantalla de la publicación en las redes sociales que presenta el archivo de audio.

Las autoridades del Reino Unido se están preparando para este tipo de interferencia antes de las elecciones generales del país el próximo año, tras intentos similares de influir en las recientes elecciones en Eslovaquia.

Dos días antes de que se abrieran las urnas allí el 30 de septiembre, se publicaron clips de audio falsos en las redes sociales en los que se intentaba incriminar a un líder de un partido de oposición y a un periodista por manipular las elecciones mediante un complot para comprar votos.

Desmentir públicamente el audio fue un desafío debido a las leyes electorales del país, que prohíben estrictamente tanto a los medios como a los políticos hacer anuncios de campaña en los dos días previos a la apertura de las urnas.

Como informó por Wired, en una publicación de audio la falsificación también “explotó una laguna en la política de medios manipulados de Meta, que dicta que sólo se falsificaron Los videos, en los que una persona ha sido editada para decir palabras que nunca dijo, van en contra de sus reglas”.

No está claro quién produjo el audio falso ni en el caso eslovaco ni en el británico.

La cuenta que publicó la difamación de Keir Starmer había tuiteado previamente: “Déjenme ser claro. Estoy inequívocamente a favor de las tácticas de difamación contra aquellos que también participan en tácticas de difamación. ¿La gente miente sobre Keir Starmer? Bien. Y yo soy uno de ellos”.

Ese tweet ya ha sido eliminado, aunque el audio falso sigue disponible.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd