Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2762

Incidentes Asociados

Incidente 4865 Reportes
AI Video-Making Tool Abused to Deploy Pro-China News on Social Media

Loading...
Lectores de noticias deepfake lanzan noticias a favor de China
thetimes.co.uk · 2023

La tecnología de inteligencia artificial de una empresa británica ha sido secuestrada para crear un canal de noticias favorable a China con un par de presentadores generados por computadora.

Wolf News había estado creando un perfil en las redes sociales, pero este mes se descubrió que estaba vinculado a una operación de spam político utilizando herramientas desarrolladas por un especialista en inteligencia artificial con sede en Londres. Sus videos presentaban un par de "presentadores de noticias" muy realistas, Jason y Anna, quienes posteriormente fueron desenmascarados como generados por computadora.

En un clip, se acusó al gobierno de EE. UU. de no abordar la violencia armada, mientras que un segundo subrayó la importancia de la cooperación chino-estadounidense para ayudar a la recuperación de la economía global. Ambos presentaban la marca de Wolf News aparentemente ficticio, con un logotipo de la silueta de un lobo y el lema "centrarse en los puntos calientes y transmitir en tiempo real".

Graphika, los expertos en redes sociales detrás del descubrimiento, afirmaron que los videos eran obra de una operación de influencia pro china conocida como Spamouflage, que opera en Facebook, Twitter y YouTube.

Graphika dio la alarma en un informe de nueve páginas, Deepfake It Till You Make It. "Esta fue la primera vez que observamos una operación alineada con el estado que promovía imágenes de personas ficticias generadas por IA", dijo.

Si bien los videos de Wolf News no se compartieron ampliamente, el temor es que el mal uso de tales herramientas se dispare a medida que la tecnología esté más disponible y sea cada vez más convincente.

Desde entonces, se ha descubierto una segunda cosecha de videos dirigidos a conversaciones en línea en Burkina Faso. El descubrimiento de Wolf News ha generado temores de que la tecnología de inteligencia artificial en rápida evolución hará que sea cada vez más fácil engañar al público.

William Bartlett, director creativo ejecutivo de Framestore, que se especializa en efectos especiales virtuales, ha creado versiones falsas de la reina Isabel II, Boris Johnson y Donald Trump. Dijo que estaba "muy preocupado" por el mal uso del video generado por IA.

"En las manos equivocadas, la tecnología tiene el potencial de corroer la confianza del público en las instituciones y los gobiernos y socavar el funcionamiento de la sociedad", dijo. "Me sorprende que haya tardado tanto en suceder este tipo de cosas. Cada vez es más fácil de hacer".

Bartlett predijo que tales videos ganarían fuerza a medida que comenzaran a presentar versiones falsas de personas famosas, indistinguibles de la realidad. Los rápidos desarrollos en la tecnología de IA abrirán la posibilidad de clonar y manipular fácilmente los gestos, el lenguaje corporal y las voces de una persona, así como sus rostros, en función de una sola imagen.

"Deepfakes se volverán 100 por ciento, totalmente realistas", agregó. "E instintivamente creemos en los videos falsos más que en las imágenes porque las personas no se han dado cuenta de lo fáciles que son de hacer. Por lo tanto, mantienen una gran credibilidad".

Las herramientas utilizadas por Spamouflage han sido vinculadas a , un especialista en IA fundado en 2017 por un equipo de investigadores y emprendedores de la UCL, Stanford y la Universidad de Cambridge.

Afirmando ser el proveedor de software de video de IA mejor calificado del mundo, se puede acceder al servicio desde £ 23 por mes y ha atraído a más de 30,000 usuarios para crear una multitud de videos.

Los clientes de alto perfil incluyen el NHS, Ocado y el gigante de la publicidad WPP, que lo han utilizado para mejorar la capacitación del personal. La organización benéfica Malaria No More colaboró para crear un [deepfake David Beckham](https://www .thetimes.co.uk/article/david-beckham-andy-murray-and-denise-lewis-back-malaria-no-more-uk-gqwjsnc2h8h). La estrella de fútbol creó conciencia sobre la enfermedad pronunciando las palabras de los actores en nueve idiomas diferentes.

Synthesia ha baneado al usuario detrás del canal Wolf News por violar sus lineamientos, que prohíben el uso de sus herramientas para crear "contenido político, sexual, personal, criminal y discriminatorio".

Victor Riparbelli, cofundador de Synthesia, se disculpó y condenó la actividad. "Invertimos muy temprano en la moderación de contenido para garantizar que nuestras decenas de miles de clientes se beneficien de una plataforma segura", dijo.

"Nos duele ver a la gente hacer un mal uso del producto que construimos para ayudar a beneficiar a la sociedad; esta nunca fue nuestra intención. Sin embargo, no permitiremos que la minoría arruine lo bueno que la IA tiene para ofrecer y las infinitas oportunidades positivas que abre para todos nosotros". "

Dijo que "el 99,9 por ciento de los malos actores" que intentaban usar el servicio fueron atrapados. Sin embargo, los videos de Wolf News se deslizaron a través de su sistema de moderación de contenido, debido a la dificultad para detectar contenido problemático que no cae en su "categoría roja" de discurso de odio e insultos.

"Las áreas grises son mucho más difíciles de detectar", dijo. "Si un usuario está creando contenido en torno a las criptomonedas, ¿está educando a las personas sobre la tecnología blockchain o detrás de un esquema para hacerse rico rápidamente?"

Riparbelli pidió que las leyes existentes se actualicen para la era digital e instó a todos los proveedores de IA a ir más allá en la prevención del mal uso. "La regulación correcta ayudará a reducir el uso indebido e incentivará a las empresas a salvaguardar la tecnología poderosa", dijo. "Pero también garantizará que las poderosas herramientas de inteligencia artificial sean accesibles para que el público las use e interactúe".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd