Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1646

Incidentes Asociados

Incidente 1989 Reportes
Deepfake Video of Ukrainian President Yielding to Russia Posted on Ukrainian Websites and Social Media

Loading...
Hackers falsificaron un video del presidente ucraniano diciéndoles a sus soldados que se rindieran
futurism.com · 2022

Según los informes, un video falso del presidente ucraniano Volodymyr Zelenksy pidiendo a las tropas de su país que se rindan a las fuerzas rusas llegó hoy a un sitio de noticias ucraniano pirateado después de volverse viral en Facebook, informa The Daily Dot.

Según el informe, puede ser el primer deepfake creado para engañar a los opositores durante la invasión rusa de Ucrania.

Si bien el video no es el ejemplo más limpio o convincente de tecnologías deepfake, claramente no es el verdadero Zelenksy en el video ya que, por un lado, la cabeza es demasiado grande para el cuerpo, es un ejemplo ominoso de una nueva arma preocupante en el arsenal de una potencia mundial: videos falsos de declaraciones hechas por líderes políticos enemigos.

El verdadero Zelenksy respondió rápidamente al deepfake en un video separado publicado en Facebook, pidiendo a los rusos que se rindieran.

“Si puedo ofrecer a alguien que deponga las armas, es el ejército ruso”, dijo en el video. "Vete a casa. Porque estamos en casa. Estamos defendiendo nuestra tierra, nuestros niños y nuestras familias”.

Según el organismo de control de desinformación del Laboratorio de Investigación Forense Digital (DFRLab) del Atlantic Council, el video se transmitió en un programa de noticias pirateado.

"¡Esto es falso!" Escribió el medio ucraniano en una publicación de Instagram, según lo traducido por Google. “Amigos, hemos advertido repetidamente sobre esto. Nadie se va a rendir”.

Desde entonces, la empresa matriz de Facebook, Meta, eliminó el video preocupante.

“Hoy temprano, nuestros equipos identificaron y eliminaron un video falso que afirmaba mostrar al presidente Zelensky emitiendo una declaración que nunca hizo”, tuiteó el jefe de política de seguridad de la compañía, Nathaniel Gleicher. “Apareció en un sitio web supuestamente comprometido y luego comenzó a mostrarse en Internet”.

“Revisamos y eliminamos rápidamente este video por violar nuestra política contra medios manipulados engañosos, y notificamos a nuestros pares en otras plataformas”, agregó Gleicher en un seguimiento.

El tema de la desinformación ha alcanzado un punto álgido a medida que las tropas rusas convierten en escombros las principales ciudades ucranianas. Los piratas informáticos están librando una guerra secundaria en línea, eliminando sitios web gubernamentales e interfiriendo con las operaciones militares.

Ni siquiera es el único video falso que aparece hoy, con un video similar de un presidente ruso falso, Vladimir Putin, declarando la victoria que también está circulando.

Mientras tanto, Rusia se está aislando del mundo. La noticia llega después de que las autoridades rusas bloquearan completamente Facebook e Instagram a principios de este mes.

Pero sin las principales plataformas de redes sociales, Rusia también ha cortado un canal de distribución masiva de su propia propaganda estatal.

No está claro, en particular, si el video falso realmente tuvo el efecto específico de sembrar confusión o incluso convencer a los ucranianos de rendirse al enemigo. Si un deepfake alguna vez lo hará, sigue siendo una pregunta abierta.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd