Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4125

Incidentes Asociados

Incidente 80510 Reportes
Senator Ben Cardin Reportedly Received a Purported Deepfake Zoom Call Impersonating Former Ukrainian Foreign Minister Dmytro Kuleba

Loading...
Una elaborada operación de deepfake requiere una reunión con un senador estadounidense
darkreading.com · 2024

A principios de este mes, el senador Ben Cardin (demócrata por Maryland), que se desempeña como presidente demócrata del Comité de Relaciones Exteriores del Senado, fue blanco de una operación avanzada de deepfake que logró engañar en parte al político.

La operación se centró en la asociación profesional de Cardin con Dymtro Kuleba, exministro de Asuntos Exteriores de Ucrania. Según se informa, la oficina de Cardin recibió un correo electrónico de alguien que creían que era Kuleba, a quien Cardin ya conocía de reuniones anteriores.

Kuleba y Cardin se conocieron a través de Zoom a través de lo que parecía ser una conexión de audio y video en vivo "que era consistente en apariencia y sonido con encuentros anteriores", según un aviso emitido por la oficina de seguridad del senador.

Pero fue aquí donde las cosas comenzaron a ir mal para los actores de la amenaza. "Kuleba" comenzó a hacerle preguntas a Cardin como "¿apoya usted el lanzamiento de misiles de largo alcance hacia territorio ruso? Necesito saber su respuesta", y otras "preguntas políticamente cargadas en relación con las próximas elecciones", según el aviso.

En ese momento, Cardin y su personal supieron que algo andaba mal.

El actor malicioso del otro lado de la llamada continuó, intentando engañar al senador para que comentara sobre un candidato político y otras cosas.

"El senador y su personal finalizaron la llamada y rápidamente se comunicaron con el Departamento de Estado, que verificó que no era Kuleba", dijo Nicolette Llewellyn, directora de Seguridad del Senado, en el aviso.

Las estafas deepfake están en aumento

El 25 de septiembre, Cardin comentó sobre el encuentro y describió a la persona del otro lado de la pantalla como un actor maligno que participó en un intento engañoso de tratar de tener una conversación con él.

"Tras quedar claro de inmediato que la persona con la que estaba hablando no era quien decía ser, terminé la llamada y mi oficina tomó medidas rápidas, alertando a las autoridades pertinentes", dijo el senador Cardin. "Este asunto está ahora en manos de las fuerzas del orden y se está llevando a cabo una investigación exhaustiva".

Sin embargo, fue impresionante y preocupante lo lejos que llegaron estos actores de amenazas. Si no hubieran revelado su plan actuando de forma poco habitual para la persona a la que se hacían pasar, podrían haber obtenido información confidencial o importante.

"A nivel individual, los [deepfakes] pueden dar lugar al chantaje y la extorsión", dice Eyal Benishti, director ejecutivo de Ironscales. "Para las empresas, las aplicaciones deepfake plantean riesgos de pérdidas financieras significativas, daño a la reputación y espionaje corporativo. A nivel gubernamental, amenazan la seguridad nacional y pueden socavar los procesos democráticos", sin duda haciendo referencia a una llamada automática deepfake que se creó para hacerse pasar por el presidente Joe Biden con el objetivo de lograr que los partidarios de Biden se queden en casa para reducir la participación electoral.

Está claro que los esquemas deepfake se están convirtiendo en una amenaza mayor y son más utilizados por actores maliciosos. En un informe de julio que Trend Micro compartió con Dark Reading, los investigadores descubrieron que el 80% de los consumidores involucrados en una encuesta habían visto imágenes deepfake y el 64% había visto videos deepfake. Aproximadamente la mitad de los consumidores encuestados habían oído hablar de clips de audio deepfake. Y, lo que es preocupante, el 35% de los encuestados dijo que ellos mismos habían experimentado una estafa deepfake, y aún más dijeron que conocían a alguien que lo había hecho.

Este tipo de estafas vienen en todo tipo de variedades, como los videos deepfake del Primer Ministro del Reino Unido Keir Starmer y el Príncipe William que circulaban en las plataformas Meta a principios de este año para promover una plataforma de criptomonedas llamada Immediate Edge. La plataforma era fraudulenta y tenía como objetivo engañar a las víctimas potenciales haciéndolas parecer respaldadas por figuras públicas de buena reputación. Según los investigadores que estudiaron la campaña de desinformación, los anuncios deepfake llegaron a casi 900.000 personas que gastaron más de 20.000 libras en la plataforma.

"El aumento de los deepfakes, ya sea a través de imágenes, videos o audio, es difícil de negar", dice Benishti. "Estos ataques se están volviendo cada vez más sofisticados y, a menudo, indistinguibles de la realidad, gracias a la accesibilidad de las herramientas de inteligencia artificial generativa".

Y eso significa que las defensas deben cambiar, dice Benishti.

"Actualmente, no existen métodos infalibles para detectar fácilmente los deepfakes", dice. "Hasta que la tecnología se ponga al día, debemos priorizar la concienciación, la educación y la formación para dotar a las personas y las organizaciones de las habilidades y estrategias necesarias para actuar ante sus sospechas, implementar procesos de verificación eficaces y, en última instancia, mejorar su capacidad para discernir lo que es real y lo que no".

Estas recomendaciones se aplican a cualquier persona, no solo a personas de alto rango o de alto perfil como Cardin.

"Los ciberdelincuentes aprovechan las oportunidades, independientemente del estatus, lo que significa que cualquiera puede ser un objetivo", añade Benishti. "Es fundamental que todos, no solo las figuras prominentes, se mantengan alerta y escépticos ante cualquier solicitud urgente o inesperada. La vigilancia y la verificación son defensas clave contra estas amenazas en evolución".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd