Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4111

Incidentes Asociados

Incidente 80510 Reportes
Senator Ben Cardin Reportedly Received a Purported Deepfake Zoom Call Impersonating Former Ukrainian Foreign Minister Dmytro Kuleba

Loading...
Senador es blanco de una llamada falsa en la que un “actor maligno” se hace pasar por ucraniano
washingtonpost.com · 2024

El presidente del Comité de Relaciones Exteriores del Senado fue engañado para que participara en una videollamada con un "actor maligno" que probablemente utilizó tecnología de inteligencia artificial "deepfake" para hacerse pasar por un alto funcionario ucraniano, dijeron el jueves legisladores y asistentes del Congreso.

El senador Ben Cardin (demócrata por Maryland) fue contactado por correo electrónico la semana pasada por alguien que se hizo pasar por Dmytro Kuleba, el ex ministro de Asuntos Exteriores de Ucrania, para tener una conversación por Zoom. En la videollamada con el senador, la voz y la apariencia de la persona coincidían con las de Kuleba, pero Cardin comenzó a sospechar cuando el hombre le hizo preguntas fuera de lo común relacionadas con las próximas elecciones, según dos asistentes del Senado que proporcionaron detalles del evento bajo condición de anonimato porque no se les permitió hablar con los medios. La persona que se hizo pasar por Kuleba también preguntó si el senador apoyaba la provisión de misiles de largo alcance en el conflicto entre Ucrania y Rusia.

La llamada fue reportada por primera vez por Punchbowl News.

"En los últimos días, un actor maligno participó en un intento engañoso de tener una conversación conmigo haciéndose pasar por un individuo conocido", dijo Cardin en un comunicado. "Después de que quedó claro de inmediato que la persona con la que estaba interactuando no era quien decía ser, terminé la llamada y mi oficina tomó medidas rápidas, alertando a las autoridades pertinentes. Este asunto está ahora en manos de las fuerzas del orden y se está llevando a cabo una investigación exhaustiva".

El incidente ha suscitado preocupaciones de que más legisladores podrían ser el objetivo de la sofisticada tecnología "deepfake" que permite a las personas hacerse pasar por la voz y la apariencia de figuras políticas. El personal del comité ha recibido instrucciones de ejercer un grado adicional de precaución con las comunicaciones externas, prestando especial atención a los números y correos electrónicos de las personas entrantes que dicen ser personas poderosas.

Cardin, que se jubilará a finales de este año, no es el único funcionario electo que ha caído víctima de este tipo de esquema. A principios de este año, el entonces presidente del Reino Unido, Donald Trump, ha sido elegido presidente de la Cámara de Representantes. El ministro de Asuntos Exteriores, David Cameron, anunció que había participado en una videollamada falsa con alguien que se hacía pasar por Petro Poroshenko, el expresidente de Ucrania. Los alcaldes de varias ciudades europeas también fueron engañados para que participaran en una videollamada con alguien que se hacía pasar por el alcalde de Kiev, según informó entonces el Guardian [https://www.theguardian.com/world/2022/jun/25/european-leaders-deepfake-video-calls-mayor-of-kyiv-vitali-klitschko].

Kuleba tiene fuertes vínculos con legisladores y altos funcionarios estadounidenses que se remontan al inicio de la invasión rusa a gran escala en 2022. Muchos han llegado a conocer a Kuleba y sus gestos, lo que potencialmente lo hace más difícil de suplantar que otros.

En una declaración, Kuleba dijo que estaba "99 por ciento seguro" de que el deepfake fue iniciado por "bromistas rusos", y advirtió a las personas que se mantuvieran alertas.

"Lo mejor que puede hacer para evitar quedar atrapado en el deepfake es verificar siempre la fuente y no decir la verdad a extraños", escribió en ucraniano.

Los funcionarios estadounidenses han advertido que los actores extranjeros están utilizando la tecnología deepfake para sembrar discordia y desinformación. Al comienzo de la invasión rusa de Ucrania, apareció en línea un deepfake del presidente Volodymyr Zelensky diciendo a los ucranianos que se rindieran.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd