Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4129

Incidentes Asociados

Incidente 80510 Reportes
Senator Ben Cardin Reportedly Received a Purported Deepfake Zoom Call Impersonating Former Ukrainian Foreign Minister Dmytro Kuleba

Loading...
La sofisticación de una operación respaldada por inteligencia artificial dirigida a un senador apunta al futuro de los esquemas de deepfake
apnews.com · 2024

Washington (AP) — Una operación avanzada de deepfake tuvo como blanco al senador Ben Cardin, presidente demócrata del Comité de Relaciones Exteriores del Senado, este mes, según la Oficina de Seguridad del Senado, la última señal de que actores nefastos están recurriendo a la inteligencia artificial en sus esfuerzos por engañar a las principales figuras políticas de Estados Unidos.

Los expertos creen que esquemas como este se volverán más comunes ahora que las barreras técnicas que alguna vez existieron en torno a la inteligencia artificial generativa han disminuido. El aviso de Seguridad del Senado enviado a las oficinas del Senado el lunes decía que el intento "se destaca por su sofisticación técnica y credibilidad".

El esquema se centró en Dmytro Kuleba, el exministro de Asuntos Exteriores de Ucrania. La oficina de Cardin recibió un correo electrónico de alguien que creían que era Kuleba, según el aviso, un funcionario que Cardin conocía de una reunión anterior.

Cuando los dos se reunieron para una videollamada, la conexión "era consistente en apariencia y sonido con encuentros pasados". No fue hasta que la persona que llamó haciéndose pasar por Kuleba comenzó a hacer preguntas como "¿Apoyas los misiles de largo alcance en territorio ruso? Necesito saber su respuesta”, que Cardin y su personal sospechaban que “algo no andaba bien”, decía el aviso del Senado.

“El presidente continuó, haciendo preguntas con carga política al senador en relación con las próximas elecciones”, probablemente para intentar provocarlo para que comentara sobre un candidato político, según el aviso de Nicolette Llewellyn, la directora de Seguridad del Senado. “El senador y su personal terminaron la llamada y rápidamente se comunicaron con el Departamento de Estado, que verificó que no era Kuleba”.

Cardin describió el miércoles el encuentro como “un actor maligno involucrado en un intento engañoso de tener una conversación conmigo haciéndose pasar por un individuo conocido”.

“Después de que quedó claro de inmediato que el individuo con el que estaba interactuando no era quien decía ser, terminé la llamada y mi oficina tomó medidas rápidas, alertando a las autoridades pertinentes”, dijo Cardin. “Este asunto ahora está en manos de las fuerzas del orden y se está llevando a cabo una investigación exhaustiva”.

La oficina de Cardin no respondió a una solicitud de información adicional.

La inteligencia artificial generativa puede utilizar una enorme potencia informática para alterar digitalmente lo que aparece en un vídeo, a veces cambiando el fondo o el tema de un vídeo en tiempo real. La misma tecnología también se puede utilizar para alterar digitalmente el audio o las imágenes.

Tecnología como esta ya se ha utilizado en esquemas nefastos anteriormente.

Un trabajador de finanzas en Hong Kong pagó 25 millones de dólares a un estafador que utilizó inteligencia artificial para hacerse pasar por el director financiero de la empresa. Un consultor político usó inteligencia artificial para imitar la voz del presidente Joe Biden e instó a los votantes a no votar en las primarias presidenciales de New Hampshire, lo que llevó al consultor a enfrentar más de dos docenas de cargos criminales y millones de dólares en multas. Y los expertos en el cuidado de los estadounidenses mayores han estado preocupados durante mucho tiempo de que las falsificaciones profundas impulsadas por inteligencia artificial potenciarán las estafas financieras dirigidas a los adultos mayores.

Tanto los funcionarios de seguridad del Senado como los expertos en inteligencia artificial creen que esto podría ser solo el comienzo, dado que los recientes avances en la tecnología han hecho que esquemas como el que se utilizó contra Cardin no solo sean más creíbles, sino más fáciles de llevar a cabo.

“En los últimos meses, la tecnología para poder conectar un deepfake de video en vivo junto con un deepfake de audio en vivo ha sido cada vez más fácil de integrar”, dijo Rachel Tobac, experta en seguridad cibernética y directora ejecutiva de SocialProof Security, quien agregó que las iteraciones anteriores de esta tecnología tenían indicios obvios de que eran falsas, desde movimientos extraños de los labios hasta personas que parpadeaban al revés.

“Espero que ocurran más incidentes de este tipo en el futuro”, dijo Siwei Lyu, experto en inteligencia artificial y profesor de la Universidad de Buffalo. “Cualquiera que tenga algún tipo de intención maliciosa en mente ahora tiene la capacidad de llevar a cabo este tipo de ataque. Estos podrían provenir del ángulo político, pero también podrían provenir del ángulo financiero, como el fraude o el robo de identidad”.

El memorando dirigido al personal del Senado se hizo eco de este sentimiento, diciéndoles que se aseguraran de que las solicitudes de reuniones fueran auténticas y advirtiendo que “se harán otros intentos en las próximas semanas”.

R. David Edelman, un experto en inteligencia artificial y seguridad nacional que dirigió la política de seguridad cibernética durante años en la Casa Blanca, describió el plan como una “operación de inteligencia sofisticada” que “parece bastante cercana a la vanguardia” en la forma en que combinó el uso de tecnología de inteligencia artificial con operaciones de inteligencia más tradicionales que reconocieron las conexiones entre Cardin y el funcionario ucraniano.

“Reconocieron la relación existente entre estas dos partes. Sabían cómo podrían interactuar: el momento, el modo y cómo se comunican”, dijo. “Hay una sofisticación en la operación de inteligencia”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd