Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5315

Incidentes Asociados

Incidente 10773 Reportes
FBI Reports Ongoing Vishing and Smishing Campaign Allegedly Targeting Government Officials Using Purportedly AI-Generated Voices

Loading...
El FBI advierte sobre mensajes de texto falsos y llamadas deepfake que se hacen pasar por altos funcionarios estadounidenses
cyberscoop.com · 2025

El FBI declaró el jueves que actores maliciosos se han hecho pasar por altos funcionarios del gobierno estadounidense en una campaña de mensajes de texto y voz, utilizando mensajes de phishing y audio generado por IA para engañar a otros funcionarios y lograr que accedan a sus cuentas personales.

La advertencia proporcionó pocos detalles sobre la campaña, que comenzó en abril y parece estar en curso. Los mensajes se han presentado en forma de textos o mensajes de audio ultrafalsos de altos funcionarios estadounidenses y se enviaron principalmente a "altos funcionarios actuales o anteriores del gobierno federal o estatal de EE. UU. y a sus contactos" para obtener acceso a sus cuentas.

El FBI advierte al público que "si recibe un mensaje que dice ser de un alto funcionario estadounidense, no asuma que es auténtico".

Este es el ejemplo más reciente de actores maliciosos que utilizan IA y técnicas ultrafalsos para imitar de forma realista la voz y la imagen de otros. A medida que los modelos de lenguaje de gran tamaño han proliferado y mejorado su capacidad para crear imágenes de video y audio realistas, su uso en esquemas de phishing y campañas de estafa se ha disparado.

Quizás el uso más conocido de esta tecnología hasta la fecha haya sido la suplantación deepfake del entonces presidente Joe Biden en el período previo a las primarias presidenciales de New Hampshire de 2024. El consultor político Steve Kramer, en colaboración con el contrincante demócrata en las primarias, Dean Phillips, supervisó la creación del audio, que aconsejaba a los demócratas no acudir a las urnas y se envió a los votantes días antes de las primarias.

Kramer fue multado con 6 millones de dólares por la FCC por el incidente y enfrenta cargos penales por intento de supresión de votantes al hacerse pasar falsamente por un candidato en New Hampshire.

Sin embargo, el uso de audio deepfake en estafas financieras más rutinarias y esquemas de espionaje y cibercrimen más sofisticados ha aumentado drásticamente desde la aparición de esta tecnología. Para aumentar la preocupación, el aparente ataque a cuentas personales en esta campaña surge después de que medios de comunicación informaran que varios altos funcionarios de la administración Trump se comunican y coordinan políticas del gobierno estadounidense desde sus teléfonos personales y utilizan versiones inseguras de terceros de aplicaciones de mensajería cifrada como Signal.

Existen protecciones limitadas contra la explotación de estas tecnologías, aparte de mantenerse alerta y seguir las recomendaciones de seguridad habituales, como no confiar en llamadas de desconocidos, verificar la identidad llamando a números oficiales y usar la autenticación multifactor para proteger las cuentas.

En una audiencia en la Cámara de Representantes ese mismo día, el presidente de la Comisión Federal de Comercio, Andrew Ferguson, afirmó que abordar la suplantación de identidad por IA es una de las principales prioridades de la agencia a través de nuevas leyes como la Ley de Eliminación.

"No sé si alguien ha recibido alguna vez una llamada de un ser querido suplantado, pero tengo amigos que sí han recibido llamadas de familiares suplantados", declaró Ferguson a los legisladores. "Es una experiencia realmente aterradora".

John Hultquist, analista jefe de Google Threat Intelligence Group, declaró en un correo electrónico a CyberScoop que "antes los adversarios podían falsificar contenido, pero la IA sin duda lo ha facilitado y les ha permitido hacerlo a gran escala".

"Llevan algunos años utilizando la IA para fabricar vídeo, texto y audio", añadió. "Y claramente están mejorando".

Esta historia fue actualizada el 15 de mayo con comentarios del presidente de la FTC, Hultquist de Google.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd