Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5169

Incidentes Asociados

Incidente 5373 Reportes
Mother in Arizona Received Fake Ransom Call Featuring AI Voice of Her Daughter

Las llamadas fraudulentas con IA son cada vez más inteligentes. Así es como las telecomunicaciones están respondiendo.
fastcompany.com · 2025

Las llamadas fraudulentas están revolucionando el mundo. La Alianza Global Antiestafa estima que los estafadores robaron la asombrosa suma de 1,03 billones de dólares a nivel mundial en 2023, incluyendo pérdidas por fraudes en línea y llamadas fraudulentas. Las llamadas automáticas y las estafas telefónicas han sido durante mucho tiempo un problema frustrante, y a menudo peligroso, para los consumidores. Ahora, la inteligencia artificial está aumentando la amenaza, haciendo que las estafas sean más engañosas, eficientes y difíciles de detectar.

Si bien Eric Priezkalns, analista y editor de Commsrisk, cree que el impacto de la IA en las llamadas fraudulentas es actualmente exagerado, señala que el uso de la IA por parte de los estafadores se centra en producir contenido falso, que parece real, o en modificar el contenido de los mensajes diseñados para atraer a posibles víctimas a conversaciones maliciosas. "Variar el contenido dificulta mucho la identificación y el bloqueo de estafas mediante los controles tradicionales", explica a Fast Company.

Desde voces deepfake generadas por IA que imitan a seres queridos hasta operaciones de fraude a gran escala que utilizan el aprendizaje automático para evadir la detección, los delincuentes están explotando la IA para potenciar estas llamadas fraudulentas. La gran pregunta es: ¿Cómo puede la industria de las telecomunicaciones combatir este problema de frente antes de que los estafadores causen aún más estragos?

LOS ESTAFADORES ESTÁN MEJORANDO SUS ESTRATEGIAS CON IA

Hasta hace poco, las estafas telefónicas se basaban principalmente en llamadas automáticas burdas: mensajes pregrabados que advertían a los destinatarios sobre un problema financiero urgente o un supuesto problema con su número de la Seguridad Social. Estas tácticas, aunque persistentes, solían ser fáciles de reconocer. Pero las estafas actuales impulsadas por IA son mucho más convincentes.

Uno de los avances más alarmantes es el uso de voces generadas por IA, que hacen que las estafas parezcan inquietantemente personales. En un caso escalofriante de abril de 2023, una madre en Arizona recibió una llamada desesperada de alguien que sonaba exactamente igual que su hija, sollozando y pidiendo ayuda. Un estafador, haciéndose pasar por un secuestrador, exigió un rescate. En realidad, la hija estaba a salvo: los delincuentes habían usado inteligencia artificial para clonar su voz de un video en redes sociales.

Estas estafas, conocidas como "fraude de clonación de voz" han aumentado en los últimos meses. Con tan solo unos segundos de audio, las herramientas de IA pueden crear un clon digital inquietantemente realista de la voz de una persona, lo que permite a los estafadores hacerse pasar por amigos, familiares o incluso ejecutivos en estafas corporativas.

Los estafadores también utilizan la IA para analizar grandes cantidades de datos y perfeccionar sus estrategias con una precisión asombrosa. Los algoritmos de aprendizaje automático pueden filtrar información pública (publicaciones en redes sociales, foros en línea y filtraciones de datos) para crear llamadas fraudulentas hiperpersonalizadas. En lugar de un engaño genérico del IRS o del soporte técnico, los estafadores ahora pueden dirigirse a las víctimas con detalles específicos sobre sus compras, historial de viajes o incluso afecciones médicas.

La IA también está mejorando la suplantación de identidad de llamadas, lo que permite a los estafadores manipular los números de teléfono para que parezcan provenir de negocios locales, agencias gubernamentales o incluso los propios contactos de la víctima. Esto aumenta la probabilidad de que la gente conteste, lo que hace que las llamadas fraudulentas sean más difíciles de ignorar.

CONTRAFENSIVA DE LAS TELECOMUNICACIONES: IA VS. IA

A medida que los estafadores perfeccionan sus herramientas de IA, las compañías de telecomunicaciones y los reguladores contraatacan con inteligencia artificial propia, implementando sistemas avanzados para detectar, rastrear y bloquear llamadas maliciosas antes de que lleguen a los consumidores.

1. Autenticación de llamadas y detección de fraude basada en IA

Para combatir la suplantación de identidad, las compañías de telecomunicaciones están aprovechando tecnologías de análisis de voz y autenticación basadas en IA. En EE. UU., el marco STIR/SHAKEN (https://www.fcc.gov/call-authentication) utiliza firmas criptográficas para verificar que las llamadas provengan de fuentes legítimas. Sin embargo, a medida que los estafadores se adaptan rápidamente, la detección de fraude basada en IA se vuelve esencial.

Los modelos de aprendizaje automático entrenados con miles de millones de patrones de llamadas pueden analizar metadatos en tiempo real para detectar anomalías, como picos repentinos de llamadas desde regiones específicas o números vinculados a estafas conocidas. Estos sistemas de IA pueden incluso detectar sutiles marcadores acústicos típicos de las voces generadas por deepfakes, lo que ayuda a detener las llamadas fraudulentas antes de que se conecten.

2. Filtrado y bloqueo de llamadas a nivel de operador

Los principales proveedores de telecomunicaciones están integrando el filtrado de llamadas con IA directamente en sus redes. Call Protect de AT&T (https://www.att.com/support/article/u-verse-voice/KM1235421/), Scam Shield de T-Mobile (https://www.t-mobile.com/benefits/scam-shield) y Call Filter de Verizon (https://www.verizon.com/solutions-and-services/add-ons/protection-and-security/call-filter/) utilizan IA para detectar patrones sospechosos y bloquear las llamadas de alto riesgo antes de que lleguen a los usuarios. Las soluciones Call Check de la GSMA (https://www.gsma.com/solutions-and-impact/industry-services/call-check/) y contra el Fraude de Participación en los Ingresos Internacionales (IRSF) también ofrecen protección contra llamadas en tiempo real al verificar la legitimidad y combatir la suplantación de identidad de la línea que llama.

Para contextualizar, la Prevención IRSF de la GSMA aprovecha los datos de Números de Tarifa Premium Internacionales (IPRN) de origen y una plataforma avanzada de OSINT (inteligencia de código abierto) para brindar inteligencia de fraude procesable en tiempo real. Rastrea más de 20 millones de IPRN, rutas secuestradas y redes objetivo, lo que ayuda a las empresas de telecomunicaciones a combatir proactivamente el fraude IRSF y Wangiri.

3. Biometría de voz con IA para la verificación de llamadas

Otra prometedora línea de defensa contra el fraude generado por IA es la biometría de voz. Algunas instituciones financieras y proveedores de telecomunicaciones están implementando sistemas de autenticación de voz que analizan más de 1000 características vocales únicas para verificar la identidad de la persona que llama. A diferencia del reconocimiento de voz básico, estos sistemas avanzados pueden detectar cuándo se utiliza una voz generada por IA, lo que impide eficazmente que los estafadores se hagan pasar por clientes legítimos.

LOS REGULADORES ESTÁN TOMANDO MEDIDAS, ¿PERO ES SUFICIENTE?

Una cosa es endurecer las regulaciones y las sanciones —algo que ya hacen muchas agencias gubernamentales de todo el mundo—, pero aplicarlas eficazmente es algo completamente distinto. En EE. UU., por ejemplo, la FCC (Comisión Federal de Comunicaciones) ha incrementado las sanciones por las llamadas automáticas ilegales y está presionando a los operadores para que adopten defensas más estrictas basadas en IA. La Ley TRACED (Ley de Ejecución y Disuasión Penal del Abuso de Llamadas Robóticas Telefónicas), promulgada en 2019 (https://www.fastcompany.com/90448422/the-white-house-is-pumped-about-this-anti-robocall-law-were-not-celebrating-yet), otorga a los reguladores mayor poder para multar a los estafadores y exige medidas más estrictas contra la suplantación de identidad.

A nivel internacional, los reguladores del Reino Unido, Canadá y Australia están trabajando en marcos similares basados en IA para proteger a los consumidores del creciente fraude. La Unión Europea ha introducido leyes de privacidad de datos más estrictas, lo que limita el uso de la IA para recopilar datos personales en operaciones fraudulentas.

Sin embargo, las autoridades competentes tienen dificultades para seguir el ritmo de la innovación en IA. Los estafadores operan a nivel mundial, a menudo fuera de la jurisdicción de un único regulador. Muchas redes de fraude tienen su sede en países donde las acciones legales son difíciles, si no casi imposibles.

Tomemos como ejemplo países como Myanmar, Camboya y Laos, donde grupos del crimen organizado han establecido centros de estafas cibernéticas que utilizan deepfakes impulsados por IA para engañar a víctimas de todo el mundo. Los operadores de estos centros de estafa se reubican o cambian de táctica con frecuencia para adelantarse a las fuerzas del orden. Además, operan en regiones con complejos desafíos jurisdiccionales, lo que dificulta aún más la aplicación de la ley.

Los estafadores prosperan gracias a la fragmentación y explotan vulnerabilidades, ya sea por falta de coordinación en el sector o por diferentes enfoques regulatorios entre países. Estos obstáculos regulatorios subrayan por qué los proveedores de telecomunicaciones deben asumir un papel más proactivo en la lucha contra el fraude impulsado por IA, en lugar de depender únicamente de los marcos tradicionales que, si bien son útiles, no siempre son eficientes. Ahí es donde la tecnología Call Check de la GSMA, desarrollada por el proveedor alemán de soluciones de telecomunicaciones Oculeus, podría desempeñar un papel fundamental.

"Los servicios Call Check de la GSMA ofrecen un mecanismo sencillo, rápido y económico para el intercambio de información sobre llamadas telefónicas fraudulentas en el momento en que se producen. Esta tecnología está basada en la nube, lo que la hace a prueba de futuro y global, algo que otros métodos que algunos países están considerando nunca podrán lograr", afirma Priezkalns de Commsrisk.

LEJOS DE TERMINAR

Sin duda, la lucha contra las estafas impulsadas por IA está lejos de terminar. Como señaló la expresidenta de la FCC, Jessica Rosenworcel, el año pasado (https://www.reuters.com/technology/artificial-intelligence/fcc-chair-asks-telecoms-detail-efforts-block-fraudulent-ai-political-robocalls-2024-06-27/): «Sabemos que las tecnologías de IA harán que sea barato y fácil inundar nuestras redes con deepfakes utilizados para engañar y traicionar la confianza».

La buena noticia es que la industria de las telecomunicaciones no cede. Si bien los estafadores utilizan la IA para engañar a personas desprevenidas, la industria también la aprovecha para proteger a los clientes y sus datos confidenciales mediante el filtrado automatizado de llamadas, la detección de fraude en tiempo real y medidas de autenticación mejoradas.

Pero según Priezkalns, la tecnología por sí sola no es suficiente para proteger a las personas. Para él, la disuasión, impulsada por el enjuiciamiento legal de los estafadores, es tan importante como las soluciones tecnológicas. "Debe utilizarse en conjunto con las fuerzas del orden que arrestan proactivamente a los estafadores y con los sistemas legales que garantizan que los estafadores sean castigados por sus delitos", afirma.

Una cosa es segura: los estafadores y las estafas no desaparecerán pronto. Como señala Priezkalns, la gente seguirá cayendo en las estafas incluso con una formación exhaustiva de concienciación pública. Pero a medida que la IA continúa evolucionando, la industria de las telecomunicaciones debe ir un paso por delante, asegurándose de que se convierta en una fuerza de protección, no de engaño. Y con herramientas como Call Check de la GSMA, ese futuro está al alcance.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 300d90c