Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4647

Incidentes Asociados

Incidente 92726 Reportes
Fraudsters Allegedly Use AI-Generated Voice of Italian Defense Minister Guido Crosetto to Scam Business Leaders

Loading...
Falso Crosetto, estafas como esta pueden afectar a cualquiera: así puedes defenderte
repubblica.it · 2025

La estafa del falso "Crosetto" fue un gran trabajo de profesionales, pero a menor escala algo general puede afectar también a un público más amplio: a cualquiera que gestione transferencias bancarias en una empresa, por ejemplo; No necesariamente gerentes. Ya sucedió. Y en un nivel más simple, las estafas que se hacen pasar por familiares, amigos o celebridades en realidad también apuntan a gente común, cada vez más en los últimos años.

Las técnicas más sofisticadas explotan la inteligencia artificial

Los estafadores pueden clonar la voz de una persona con solo unos segundos de grabación y usarla para engañar a amigos, familiares o colegas.

Este año en Treviso una mujer de 84 años fue contactada por alguien que utilizó una reproducción artificial de la voz de su hija. Durante la llamada, la hija falsa, entre lágrimas, dijo que había tenido un accidente automovilístico y pidió dinero. Convencida de la autenticidad de la llamada, la anciana entregó 30 mil euros al estafador. En 2023, la voz de una niña de 15 años, Jennifer DeStefano, fue clonada para simular un secuestro. Los estafadores se comunicaron con la madre, reproduciendo la voz de pánico de su hija, y exigieron un rescate. Afortunadamente, la estafa fue descubierta a tiempo.

Sin embargo, en julio de 2024, una estafa utilizó la voz clonada del CEO de Ferrari (https://www.repubblica.it/economia/finanza/2024/07/27/news/ferrari_tentata_truffa_con_lia_lad_vigna_ricreato_con_il_deepfake-423416986/).

A veces no hace falta inteligencia artificial para engañar. Este mes, Sandra Bullock expuso perfiles falsos de Facebook que se hacían pasar por su hermana, Gesine. Estos estafadores contactaron a personas haciéndose pasar por comunicación directa con Sandra, logrando extorsionar grandes sumas de dinero a las víctimas. A pesar de los informes a Meta y las acciones legales adoptadas, estas cuentas falsas continuaron proliferando. Un caso denunciado por el tecnólogo de Striscia la Notizia, Marco Camisani Calzolari, destaca cómo los estafadores a menudo utilizan perfiles falsos de personas conocidas para iniciar conversaciones privadas con las víctimas. En el ejemplo, una cuenta falsa bajo el nombre del empresario Tommaso Mazzanti contactó con los usuarios a través de mensajes privados, intentando convencerlos de que tenían derecho a un premio inexistente. Como se puede ver, el objetivo son tanto personas famosas como personas comunes.

¿Cómo defenderse?

Entonces, ¿qué hacer? Empecemos con las malas noticias.

Desafortunadamente, actualmente no existen aplicaciones infalibles que puedan reconocer una voz clonada por IA en tiempo real, pero sí herramientas de defensa mínimas: aplicaciones que identifican llamadas de números sospechosos, como Hiya AI Phone y Truecaller. Sólo funcionan si el estafador ya ha utilizado ese número para otras llamadas de ese tipo. Una solución podría llegar en el futuro por parte de los operadores telefónicos, si -como lo pide desde hace tiempo la autoridad Agcom- instalan filtros de red para bloquear las llamadas con números falsos (identificador de llamada alterado), utilizados a menudo para hacer más convincentes las estafas. Por ejemplo, los estafadores utilizan un número de móvil africano pero logran hacerlo aparecer como italiano e incluso registrado en una determinada institución o banco.

El sentido común gana

Unas cuantas precauciones de sentido común son la mejor defensa hoy en día. No sólo contra llamadas fraudulentas, sino también contra técnicas similares que utilizan otros medios, como el chat social.

Hagamos preguntas personales: el directivo de Ferrari logró desenmascarar un deepfake de la voz del CEO Benedetto Vigna precisamente de esta manera: los piratas informáticos habían clonado la voz, pero no pudieron responder a una pregunta sobre un detalle privado de su vida. Si recibimos una llamada sospechosa de alguien que conocemos, pedimos algo que sólo esa persona sabría.

O llamémosla inmediatamente a uno de sus números que ya tenemos.

En Estados Unidos, el problema se está volviendo tan grave que muchas familias han comenzado a usar una “palabra de seguridad”, una palabra que se comparte sólo entre parientes cercanos. Si alguien llama haciéndose pasar por un familiar necesitado, pedimos la palabra acordada antes de actuar.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd