Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5086

Incidentes Asociados

Incidente 10375 Reportes
Microsoft Reportedly Blocks 1.6 Million Bot Signup Attempts Per Hour Amid Global AI-Driven Fraud Surge

Loading...
Microsoft bloquea 4.000 millones de dólares en fraudes mientras las estafas de IA aumentan a nivel mundial
cnbctv18.com · 2025

El año pasado, Microsoft afirmó haber bloqueado más de 4 mil millones de dólares en intentos de fraude, ya que los ciberdelincuentes recurren cada vez más a herramientas basadas en IA para ejecutar estafas sofisticadas.

Desde la suplantación de identidad del personal de soporte técnico hasta la creación de sitios web de comercio electrónico falsos y convincentes, los estafadores están aprovechando la IA para que sus ataques sean más rápidos, económicos y difíciles de detectar. El último informe Cyber Signals de Microsoft describe cómo la compañía utiliza el aprendizaje automático y las herramientas basadas en IA para adelantarse a estos actores maliciosos.

La IA está haciendo que las estafas sean más inteligentes y aterradoras

Microsoft afirma haber frustrado 1,6 millones de registros basados en bots por hora y rechazado casi 49.000 intentos de asociación falsos entre abril de 2024 y abril de 2025. Y no se trata solo de spam: la naturaleza de las estafas en línea está cambiando.

"El cibercrimen es un problema de un billón de dólares", afirmó Kelly Bissell, vicepresidenta corporativa de Antifraude y Abuso de Productos de Microsoft Security. La IA ahora nos permite detectar y reducir la exposición mucho más rápido.

Con la IA, los estafadores pueden extraer datos de empresas, generar reseñas falsas de productos, clonar voces e incluso crear negocios enteros desde cero, con logotipos, sitios web y testimonios falsos. Las estafas de comercio electrónico son cada vez más fáciles de ejecutar, y quienes buscan empleo se están convirtiendo en nuevos objetivos. Se utilizan entrevistas generadas por IA y correos electrónicos de phishing automatizados para engañar a los candidatos y que compartan datos personales.

Mientras estos ataques ocurren en todo el mundo, el equipo antifraude de Microsoft ha rastreado una actividad significativa en China y Alemania, países con grandes economías digitales y una fuerte presencia en el comercio electrónico.

Se utilizan tiendas falsas, chatbots de atención al cliente e influencers deepfake para promocionar productos falsificados o servicios inexistentes. También se han implementado chatbots generados por IA para retrasar las devoluciones de cargos y engañar a los clientes haciéndoles creer que están tratando con vendedores legítimos.

Aumento del soporte técnico falso y las estafas laborales

Entre las amenazas de mayor crecimiento se encuentran los sitios web fraudulentos de comercio electrónico. La IA permite a los estafadores crear tiendas de aspecto profesional en cuestión de minutos, mucho más rápido que antes, utilizando descripciones de productos generadas automáticamente, reseñas e incluso chatbots de atención al cliente para manipular a las víctimas y retrasar las devoluciones de cargos.

El fraude laboral también está en auge. Los estafadores se hacen pasar por reclutadores y empresas en plataformas de empleo utilizando perfiles y respuestas de entrevistas generados por IA. Microsoft recomienda a las plataformas de empleo que implementen la autenticación multifactor para los empleadores y adopten herramientas de detección de deepfakes para contrarrestar esta tendencia.

En cuanto al soporte técnico, el equipo de seguridad de Microsoft descubrió recientemente una campaña del grupo cibercriminal Storm-1811, que explotó la herramienta legítima Windows Quick Assist para obtener acceso remoto a los dispositivos de las víctimas mediante ingeniería social. Aunque no se utilizó IA en estos ataques, la campaña pone de manifiesto cómo los actores de amenazas continúan explotando la confianza de los usuarios.

Contraatacando con aprendizaje automático y diseño

Microsoft afirma estar trabajando para integrar la resistencia al fraude directamente en el desarrollo de productos. Bajo su Iniciativa de Futuro Seguro, los equipos de producto deben evaluar e implementar controles de fraude como parte del proceso de diseño.

Algunas de las defensas de la compañía incluyen:

  • Microsoft Edge ahora cuenta con protección contra la suplantación de dominio y un bloqueador de scareware.

  • Quick Assist alerta a los usuarios con mensajes de advertencia antes de permitir el acceso remoto.

  • Remote Help, diseñado para entornos empresariales, añade alternativas más seguras para el soporte de TI.

  • Digital Fingerprinting, una herramienta basada en IA que detecta y bloquea sesiones sospechosas de Quick Assist, ahora detiene más de 4400 intentos de este tipo al día.

  • Los sistemas de protección contra el fraude de Microsoft también se extienden a LinkedIn, donde está implementando algoritmos de detección de empleos falsos para identificar anuncios sospechosos.

Microsoft también se está asociando con la Alianza Global Antiestafa (GASA), que reúne a gobiernos, fuerzas del orden y empresas tecnológicas para compartir datos y estrategias.

Qué puede hacer para mantenerse seguro

Microsoft instó a los consumidores a mantenerse alerta ante estafas cada vez más sofisticadas. Algunas señales de alerta clave incluyen:

  • Solicitudes de soporte técnico no solicitadas, especialmente por teléfono o correo electrónico.

  • Ofertas de trabajo que requieren pago o provienen de dominios de correo electrónico gratuitos.

  • Sitios de comercio electrónico con ofertas que parecen demasiado buenas para ser verdad.

  • Entrevistas deepfake o chatbots con respuestas poco naturales.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd