Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5084

Incidentes Asociados

Incidente 10375 Reportes
Microsoft Reportedly Blocks 1.6 Million Bot Signup Attempts Per Hour Amid Global AI-Driven Fraud Surge

Loading...
Microsoft lanza una dura advertencia sobre estafas en línea basadas en inteligencia artificial
extremetech.com · 2025

El último informe Cyber Signals de Microsoft (https://www.microsoft.com/en-us/security/blog/2025/04/16/cyber-signals-issue-9-ai-powered-deception-emerging-fraud-threats-and-countermeasures/) muestra cómo los ciberdelincuentes utilizan la IA para hacer que las estafas sean más creíbles y difíciles de detectar. La compañía afirma que, entre abril de 2024 y abril de 2025, detuvo intentos de fraude por valor de 4000 millones de dólares, bloqueó alrededor de 1,6 millones de registros de bots falsos cada hora y rechazó 49 000 solicitudes de colaboración falsas. Esto demuestra la frecuencia con la que se ha vuelto el fraude en línea, especialmente porque los estafadores utilizan la IA para engañar a las personas con mayor facilidad.

La IA ahora ayuda a los estafadores a crear sitios web falsos, ofertas de empleo e incluso chatbots de atención al cliente que parecen reales. Por ejemplo, se pueden crear tiendas en línea falsas en minutos, con descripciones y reseñas de productos escritas por IA. Algunos estafadores usan IA para realizar entrevistas de trabajo falsas o enviar correos electrónicos que simulan provenir de empresas reales.

Las estafas de soporte técnico también están en aumento. Los delincuentes se hacen pasar por empresas como Microsoft y convencen a los usuarios de que les den acceso remoto a sus ordenadores. Microsoft ha añadido nuevas advertencias y medidas de seguridad a su herramienta Quick Assist, que ayuda a los usuarios a compartir sus pantallas para recibir soporte. La compañía ahora bloquea miles de intentos de conexión sospechosos cada día.

Para combatir estas estafas, Microsoft utiliza aprendizaje automático e IA para detectar patrones de fraude y advertir a los usuarios sobre posibles amenazas. Herramientas como Microsoft Edge ahora cuentan con protección contra errores tipográficos y pueden detectar sitios web falsos, mientras que Microsoft Defender puede ayudar a proteger contra el phishing y las descargas no seguras. La compañía también colabora con las fuerzas del orden y grupos internacionales para desmantelar las redes de estafadores. Microsoft recomienda a todos tener cuidado en línea: revisar los sitios web antes de comprar, desconfiar de las ofertas de trabajo que parecen demasiado buenas para ser verdad y nunca compartir información personal con contactos no verificados.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd