Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5079

Incidentes Asociados

Incidente 10375 Reportes
Microsoft Reportedly Blocks 1.6 Million Bot Signup Attempts Per Hour Amid Global AI-Driven Fraud Surge

Loading...
Mientras los estafadores se aferran a la inteligencia artificial, Microsoft afirma que bloquea 1,6 millones de bots cada hora
abc.net.au · 2025

Los estafadores se han aferrado a la IA como la herramienta más reciente de su arsenal, generando fotos falsas, clones de voz, correos electrónicos de phishing y sitios web falsos "a un ritmo cada vez más rápido".

La inteligencia artificial ha facilitado y abaratado a los estafadores la generación de contenido creíble para sus ataques, según el último informe Cyber Signals de Microsoft.

El informe señaló que Microsoft había frustrado intentos de fraude por valor de unos 6.280 millones de dólares en los últimos 12 meses, desde abril de 2024.

En el mismo periodo, afirmó haber bloqueado alrededor de 1,6 millones de bots que intentaban crear cuentas cada hora.

El vicepresidente corporativo de antifraude y abuso de productos de Microsoft, Kelly Bissell, declaró a la ABC que la compañía había cerrado unos 450 sitios web fraudulentos "maliciosos" el año pasado.

"Llevo 30 años en el mundo de las TI y he visto todas las innovaciones tecnológicas, desde internet hasta la telefonía móvil, la nube y todo lo demás", afirmó.

Los atacantes adoptarán esa nueva tecnología más rápido que cualquier empresa, grande o pequeña, o un individuo.

Las estafas han existido durante miles de años, pero con la tecnología se utiliza una herramienta diferente y mejor.

Con la IA, donde antes se tardaba semanas o días en crear un sitio web malicioso, ahora se puede hacer en minutos.

La inteligencia artificial hace que las estafas habituales sean más peligrosas

Según el Equipo Antifraude de Microsoft, los ataques de fraude impulsados por IA se están produciendo a nivel mundial.

Gran parte de la actividad proviene de China y Europa, concretamente de Alemania, que es uno de los mayores mercados de comercio electrónico y servicios en línea del mundo.

El Sr. Bissell afirmó que todo consumidor debe ser precavido.

A medida que la IA siga evolucionando y cambiando, creo que formará parte cada vez más de nuestras vidas.

Afirmó.

No es diferente a los teléfonos móviles, internet o los servicios en la nube.

Creo que todos los consumidores deben ser precavidos y usar herramientas confiables.

El informe de Microsoft indicó que había mejorado las protecciones para responder a las estafas de soporte técnico y otras amenazas actuales.

Afirmó que ahora bloquea un promedio de 4415 intentos de conexión sospechosos al día con su herramienta Quick Assist, que permite el acceso remoto a las pantallas de las computadoras para obtener soporte técnico.

El informe agregó que Microsoft estaba utilizando "modelos de detección a gran escala" para combatir la IA con IA, y el Sr. Bissell señaló que llevaban años desarrollando una "IA responsable".

"No todas las IA son iguales", dijo.

"Así que hemos construido una base de IA confiable, pero los atacantes están usando funciones de IA poco confiables.

"Así como los estafadores pueden escribir código rápidamente, también pueden hacerlo los actores responsables, y también los defensores."

El profesor Matthew Warren es director del Centro de Investigación e Innovación en Ciberseguridad de la Universidad RMIT.

Dijo que la mayoría de las estafas ya eran bien conocidas por los expertos, pero el uso de la inteligencia artificial las había llevado a un nuevo nivel.

"Creo que el gran volumen y la sofisticación con la que los estafadores utilizan la IA para mejorar... hará que sea mucho más difícil para las personas saber cuándo se han producido las estafas", declaró a la ABC.

La inteligencia artificial se ha infiltrado en casi todos los ámbitos de nuestras vidas. Entonces, con las elecciones federales a la vuelta de la esquina, ¿somos capaces de detectarla?

"Creo que se convertirá en un problema cada vez mayor, porque en cuanto a los estafadores, siempre decimos que trabajan con el cinco por ciento.

"Ese es el cinco por ciento de las personas que abren correos electrónicos o envían su información personal porque se les pide que lo hagan."

Lo que se observa es que, al aumentar el número de personas a las que pueden atacar, los estafadores obtendrán mayores beneficios comerciales.

Los estafadores operan como un modelo de negocio, y eso es lo que buscan: generar ganancias e ingresos.

Estafadores que utilizan chatbots de IA y sitios de compras

Anteriormente, según Microsoft, los actores de amenazas podían tardar días o semanas en crear sitios web de compras falsos y convincentes.

Las organizaciones criminales del Sudeste Asiático utilizan herramientas de IA como el intercambio de rostros y los chatbots para que sus estafas sean más eficientes y efectivas. Sin embargo, algunas operaciones parecen tener menos éxito con la nueva tecnología que otras.

Ahora, gracias a la IA, se pueden crear sitios web fraudulentos en cuestión de minutos.

Utilizando descripciones de productos, imágenes y reseñas de clientes generadas por IA, se engaña a los clientes haciéndoles creer que están interactuando con un comerciante genuino, lo que explota la confianza del consumidor en marcas conocidas, según el informe de Microsoft.

Los chatbots de atención al cliente con IA pueden añadir otra capa de engaño al interactuar de forma convincente con los clientes.

Estos bots pueden retrasar las devoluciones de cargos, engañando a los clientes con excusas preconcebidas y manipulando las quejas con respuestas generadas por IA que hacen que los sitios web fraudulentos parezcan profesionales.

Según Scamwatch, los australianos perdieron más dinero por estafas de compras en 2024 que por cualquier otro tipo de estafa reportada.

En total, 10.022 australianos reportaron pérdidas totales de 9,8 millones de dólares el año pasado.

La empresa de pagos ACI Worldwide informó que los australianos perdieron 1.224 millones de dólares en 2023, específicamente por estafas de pagos automáticos autorizados.

La estafa engañaba a las víctimas para que iniciaran un pago. El informe Scamscope de la empresa descubrió que la IA había permitido a los estafadores aumentar la confianza y automatizar ataques de precisión con sofisticación y a gran escala.

El gerente general de la empresa en el Pacífico, Trent Gunthorpe, afirmó que los estafadores pudieron desarrollar sus habilidades más rápido que... Antes.

"En la dark web, se puede comprar una estafa como servicio", dijo.

"El estafador invisible y poco sofisticado ahora puede comprar y volverse muy sofisticado rápidamente, comenzando a usar algunas de estas herramientas.

"Esto les permite, por ejemplo, extraer información de las redes sociales para personalizar los mensajes dirigidos a las posibles víctimas de la estafa.

"Hemos escuchado historias de empresas que han sido hackeadas y de que la información de los clientes ha sido robada y vendida en la dark web; es mucho más amplio".

La alfabetización digital es crucial para mantenerse a salvo

Para mantenerse a salvo, el informe de Microsoft recomendó a los compradores en línea evitar las compras impulsivas, hacer clic en anuncios no verificados y confiar en las "pruebas" de productos que ofrecen las redes sociales.

Para quienes buscan empleo, verificar las credenciales y las empresas, y desconfiar de las solicitudes de pagos por adelantado o información personal, fue clave.

"Si una entrevista en video parece poco natural, con retrasos en la sincronización de labios, voz robótica o expresiones faciales extrañas, podría tratarse de tecnología deepfake", afirma el informe.

Anuncios que muestran celebridades falsas generadas por IA han circulado en redes sociales.

Daswin de Silva, profesor de Análisis e IA de la Universidad La Trobe, afirmó que aspectos como la autenticación multifactor también son vitales para la seguridad.

"Lo que a menudo se pasa por alto es la cantidad de capacitación necesaria para estar digitalmente presente", afirmó.

"Realmente no consideramos la necesidad de capacitación inicial, sino también de rondas posteriores de capacitación para mantenerse [actualizado], por ejemplo, [sabiendo] que el phishing como servicio es una posibilidad.

"La alfabetización digital es crucial.

"Hay un retraso porque la IA que tenemos en redes sociales y en nuestros teléfonos inteligentes es bastante buena, y es muy fácil acceder a ella sin considerar el riesgo de seguridad.

"Pensamos en la seguridad como algo secundario. Al usar una contraseña, nunca se piensa primero en que te puedan hackear. Casi ni lo piensas.

"Siempre se trata de la comodidad."

Añadió que había un "ejército de personas" que buscaban activamente desbloquear modelos de IA, y añadió que el "ecosistema" de IA era tan bueno como cabía esperar.

"Hay muchas protecciones dentro de los grandes modelos, y las empresas tecnológicas son bastante responsables en su enfoque", afirmó.

"Suele encontrarse en redes sociales: 'Rompí ChatGPT y me dice cómo armar algún tipo de armamento'.

"Cada vez que se filtra algo, la empresa publica la solución."

La "carrera armamentística" de la IA entre estafadores, víctimas y corporaciones

El profesor Warren afirmó que muchas herramientas de IA habían comenzado a desarrollar "algoritmos éticos" para detener la generación de contenido fraudulento.

"Pero [los estafadores] aún pueden usar el sistema de IA para decir: 'Escríbeme una carta comercial a un posible empleado para que trabaje conmigo'", dijo.

Imágenes, videos y audio generados artificialmente han inundado internet en los últimos años. Responde a nuestro cuestionario para ver si puedes distinguir lo real de lo falso.

"Así que, aunque muchos de estos sitios de IA han introducido algoritmos éticos para intentar detener el mal comportamiento, puedes evitarlo fácilmente simplemente cambiando lo que le estás pidiendo que haga.

"Y no detectará que es una estafa. Simplemente cree que está generando un correo electrónico empresarial, por ejemplo.

El Departamento de Industria, Ciencia y Recursos de Australia publicó ocho "principios éticos" para herramientas de inteligencia artificial.

Entre ellos se incluye la necesidad de seguridad para mitigar los "posibles riesgos de abuso" y la necesidad de que los sistemas de IA no incurran en "engaños" ni en "manipulaciones injustas".

El profesor Warren afirmó que el problema requería "soluciones técnicas".

"Creo que se puede observar una especie de carrera armamentística en el desarrollo de tecnologías fraudulentas", dijo.

"Las grandes corporaciones intentan desarrollar soluciones, y los estafadores luego intentan encontrar formas de sortearlas. Así que creo que será un problema constante.

"Lo que realmente me sorprende es el gran volumen de ataques, el hecho de que Microsoft bloquee 1,6 millones de intentos de bots por hora.

"Pero lo que veremos en el futuro es que esa cifra aumentará exponencialmente".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd