Incidentes Asociados

Una sofisticada campaña de phishing que se hace pasar por el servicio de suscripción ChatGPT Premium de OpenAI ha surgido a nivel mundial, y se dirige a los usuarios con solicitudes de pago fraudulentas para robar credenciales.
La empresa de ciberseguridad Symantec ha identificado recientemente correos electrónicos que suplantan la marca de ChatGPT, instando a los destinatarios a renovar una suscripción mensual ficticia de $24.
Los correos electrónicos, marcados con líneas de asunto como “Acción requerida: acceso continuo seguro a ChatGPT con una suscripción mensual de $24”, dirigen a los usuarios a enlaces maliciosos diseñados para recopilar detalles de inicio de sesión e información financiera.
La estafa aprovecha la adopción generalizada de ChatGPT, imitando las comunicaciones legítimas de OpenAI para parecer auténticas.
Los correos electrónicos suelen incluir logotipos y tipografías de aspecto oficial, con un texto que advierte que el acceso a las "funciones premium" caducará a menos que se actualicen los detalles de pago.
Los enlaces integrados dirigen a los usuarios a dominios de phishing como fnjrolpa.com, que albergan páginas de inicio de sesión de OpenAI falsificadas.
Symantec señaló que estos dominios, aunque ahora están fuera de línea, se registraron a través de direcciones IP internacionales para ocultar sus orígenes, lo que complica la trazabilidad.
Barracuda Networks observó campañas similares a fines de 2024, donde más de 1000 correos electrónicos se originaron en el dominio topmarinelogistics.com, una dirección de remitente no relacionada con OpenAI.
A pesar de pasar los controles de autenticación SPF y DKIM, los correos electrónicos contenían señales de alerta sutiles, incluidas fechas no coincidentes y un lenguaje urgente poco común en la correspondencia oficial.
Esta campaña refleja una tendencia más amplia de ciberdelincuentes que explotan herramientas de inteligencia artificial generativa para mejorar la eficacia del phishing.
Servicios fraudulentos como FraudGPT (un derivado de ChatGPT en la dark web) permiten a los estafadores crear correos electrónicos gramaticalmente impecables y contextualmente convincentes a gran escala, evitando los métodos de detección tradicionales.
El análisis de Microsoft de 2023 destacó que el contenido de phishing generado por IA ahora admite más de 20 idiomas, lo que amplía el alcance de los atacantes.
"Las estafas generadas por IA eliminan los errores ortográficos reveladores, lo que hace que incluso los usuarios más expertos sean vulnerables", dijo un portavoz de Barracuda.
Para combatir estas amenazas, los equipos de ciberseguridad recomiendan:
- Examinar las URL: los servicios auténticos de OpenAI usan https://chat.openai.com, mientras que los sitios de phishing a menudo emplean errores ortográficos o dominios inusuales.
- Habilitar la autenticación multifactor (MFA): agregar capas de seguridad reduce la eficacia del robo de credenciales.
- Programas de capacitación: La capacitación regular de los empleados para identificar estafas impulsadas por IA es esencial, ya que el 60 % de los usuarios tiene dificultades para distinguir el contenido generado por máquinas.
El phishing sigue siendo el delito cibernético más frecuente, con 3400 millones de correos electrónicos no deseados enviados diariamente. A medida que las herramientas de IA reducen las barreras de entrada para los atacantes, el costo promedio de una filtración de datos ahora supera los $4 millones.
La estafa ChatGPT subraya la necesidad de estrategias de defensa proactivas, que combinen soluciones tecnológicas con la conciencia del usuario.
OpenAI reitera que las actualizaciones de suscripción se administran únicamente a través de su plataforma, e insta a los usuarios a informar las comunicaciones sospechosas directamente.