Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4794

Incidentes Asociados

Incidente 9481 Reporte
Alleged FraudGPT-Enabled Phishing Attack Spoofs ChatGPT Subscription Service to Steal Credentials

Loading...
Se difunde una estafa de phishing falsa de ChatGPT Premium para robar credenciales de usuario
gbhackers.com · 2025

Una sofisticada campaña de phishing que se hace pasar por el servicio de suscripción ChatGPT Premium de OpenAI ha surgido a nivel mundial, y se dirige a los usuarios con solicitudes de pago fraudulentas para robar credenciales.

La empresa de ciberseguridad Symantec ha identificado recientemente correos electrónicos que suplantan la marca de ChatGPT, instando a los destinatarios a renovar una suscripción mensual ficticia de $24.

Los correos electrónicos, marcados con líneas de asunto como “Acción requerida: acceso continuo seguro a ChatGPT con una suscripción mensual de $24”, dirigen a los usuarios a enlaces maliciosos diseñados para recopilar detalles de inicio de sesión e información financiera.

La estafa aprovecha la adopción generalizada de ChatGPT, imitando las comunicaciones legítimas de OpenAI para parecer auténticas.

Los correos electrónicos suelen incluir logotipos y tipografías de aspecto oficial, con un texto que advierte que el acceso a las "funciones premium" caducará a menos que se actualicen los detalles de pago.

Los enlaces integrados dirigen a los usuarios a dominios de phishing como fnjrolpa.com, que albergan páginas de inicio de sesión de OpenAI falsificadas.

Symantec señaló que estos dominios, aunque ahora están fuera de línea, se registraron a través de direcciones IP internacionales para ocultar sus orígenes, lo que complica la trazabilidad.

Barracuda Networks observó campañas similares a fines de 2024, donde más de 1000 correos electrónicos se originaron en el dominio topmarinelogistics.com, una dirección de remitente no relacionada con OpenAI.

A pesar de pasar los controles de autenticación SPF y DKIM, los correos electrónicos contenían señales de alerta sutiles, incluidas fechas no coincidentes y un lenguaje urgente poco común en la correspondencia oficial.

Esta campaña refleja una tendencia más amplia de ciberdelincuentes que explotan herramientas de inteligencia artificial generativa para mejorar la eficacia del phishing.

Servicios fraudulentos como FraudGPT (un derivado de ChatGPT en la dark web) permiten a los estafadores crear correos electrónicos gramaticalmente impecables y contextualmente convincentes a gran escala, evitando los métodos de detección tradicionales.

El análisis de Microsoft de 2023 destacó que el contenido de phishing generado por IA ahora admite más de 20 idiomas, lo que amplía el alcance de los atacantes.

"Las estafas generadas por IA eliminan los errores ortográficos reveladores, lo que hace que incluso los usuarios más expertos sean vulnerables", dijo un portavoz de Barracuda.

Para combatir estas amenazas, los equipos de ciberseguridad recomiendan:

  • Examinar las URL: los servicios auténticos de OpenAI usan https://chat.openai.com, mientras que los sitios de phishing a menudo emplean errores ortográficos o dominios inusuales.
  • Habilitar la autenticación multifactor (MFA): agregar capas de seguridad reduce la eficacia del robo de credenciales.
  • Programas de capacitación: La capacitación regular de los empleados para identificar estafas impulsadas por IA es esencial, ya que el 60 % de los usuarios tiene dificultades para distinguir el contenido generado por máquinas.

El phishing sigue siendo el delito cibernético más frecuente, con 3400 millones de correos electrónicos no deseados enviados diariamente. A medida que las herramientas de IA reducen las barreras de entrada para los atacantes, el costo promedio de una filtración de datos ahora supera los $4 millones.

La estafa ChatGPT subraya la necesidad de estrategias de defensa proactivas, que combinen soluciones tecnológicas con la conciencia del usuario.

OpenAI reitera que las actualizaciones de suscripción se administran únicamente a través de su plataforma, e insta a los usuarios a informar las comunicaciones sospechosas directamente.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd