Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4794

Incidents associés

Incident 9481 Rapport
Alleged FraudGPT-Enabled Phishing Attack Spoofs ChatGPT Subscription Service to Steal Credentials

Loading...
Une fausse arnaque de phishing ChatGPT Premium se propage pour voler les identifiants des utilisateurs
gbhackers.com · 2025

Une campagne de phishing sophistiquée se faisant passer pour le service d'abonnement ChatGPT Premium d'OpenAI a connu une forte croissance à l'échelle mondiale, ciblant les utilisateurs avec des demandes de paiement frauduleuses pour voler leurs identifiants.

La société de cybersécurité Symantec a récemment identifié des e-mails usurpant l'image de marque de ChatGPT, exhortant les destinataires à renouveler un abonnement mensuel fictif de 24 $.

Les e-mails, marqués d'objets tels que _« Action requise : sécuriser l'accès continu à ChatGPT avec un abonnement mensuel de 24 $ », _ dirigent les utilisateurs vers des liens malveillants conçus pour collecter des informations de connexion et des informations financières.

L'arnaque tire parti de l'adoption généralisée de ChatGPT, en reflétant les communications légitimes d'OpenAI pour paraître authentiques.

Les e-mails contiennent souvent des logos et des typographies d'apparence officielle, avec un texte de corps avertissant que l'accès aux « fonctionnalités premium » expirera à moins que les détails de paiement ne soient mis à jour.

Les liens intégrés dirigent les utilisateurs vers des domaines de phishing tels que fnjrolpa.com, qui hébergent des pages de connexion OpenAI contrefaites.

Symantec a noté que ces domaines, bien que désormais hors ligne, ont été enregistrés via des adresses IP internationales pour masquer leurs origines, ce qui complique la traçabilité.

Barracuda Networks a observé des campagnes similaires fin 2024, où plus de 1 000 e-mails provenaient du domaine topmarinelogistics.com, une adresse d'expéditeur sans rapport avec OpenAI.

Malgré avoir réussi les contrôles d'authentification SPF et DKIM, les e-mails contenaient des signaux d'alarme subtils, notamment des dates non concordantes et un langage urgent peu courant dans la correspondance officielle.

Cette campagne reflète une tendance plus large des cybercriminels à exploiter les outils d'IA générative pour améliorer l'efficacité du phishing.

Les services frauduleux comme FraudGPT, un dérivé du dark web de ChatGPT, permettent aux escrocs de créer des e-mails grammaticalement irréprochables et contextuellement convaincants à grande échelle, en contournant les méthodes de détection traditionnelles.

L'analyse de Microsoft de 2023 a souligné que le contenu de phishing généré par l'IA prend désormais en charge plus de 20 langues, ce qui élargit la portée des attaquants.

« Les escroqueries générées par l'IA éliminent les fautes d'orthographe révélatrices, rendant même les utilisateurs avertis vulnérables », a déclaré un porte-parole de Barracuda.

Pour lutter contre ces menaces, les équipes de cybersécurité recommandent :

  • Examiner les URL : les services OpenAI authentiques utilisent https://chat.openai.com, tandis que les sites de phishing utilisent souvent des fautes d'orthographe ou des domaines inhabituels.
  • Activer l'authentification multifacteur (MFA) : l'ajout de couches de sécurité réduit l'efficacité du vol d'informations d'identification.
  • Programmes de formation : il est essentiel de former régulièrement les employés à l’identification des escroqueries basées sur l’IA, car 60 % des utilisateurs ont du mal à distinguer le contenu généré par les machines.

Le phishing reste le cybercrime le plus répandu, avec 3,4 milliards de courriers indésirables envoyés chaque jour.  Les outils d’IA réduisant les barrières à l’entrée pour les attaquants, le coût moyen d’une violation de données dépasse désormais 4 millions de dollars. 

L’escroquerie ChatGPT souligne la nécessité de stratégies de défense proactives, alliant solutions technologiques et sensibilisation des utilisateurs.

OpenAI réitère que les mises à jour des abonnements sont gérées uniquement via sa plateforme, incitant les utilisateurs à signaler directement les communications suspectes.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd