Incidents associés

Une campagne de phishing sophistiquée se faisant passer pour le service d'abonnement ChatGPT Premium d'OpenAI a connu une forte croissance à l'échelle mondiale, ciblant les utilisateurs avec des demandes de paiement frauduleuses pour voler leurs identifiants.
La société de cybersécurité Symantec a récemment identifié des e-mails usurpant l'image de marque de ChatGPT, exhortant les destinataires à renouveler un abonnement mensuel fictif de 24 $.
Les e-mails, marqués d'objets tels que _« Action requise : sécuriser l'accès continu à ChatGPT avec un abonnement mensuel de 24 $ », _ dirigent les utilisateurs vers des liens malveillants conçus pour collecter des informations de connexion et des informations financières.
L'arnaque tire parti de l'adoption généralisée de ChatGPT, en reflétant les communications légitimes d'OpenAI pour paraître authentiques.
Les e-mails contiennent souvent des logos et des typographies d'apparence officielle, avec un texte de corps avertissant que l'accès aux « fonctionnalités premium » expirera à moins que les détails de paiement ne soient mis à jour.
Les liens intégrés dirigent les utilisateurs vers des domaines de phishing tels que fnjrolpa.com, qui hébergent des pages de connexion OpenAI contrefaites.
Symantec a noté que ces domaines, bien que désormais hors ligne, ont été enregistrés via des adresses IP internationales pour masquer leurs origines, ce qui complique la traçabilité.
Barracuda Networks a observé des campagnes similaires fin 2024, où plus de 1 000 e-mails provenaient du domaine topmarinelogistics.com, une adresse d'expéditeur sans rapport avec OpenAI.
Malgré avoir réussi les contrôles d'authentification SPF et DKIM, les e-mails contenaient des signaux d'alarme subtils, notamment des dates non concordantes et un langage urgent peu courant dans la correspondance officielle.
Cette campagne reflète une tendance plus large des cybercriminels à exploiter les outils d'IA générative pour améliorer l'efficacité du phishing.
Les services frauduleux comme FraudGPT, un dérivé du dark web de ChatGPT, permettent aux escrocs de créer des e-mails grammaticalement irréprochables et contextuellement convaincants à grande échelle, en contournant les méthodes de détection traditionnelles.
L'analyse de Microsoft de 2023 a souligné que le contenu de phishing généré par l'IA prend désormais en charge plus de 20 langues, ce qui élargit la portée des attaquants.
« Les escroqueries générées par l'IA éliminent les fautes d'orthographe révélatrices, rendant même les utilisateurs avertis vulnérables », a déclaré un porte-parole de Barracuda.
Pour lutter contre ces menaces, les équipes de cybersécurité recommandent :
- Examiner les URL : les services OpenAI authentiques utilisent https://chat.openai.com, tandis que les sites de phishing utilisent souvent des fautes d'orthographe ou des domaines inhabituels.
- Activer l'authentification multifacteur (MFA) : l'ajout de couches de sécurité réduit l'efficacité du vol d'informations d'identification.
- Programmes de formation : il est essentiel de former régulièrement les employés à l’identification des escroqueries basées sur l’IA, car 60 % des utilisateurs ont du mal à distinguer le contenu généré par les machines.
Le phishing reste le cybercrime le plus répandu, avec 3,4 milliards de courriers indésirables envoyés chaque jour. Les outils d’IA réduisant les barrières à l’entrée pour les attaquants, le coût moyen d’une violation de données dépasse désormais 4 millions de dollars.
L’escroquerie ChatGPT souligne la nécessité de stratégies de défense proactives, alliant solutions technologiques et sensibilisation des utilisateurs.
OpenAI réitère que les mises à jour des abonnements sont gérées uniquement via sa plateforme, incitant les utilisateurs à signaler directement les communications suspectes.