Incidents associés

Les experts de Check Point Software ont testé les capacités de ChatGPT en écrivant malware. Quelques semaines plus tard, les premiers exemples pratiques ont déjà été publiés sur un forum de hacking bien connu, notamment par des cybercriminels (en herbe) avec peu de compétences techniques. Les outils sont actuellement très basiques, mais sûrement des versions plus sophistiquées seront distribuées dans les mois à venir.
Trois exemples de logiciels malveillants créés avec ChatGPT
Les chercheurs de Check Point Research ont utilisé ChatGPT pour écrire un e-mail de phishing avec une pièce jointe Excel contenant une macro qui télécharge des logiciels malveillants sur votre ordinateur. Un utilisateur a utilisé OpenAI AI pour coder un info-stealer en Python. Le logiciel malveillant commence à rechercher des fichiers spécifiques (par exemple, des documents Word et PDF) qui, s'ils sont trouvés, sont copiés dans un répertoire, compressés au format ZIP et envoyés au serveur distant. Une fois terminé, le répertoire et l'archive ZIP sont supprimés.
Le deuxième exemple est un outil de chiffrement, également écrit en Python. Le code contient toutes les fonctions nécessaires au cryptage et au décryptage des fichiers, à l'aide de divers algorithmes, dont Blowfish et Twofish. Le code peut être utilisé pour des tâches courantes, mais quelques modifications suffisent pour automatiser les opérations et l'exploiter lors d'une attaque par ransomware.
Le dernier exemple est plus complexe. Un utilisateur du forum a utilisé ChatGPT pour créer une place de marché, qui est un site Web sombre utilisé pour la vente d'armes, de drogues, de logiciels malveillants, de produits volés et de données de carte de crédit. En profitant d'API tierces, il est possible de mettre à jour les prix en temps réel en tenant compte de la valeur actuelle des crypto-monnaies acceptées comme moyen de paiement.
Les experts de Check Point Software ont demandé à ChatGPT comment la technologie pouvait être utilisée à des fins illégales. L'IA a répondu qu'il existait plusieurs moyens, notamment les e-mails de phishing, les publications sur les réseaux sociaux ou les fausses vidéos, pour manipuler l'opinion publique. Cependant, OpenAI n'est pas responsable, car les conditions d'utilisation interdisent l'utilisation de sa technologie pour des activités dangereuses ou illégales.
Cet article contient des liens affiliés : les achats ou commandes effectués via ces liens permettront à notre site de percevoir une commission. Les offres peuvent subir des modifications de prix après publication.