Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2489

Incidents associés

Incident 44325 Rapports
ChatGPT Abused to Develop Malicious Softwares

Loading...
Le côté obscur de ChatGPT : générer des logiciels malveillants fonctionnels
muycomputerpro.com · 2023

L'IA ouverte fait face à un nouveau défi difficile à arrêter ; l'utilisation malveillante de ChatGPT. Une étude développée par la société de sécurité Check Point Research révèle que la version bêta de ce chatbot IA a commencé à être utilisée dans des photos de cybercriminalité pour écrire à la fois des logiciels et des e-mails à des fins d'espionnage, de malware, de ransomware et d'espionnage. .

De cette manière, tout utilisateur sans être un expert pourrait manipuler des scripts pour effectuer des [cyberattaques avec ChatGPT](https://arstechnica.com/information-technology/2023/01/chatgpt-is-enabling-script- kiddies-to-write-functional-malware/). Les ** script kiddies ** ont émergé et se sont promenés librement, pouvant même faire de l'outil un favori sur le Dark Web.

Le code pionnier malveillant de ChatGPT

Un participant au forum a posté le script du premier code généré à l'aide de ChatGPT. Le code Python combinait diverses fonctions cryptographiques, chiffrement et déchiffrement. Ainsi, une partie du script était chargée de générer une clé à l'aide de la cryptographie à courbe elliptique et de la courbe ed25519, tandis qu'une autre partie utilisait un mot de passe chiffré pour chiffrer les fichiers système à l'aide des algorithmes Blowfish et Twofish. De même, un tiers a utilisé les clés RSA et les signatures numériques, la signature des messages et la fonction hash blake 2 pour comparer différents fichiers.

En conséquence, un script a été généré pour déchiffrer un seul fichier et y ajouter un code d'authentification de message à la fin. Il permettait également de chiffrer un chemin chiffré et de déchiffrer une liste de fichiers qu'il reçoit en argument.

Dans le même forum, selon le rapport de Check Point Research, un autre participant a posté deux exemples de code écrits avec ChatGPT. Le premier était un script Python pour le vol d'informations post-exploit. Il a recherché des fichiers spécifiques, les a copiés dans un répertoire temporaire, les a compressés, puis les a envoyés à un serveur entre les mains d'un attaquant.

Le deuxième malware, écrit avec Java, s'appuyait sur le téléchargement SSH et Telnet Putt, puis l'exécutait à l'aide de Powershell.

Par conséquent, ceux qui utilisent ces types de forums à ces fins essaient seulement d'endoctriner de nouveaux script kiddies afin qu'ils apprennent à utiliser ChatGPT comme malware, en modifiant facilement le code si des problèmes de syntaxe et de script spécifiques sont résolus.

Le marché du transfert de données

Le rapport fait également état d'une troisième utilisation criminelle de ChatGPT, à cette occasion, pour créer un bazar automatique qui permettrait d'acheter et d'échanger illégalement des mots de passe, des coordonnées bancaires et d'autres services. Pour cela, une interface de programmation a été utilisée qui a permis de sauvegarder les prix actuels des crypto-monnaies et, à partir de ce moment, de fixer le prix des transactions.

Il semble que début novembre, les chercheurs de Check Point aient testé l'utilisation de ChatGPT pour générer des logiciels malveillants à partir d'un ** e-mail de phishing **, en masquant le script dans un fichier Excel qui lui était joint. Comme ils ont demandé à plusieurs reprises au chatbot de générer le code, sa qualité, et donc son effet malveillant, s'est améliorée.

Ils ont ensuite incorporé Codex, un service d'intelligence artificielle plus avancé, pour développer d'autres logiciels malveillants, notamment un reverse shell et des scripts qui permettraient l'analyse des ports, la détection du bac à sable et la compilation de leur code Python dans un exécutable Windows.

C'est la question que se posent les utilisateurs, puisque l'outil Open AI interdit strictement son utilisation à des fins illégales et malveillantes, bien que les requêtes à VirusTotal soient de plus en plus générales pour connaître les détections d'un ** hash cryptographique spécifique **.

L'avenir est incertain et, pour l'instant, on s'attend à ce que ChatGPT continue d'être utilisé pour des études et des essais scientifiques, mais le piratage est une menace latente.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd