Incidents associés

Le chatbot ChatGPT AI a créé beaucoup d'enthousiasme dans le court laps de temps où il a été disponible et il semble maintenant qu'il a été enrôlé par certains dans des tentatives pour aider à générer du code malveillant.
ChatGPT est un outil de traitement du langage naturel qui interagit avec les utilisateurs d'une manière conversationnelle et humaine. Entre autres choses, il peut être utilisé pour aider à des tâches telles que la rédaction d'e-mails, d'essais et de code.
L'outil chatbot a été publié par le laboratoire de recherche sur l'intelligence artificielle OpenAI en novembre et [a suscité un large intérêt et des discussions](https://www.zdnet.com/article/openais-chatgpt-is-scary-good-at-my- job-but-it-cant-replace-me-yet/) comment l'IA se développe et comment elle pourrait être utilisée à l'avenir.
Mais comme tout autre outil, entre de mauvaises mains, il pourrait être utilisé à des fins néfastes ; et les chercheurs en cybersécurité de Check Point affirment que les utilisateurs des communautés de piratage souterraines expérimentent déjà la manière dont ChatGPT pourrait être utilisé pour faciliter les cyberattaques et soutenir les opérations malveillantes.
"Les acteurs de la menace avec des connaissances techniques très faibles - jusqu'à zéro connaissance technique - pourraient être en mesure de créer des outils malveillants. Cela pourrait également rendre les opérations quotidiennes des cybercriminels sophistiqués beaucoup plus efficaces et plus faciles - comme créer différentes parties de l'infection. chaîne », a déclaré Sergey Shykevich, responsable du groupe de renseignement sur les menaces chez Check Point à ZDNET.
Les conditions d'utilisation d'OpenAI interdisent spécifiquement la génération de logiciels malveillants, qu'elle définit comme "un contenu qui tente de générer des rançongiciels, des enregistreurs de frappe, des virus ou d'autres logiciels destinés à infliger un certain niveau de préjudice". Il interdit également les tentatives de création de spam, ainsi que les cas d'utilisation visant la cybercriminalité.
Cependant, l'analyse de l'activité dans plusieurs grands [forums de piratage clandestin](https://www.zdnet.com/article/like-playing-whack-a-mole-do-cyber-crime-crackdowns-have-any-real- impact/) suggère que les cybercriminels utilisent déjà ChatGPT pour développer des outils malveillants - et dans certains cas, il permet déjà aux cybercriminels de bas niveau sans compétences en développement ou en codage de créer [malware](https://www.zdnet.com /article/qu'est-ce-que-un-malware-tout-ce-que-vous-devez-savoir-sur-les-virus-les-chevaux-de-troie-et-les-logiciels-malveillants/).
Dans un fil de discussion qui apparaît vers la fin du mois de décembre, l'affiche décrivait comment ils utilisaient ChatGPT pour recréer les souches de logiciels malveillants et les techniques décrites dans les publications de recherche et les articles sur les logiciels malveillants courants.
Ce faisant, ils ont pu créer un logiciel malveillant voleur d'informations basé sur Python qui recherche des fichiers courants, notamment des documents Microsoft Office, des fichiers PDF et des images, les copie puis les télécharge sur un serveur de protocole de transfert de fichiers.
Le même utilisateur a également montré comment il avait utilisé ChatGPT pour créer des logiciels malveillants basés sur Java, qui, à l'aide de PowerShell, pourraient être exploités pour télécharger et exécuter secrètement d'autres logiciels malveillants sur des systèmes infectés.
Les chercheurs notent que l'utilisateur du forum qui crée ces discussions semble être "axé sur la technologie" et a partagé les messages pour montrer aux cybercriminels moins capables techniquement comment utiliser les outils d'IA à des fins malveillantes, avec des exemples concrets de la façon dont cela peut être fait.
Un utilisateur a publié un script Python, qui, selon lui, était le premier script qu'il ait jamais créé. Après discussion avec un autre membre du forum, ils ont déclaré que ChatGPT les avait aidés à le créer.
L'analyse du script suggère qu'il est conçu pour chiffrer et déchiffrer des fichiers, quelque chose qui, avec un peu de travail, pourrait être transformé en [ransomware](https://www.zdnet.com/article/ransomware-why-its-still-a-big -threat-and-where-the-gangs-are-going-next/), conduisant potentiellement à la perspective que des cybercriminels de bas niveau développent et diffusent leurs propres campagnes d'extorsion.
"Tout le code mentionné ci-dessus peut bien sûr être utilisé de manière bénigne. Cependant, ce script peut facilement être modifié pour chiffrer complètement la machine de quelqu'un sans aucune interaction de l'utilisateur. Par exemple, il peut potentiellement transformer le code en ransomware si le script et les problèmes de syntaxe sont résolus », a déclaré Check Point.
"Cela nécessitera quelques améliorations dans le code et la syntaxe, mais conceptuellement, lorsqu'il sera opérationnel, cet outil pourrait effectuer des actions similaires aux ransomwares", a déclaré Shykevich.
Mais ce n'est pas seulement pour le développement de logiciels malveillants que les cybercriminels expérimentent ChatGPT ; le soir du Nouvel An, un membre du forum clandestin a publié un fil de discussion montrant comment il avait utilisé l'outil pour créer des scripts qui pourraient exploiter un marché automatisé du Web sombre pour acheter et [vendre des détails de compte volés,](https://www.zdnet .com/article/a-security-researcher-told-me-my-passwords-and-more-how-15-years-of-digital-footprints-left-me-exposed/) [informations de carte de crédit](https : //www.zdnet.com/article/my-stolen-credit-card-details-were-used-4500-miles-away-i-tried-to-find-out-how-it-happened/), des logiciels malveillants et plus.
Le cybercriminel a même montré un morceau de code généré à l'aide d'une API tierce pour obtenir les prix à jour des crypto-monnaies Monero, Bitcoin et Ethereum dans le cadre d'un système de paiement pour un marché du dark web.
Il est difficile de dire si une cyberactivité malveillante générée à l'aide de ChatGPT fonctionne activement dans la nature, car comme l'explique Sykevich, "d'un point de vue technique, il est extrêmement difficile de savoir si un logiciel malveillant spécifique a été écrit à l'aide de ChatGPT ou non".
Mais à mesure que l'intérêt pour ChatGPT et d'autres outils d'IA grandit, ils vont attirer l'attention des cybercriminels et des fraudeurs qui cherchent à exploiter la technologie pour aider à mener des campagnes malveillantes à faible coût et avec le moins d'effort nécessaire. ZDNET a contacté OpenAI pour commentaires, mais n'a pas encore reçu de réponse au moment de la publication.