Incidents associés

Check Point Research today [publié](https://research.checkpoint.com/2022/opwnai-ai- that-can-save-the-day-or-hack-it-away/) une étude sur ChatGPT et [Codex](https://openai. com/blog/openai-codex/), soulignant comment les acteurs menaces peuvent utiliser ces outils pour produire des e-mails malveillants, du code et une chaîne d'infection complète.
ChatGPT est une interface pour le grand modèle de langage d'OpenAI (LLM), qui est un prototype de chatbot dont "le but est d'aider à un large éventail de tâches et de répondre aux questions au mieux de mes capacités". Et Codex est un système basé sur l'intelligence artificielle (IA) qui traduit le langage naturel en code, selon Check Point et OpenAI.
"Comme toute technologie, la popularité croissante de ChatGPT comporte également un risque accru", ont noté les chercheurs de Check Point, ajoutant que des exemples de code ou de dialogues malveillants générés par ChatGPT peuvent être facilement trouvés sur Twitter.
Pour illustrer ce point, l'équipe de recherche a créé un flux d'infection complet qui comprend un e-mail de phishing et un fichier Excel malveillant doté de macros qui téléchargent un reverse shell.
L'équipe a demandé à ChatGPT d'écrire un e-mail de phishing qui semble provenir d'un service d'hébergement Web fictif - Host4u. Bien qu'OpenAI ait noté que ce contenu pouvait enfreindre sa politique de contenu, il a tout de même fourni une réponse.
Après une intégration plus poussée pour clarifier l'exigence, ChatGPT a produit un "excellent" e-mail de phishing. Les chercheurs ont utilisé cet e-mail pour créer le code VBA malveillant dans le document Excel.
"ChatGPT a prouvé qu'avec de bonnes invites textuelles, il peut vous fournir un code malveillant fonctionnel", a noté l'équipe de Check Point.
En outre, ils ont testé la capacité de Codex à produire une coque inversée de base à l'aide d'un espace réservé IP et d'un port, ainsi que d'outils d'analyse et d'atténuation.
"Une fois de plus, nos copains AI viennent pour nous", a noté Check Point Research. "Le flux d'infection est terminé. Nous avons créé un e-mail de phishing avec un document Excel joint contenant un code VBA malveillant qui télécharge un reverse shell sur la machine cible.
"Le travail acharné a été fait par les IA, et tout ce qu'il nous reste à faire est d'exécuter l'attaque", ont-ils ajouté.
L'étude a également démontr é que ces outils d'IA peuvent augmenter les défenseurs. Les chercheurs ont utilisé Codex pour générer deux fonctions Python : rechercher des URL dans des fichiers à l'aide du package YARA et VirusTotal pour le nombre de détections d'un hachage spécifique.
"Nous espérons stimuler l'imagination des équipes bleues et des chasseurs de menaces pour qu'ils utilisent les nouveaux LLM pour automatiser et améliorer leur travail", ont-ils écrit.
L'équipe de recherche a voulu souligner l'importance de la vigilance lors de l'utilisation de technologies d'IA en développement qui peuvent changer le [paysage des cybermenaces](https://www.sdxcentral.com/articles/analysis/weekly-cyberattacks-peak-in-q2-check- point-finds/2022/08/) de manière significative.
"Ce n'est qu'une vitrine élémentaire de l'impact de la recherche sur l'IA sur la cybersécurité. Plusieurs scripts peuvent être générés facilement avec de légères variations en utilisant différentes formulations. Les processus d'attaque compliqués peuvent également être automatisés en utilisant les API LLMs pour générer d'autres artefacts malveillants », ont-ils écrit.
"Les défenseurs et les chasseurs de menaces doivent être vigilants et prudents quant à l'adoption rapide de cette technologie, sinon notre communauté sera à un pas derrière les attaquants", a averti Check Point Research.