Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2559

Incidents associés

Incident 44325 Rapports
ChatGPT Abused to Develop Malicious Softwares

Oui, ChatGPT peut écrire du code malveillant - mais pas bien
washingtonpost.com · 2023

Bienvenue dans The Cybersecurity 202 ! J'ai accidentellement déclenché des débats sur la fausse viande avec le bavardage d'hier. Pour mémoire, Beyond Burger is  bon, mais je préfère Impossible Burger. De plus, je creuse encore parfois de la "fausse viande" qui n'essaie même pas vraiment de goûter comme de la viande, comme un hamburger aux haricots noirs épicés.

Ci-dessous : la Grèce continue d'être aux prises avec un scandale de logiciels espions, et les autorités disent avoir arrêté quelqu'un qui a vendu des données sur des millions d'Autrichiens. D'abord:

Les pirates utilisent ce chatbot IA comme une arme, mais il ne peut pas faire grand-chose - pour l'instant


Les utilisateurs de ChatGPT ont utilisé le chatbot d'intelligence artificielle pour un large éventail de tâches, l'utilisant pour [rédiger une législation](https://archive.is/o/NMh23/https://www.washingtonpost.com/politics/2023 /01/23/chatgpt-is-now-writing-legislation-is-this-future/?itid=lk_inline_manual_6), [composer une chanson de rap](https://archive.is/o/NMh23/https:// www.washingtonpost.com/opinions/interactive/2022/chatgpt-questions-predictions-ethics/?itid=lk_inline_manual_6) à propos des qualifications de PDG technologique et [écrire une lettre de motivation](https://archive.is/o/NMh23/https ://www.washingtonpost.com/technology/2023/01/18/chatgpt-personal-use/?itid=lk_inline_manual_6) pour postuler à un emploi en tant que consommateur professionnel d'aliments pour chiens.

Naturellement, l'outil d'IA a également été un sujet de fascination dans le monde de la cybersécurité. Pour l'instant, l'impact potentiel de ChatGPT dans des domaines tels que l'écriture de logiciels malveillants est réel mais limité, [conclut un rapport](https://archive.is/o/NMh23/https://www.recordedfuture.com/i -chatbot) de Recorded Future ce matin.

Quelques jours après le lancement de ChatGPT il y a près de deux mois, le rapport de Recorded Future a trouvé des exemples sur le dark web de cybercriminels faisant de la publicité "buguée, mais fonctionnelle, des logiciels malveillants, des didacticiels d'ingénierie sociale, des escroqueries et des stratagèmes pour gagner de l'argent, et plus encore", tous activés par ChatGPT.

"Bien qu'aucune de ces activités n'ait atteint la gravité de l'impact des ransomwares, de l'extorsion de données, du déni de service, du cyberterrorisme, etc., ces vecteurs d'attaque restent des possibilités futures", indique le rapport de la société de cybersécurité. Recorded Future a également déclaré que le matériel malveillant qu'ils ont examiné n'atteint pas le calibre des logiciels malveillants que les pirates soutenus par le pays utiliseraient, soulignant des limitations supplémentaires pour le moment.

** Les cyber-utilisations potentielles de ChatGPT ne s'arrêtent pas non plus aux logiciels malveillants. Ils incluent des applications telles que le développement de leurres de phishing et la diffusion de fausses informations - ou même, à l'inverse, aider les cyberpros à contrer les cybermenaces.**

Les infos jusqu'à présent

Le rapport Recorded Future s'appuie sur un ensemble solide d'études et d'examens liés à la cybersécurité de ChatGPT et d'outils similaires :

  • Le mois dernier, la cyberentreprise Check Point a démontré comment les chercheurs pouvaient utiliser ChatGPT pour [générer chaque étape du processus](https://archive.is/o/NMh23/https://research.checkpoint.com/2022/opwnai- ai-that-can-save-the-day-or-hack-it-away/) par lequel les pirates infectent les victimes. Des recherches ultérieures de l'entreprise ont trouvé des exemples de la façon dont les pirates russes [essayaient de contourner les protections](https://archive.is/o/NMh23/https://blog.checkpoint.com/2023/01/13/russian- hackers-attempt-to-bypass-openais-restrictions-for-malicious-use-of-chatgpt/) de son développeur, OpenAI, qui visent à empêcher son utilisation abusive.
  • Les chercheurs d'OpenAI eux-mêmes ont collaboré avec l'Université de Stanford et l'Université de Georgetown - bien que principalement avant le lancement de ChatGPT - sur un rapport publié ce mois-ci qui [met en garde contre les dangers](https://archive.is/o/NMh23/https://openai. com/blog/forecasting-misuse/) des campagnes d'influence assistées par l'IA. Lundi, des chercheurs de NewsGuard, qui surveille la désinformation en ligne, ont produit une étude sur l'efficacité de ChatGPT pour [écrire des informations erronées "éloquentes, fausses et trompeuses"](https://archive.is/o/NMh23/https://www .washingtonpost.com/politics/learning-to-lie-ai-tools-adept-at-creating-disinformation/2023/01/24/0ddba552-9bf8-11ed-93e0-38551e88239c_story.html?itid=lk_inline_manual_18) 80 % des le temps.
  • Les chercheurs de CyberArk la semaine dernière sont allés jusqu'à conclure que ChatGPT [pourrait écrire des logiciels malveillants](https://archive.is/o/NMh23/https://gizmodo.com/chatgpt-ai-polymorphic-malware-computer-virus -cyber-1850012195?utm_source=twitter&utm_medium=SocialMarketing&utm_campaign=dlvrit&utm_content=gizmodo) capable de muter son apparence pour esquiver la détection. Et les Redditors font partie de ceux qui ont des [options de cyber-crowdsourcing](https://archive.is/o/NMh23/https://blogs.blackberry.com/en/2023/01/chatgpt-and-cybersecurity-what-does -ça veut dire) pour ChatGPT.

** Mais tout n'est pas mauvais. Juan Andres Guerrero-Saade**, directeur principal de SentinelLabs au sein de la société de cybersécurité SentinelOne, a déclaré à Bloomberg News Katrina Manson que ChatGPT connaît mieux le code informatique que lui lorsqu'il s'agit d'essayer [d'apprendre les secrets des logiciels malveillants code] (https://archive.is/o/NMh23/https://www.bloomberg.com/news/articles/2023-01-11/chatgpt-poses-propaganda-and-hacking-risks-researchers-say ).

"Il n'y a vraiment pas beaucoup d'analystes de logiciels malveillants dans le monde en ce moment", a-t-il déclaré. "Il s'agit donc d'un multiplicateur de force considérable."

Le matériel que Recorded Future a trouvé sur le dark web n'était pas seulement une fanfaronnade stéréotypée de cybercriminels, car l'entreprise a pu reproduire le travail de manière indépendante. Ce n'était pas entièrement exempt d'auto-promotion, bien sûr : certains des membres du forum ont vanté les études susmentionnées et des articles de presse à leur sujet, pour vanter leur bonne foi.

Il y avait cependant des limites à la qualité du logiciel malveillant activé par ChatGPT. "Nous ne pensons pas, pour le moment, que les acteurs des États-nations aient une utilisation de ChatGPT plus efficace que les outils et ressources actuellement disponibles. pour eux », a déclaré Recorded Future.

** L'une des leçons les plus importantes des études ChatGPT jusqu'à présent est qu'il importe énormément de savoir qui l'utilise. **

"Nous pensons que ChatGPT abaisse la barrière à l'entrée pour les acteurs de la menace ayant des capacités de programmation ou des compétences techniques limitées", a observé le rapport de Recorded Future. "Afin de maximiser son utilisation, ChatGPT nécessite au moins un niveau de compréhension de base à intermédiaire des principes fondamentaux de la cybersécurité et de l'informatique. ChatGPT n'est pas immédiatement utilisable "hors de la boîte", sans connaissances préalables."

Ou, comme l'a dit Thomas Rid de Johns Hopkins après plusieurs jours de cours avec ChatGPT :

Les limites d'aujourd'hui, cependant, ne signifient pas nécessairement des limites demain.

"Avec le développement continu de modèles d'intelligence artificielle avancés comme ChatGPT, nous nous attendons à ce que ces technologies voient leur vitesse, leur précision et leur compréhension augmenter, ce qui pourrait fournir des fonctionnalités supplémentaires pour gérer des tâches plus complexes à l'avenir", a déclaré Recorded Future dans la conclusion de son rapport.

"Notamment, ces tâches pourraient inclure la gestion des entrées d'un large éventail de types de données - bien au-delà des simples formats textuels - offrant potentiellement aux acteurs malveillants des moyens supplémentaires d'assembler rapidement du code ou d'autres infrastructures malveillantes."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178