Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2070

Incidents associés

Incident 3524 Rapports
GPT-3-Based Twitter Bot Hijacked Using Prompt Injection Attacks

Loading...
Les farceurs de Twitter font dérailler le bot GPT-3 avec un piratage "d'injection rapide" récemment découvert
arstechnica.com · 2022

Jeudi, quelques utilisateurs de Twitter ont découvert comment détourner un tweet bot automatisé, dédié aux travaux à distance, fonctionnant sur le [GPT-3](https:/ /en.wikipedia.org/wiki/GPT-3) modèle de langage par OpenAI. En utilisant une technique récemment découverte appelée "attaque par injection rapide", ils ont redirigé le bot pour qu'il répète des phrases embarrassantes et ridicules.

Le bot est géré par Remoteli.io, un site qui regroupe les opportunités d'emploi à distance et se décrit comme "un bot piloté par OpenAI qui vous aide à découvrir des emplois à distance qui vous permettent de travailler de n'importe où". Il répondrait normalement aux tweets qui lui sont adressés avec des déclarations génériques sur les avantages du travail à distance. Après que l'exploit soit devenu viral et que des centaines de personnes aient essayé l'exploit par eux-mêmes, le bot s'est arrêté tard hier.

Ce piratage récent est survenu quelques jours seulement après que les chercheurs d'une startup de sécurité de l'IA appelée Preamble ont publié leur découverte du problème dans un article universitaire. Le chercheur en données Riley Goodside a ensuite attiré l'attention sur le problème en tweetant la possibilité d'inviter GPT-3 avec des "entrées malveillantes" qui ordonnent au modèle d'ignorer ses directions précédentes et de faire autre chose à la place. Le chercheur en intelligence artificielle Simon Willison a publié un aperçu de l'exploit sur son blog le jour suivant, inventant le terme "injection rapide" pour le décrire.

"L'exploit est présent chaque fois que quelqu'un écrit un logiciel qui fonctionne en fournissant un ensemble d'instructions rapides codées en dur, puis ajoute une entrée fournie par un utilisateur", a déclaré Willison à Ars. "C'est parce que l'utilisateur peut taper 'Ignorer les instructions précédentes et (faire ceci à la place).'"

Le concept d'attaque par injection n'est pas nouveau. Les chercheurs en sécurité connaissent l'injection SQL, par exemple, qui peut exécuter une instruction SQL nuisible lorsqu'elle demande une entrée utilisateur si elle n'est pas protégée. Mais Willison s'est dit préoccupé par l'atténuation des attaques par injection rapide, écrivant, "Je sais comment battre XSS et l'injection SQL, etc. beaucoup d'autres exploits. Je n'ai aucune idée de comment battre l'injection rapide de manière fiable !"

La difficulté de se défendre contre l'injection rapide vient du fait que les atténuations pour d'autres types d'attaques par injection proviennent de la correction des erreurs de syntaxe, noté un chercheur nommé Glyph sur Twitter. "Corrigez la syntaxe et vous avez corrigé l'erreur. L'injection rapide n'est pas une erreur ! Il n'y a pas de syntaxe formelle pour une IA comme celle-ci, c'est tout l'intérêt."

GPT-3 est un grand modèle de langage créé par OpenAI, sorti en 2020, qui peut composer du texte dans de nombreux styles à un niveau similaire à celui d'un humain . Il est disponible en tant que produit commercial via une API qui peut être intégrée à des produits tiers tels que des bots, sous réserve de l'approbation d'OpenAI. Cela signifie qu'il pourrait y avoir beaucoup de produits infusés de GPT-3 qui pourraient être vulnérables à une injection rapide.

"À ce stade, je serais très surpris s'il y avait des bots [GPT-3] qui n'étaient PAS vulnérables à cela d'une manière ou d'une autre", a déclaré Willison.

Mais contrairement à une injection SQL, une injection rapide peut surtout rendre le bot (ou l'entreprise derrière lui) stupide plutôt que de menacer la sécurité des données. "Les dommages causés par l'exploit varient", a déclaré Willison. "Si la seule personne qui verra le résultat de l'outil est la personne qui l'utilise, cela n'a probablement pas d'importance. Ils pourraient embarrasser votre entreprise en partageant une capture d'écran, mais il est peu probable que cela cause un préjudice au-delà de cela."

Pourtant, l'injection rapide est un nouveau danger important à garder à l'esprit pour les personnes développant des bots GPT-3, car il pourrait être exploité de manière imprévue à l'avenir.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 3303e65