Incident 352: Un robot Twitter basé sur GPT-3 détourné à l'aide d'attaques par injection rapide
Entités
Voir toutes les entitésStatistiques d'incidents
Risk Subdomain
2.2. AI system security vulnerabilities and attacks
Risk Domain
- Privacy & Security
Entity
Human
Timing
Post-deployment
Intent
Intentional
Rapports d'incidents
Chronologie du rapport

Les progrès récents dans le développement de grands modèles de langage ont permis au public d'accéder à des modèles de langage pré-formés (PLM) de pointe, y compris Generative Pre-trained Transformer 3 (GPT-3) et les représentations d'encod…

Riley Goodside, hier:
Exploiter les invites GPT-3 avec des entrées malveillantes qui ordonnent au modèle d'ignorer ses directions précédentes. pic.twitter.com/I0NVr9LOJq
- Riley Goodside (@goodside) 12 septembre 2022
Riley a fourni plusie…

Jeudi, quelques utilisateurs de Twitter ont découvert comment détourner un tweet bot automatisé, dédié aux travaux à distance, fonctionnant sur le [GPT-3](https:/ /en.wikipedia.org/wiki/GPT-3) modèle de langage par OpenAI. En utilisant une …

En bref Le populaire modèle de langage naturel GPT-3 d'OpenAI a un problème : il peut être trompé pour qu'il se comporte mal en faisant un peu plus que lui dire d'ignorer ses commandes précédentes.
Découvert par Riley Goodside, spécialiste …
Variantes
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

TayBot

Biased Sentiment Analysis

Game AI System Produces Imbalanced Game
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

TayBot

Biased Sentiment Analysis
