Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2087

Incidents associés

Incident 3573 Rapports
GPT-2 Able to Recite PII in Training Data

Loading...
Extraction de données d'entraînement à partir de grands modèles de langage
arxiv.org · 2020

Il est devenu courant de publier de grands modèles de langage (milliards de paramètres) qui ont été entraînés sur des ensembles de données privés. Cet article démontre que dans de tels contextes, un adversaire peut effectuer une attaque d'extraction de données d'entraînement pour récupérer des exemples d'entraînement individuels en interrogeant le modèle de langage.

Nous démontrons notre attaque sur GPT-2, un modèle de langage entraîné sur des éraflures de l'Internet public, et sommes capables d'extraire des centaines de séquences textuelles textuelles à partir des données d'entraînement du modèle. Ces exemples extraits incluent des informations (publiques) personnellement identifiables (noms, numéros de téléphone et adresses e-mail), des conversations IRC, du code et des UUID 128 bits. Notre attaque est possible même si chacune des séquences ci-dessus est incluse dans un seul document dans les données d'entraînement.

Nous évaluons de manière exhaustive notre attaque d'extraction pour comprendre les facteurs qui contribuent à son succès. De manière inquiétante, nous constatons que les modèles plus grands sont plus vulnérables que les modèles plus petits. Nous concluons en tirant des leçons et en discutant des garanties possibles pour la formation de grands modèles de langage.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd