Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2243

Incidents associés

Incident 3901 Rapport
Deepfakes Reportedly Deployed in Online Interviews for Remote Work Positions

Loading...
Deepfakes et PII volés utilisés pour postuler à des postes de travail à distance
ic3.gov · 2022

Deepfakes et PII volés utilisés pour postuler à des postes de travail à distance Le FBI Internet Crime Complaint Center (IC3) met en garde contre une augmentation des plaintes faisant état de l'utilisation de deepfakes et de vols d'informations personnelles identifiables (PII) pour postuler à divers postes de travail à distance et de travail à domicile. Les deepfakes incluent une vidéo, une image ou un enregistrement modifié et manipulé de manière convaincante pour représenter quelqu'un comme faisant ou disant quelque chose qui n'a pas été réellement fait ou dit.

Les postes de travail à distance ou de travail à domicile identifiés dans ces rapports comprennent les technologies de l'information et la programmation informatique, les bases de données et les fonctions liées aux logiciels. Notamment, certains postes signalés incluent l'accès aux informations personnelles des clients, aux données financières, aux bases de données informatiques de l'entreprise et/ou à des informations exclusives.

Les plaintes font état de l'utilisation d'usurpation de voix, ou potentiellement de deepfakes vocaux, lors d'entretiens en ligne avec des candidats potentiels. Dans ces entretiens, les actions et le mouvement des lèvres de la personne vue interviewée à la caméra ne se coordonnent pas complètement avec l'audio de la personne qui parle. Parfois, des actions telles que tousser, éternuer ou d'autres actions auditives ne correspondent pas à ce qui est présenté visuellement.

Les plaintes IC3 décrivent également l'utilisation de PII volés pour postuler à ces postes à distance. Les victimes ont signalé l'utilisation de leurs identités et des vérifications des antécédents préalables à l'emploi ont découvert que les PII donnés par certains des candidats appartenaient à une autre personne.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd