Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1595

Incidents associés

Incident 1744 Rapports
Fake LinkedIn Profiles Created Using GAN Photos

Loading...
Les deepfakes envahissent LinkedIn : une entreprise de Delhi propose des profils créés par l'IA " prêts à l'emploi "
thequint.com · 2022

LinkedIn aurait déclaré avoir enquêté et supprimé les profils qui enfreignaient ses politiques.

La technologie Deepfake consiste à utiliser l'intelligence artificielle (IA) pour générer des images ou des vidéos convaincantes de personnes maquillées ou réelles. Il est étonnamment accessible et a été utilisé à diverses fins, notamment dans le divertissement, la désinformation, le harcèlement, la propagande et la pornographie.

Les chercheurs Renée DiResta et Josh Goldstein de l'Observatoire Internet de Stanford ont découvert que cette technologie est maintenant utilisée pour augmenter les ventes des entreprises sur LinkedIn, selon un rapport NPR.

Les chercheurs ont trouvé plus d'un millier de profils avec des images de profil générées par l'IA sur LinkedIn. La technologie probablement utilisée est le réseau antagoniste génératif (GAN) qui oppose deux réseaux neuronaux l'un à l'autre.

LinkedIn dit avoir depuis enquêté et supprimé les profils qui enfreignaient ses politiques, y compris les règles contre la création de faux profils ou la falsification d'informations, a rapporté la publication.

L'enquête a commencé lorsque DiResta a reçu un message d'un compte apparemment faux. Les yeux étaient parfaitement alignés au milieu de l'image, l'arrière-plan était vague et une boucle d'oreille manquait.

Une entreprise basée à Delhi propose des profils générés par l'IA

L'une des sociétés de génération de leads que LinkedIn aurait supprimée après les recherches de l'Observatoire Internet de Stanford était LIA, basée à Delhi.

La société a proposé des centaines d'avatars générés par l'IA "prêts à l'emploi" pour 300 dollars par mois chacun selon le site Web de la LIA, dont toutes les informations ont récemment été supprimées, selon le rapport.

"Ce n'est pas une histoire d'erreur ou de désinformation, mais plutôt l'intersection d'un cas d'utilisation commerciale assez banal avec la technologie de l'IA, et les questions d'éthique et d'attentes qui en résultent", a écrit DiResta dans un Tweet.

« Quelles sont nos hypothèses lorsque nous rencontrons d'autres personnes sur les réseaux sociaux ? Quelles actions vont à l'encontre de la manipulation ? » elle a ajouté.

Récemment, une vidéo deepfake a fait son apparition sur les réseaux sociaux, dans laquelle le président ukrainien Volodymyr Zelenskyy semblait demander aux troupes ukrainiennes de déposer les armes.

Ce n'est pas très convaincant, mais les deepfakes s'améliorent et les gens semblent de moins en moins capables de les identifier.

Une étude récente publiée dans les Actes de l'Académie nationale des sciences a révélé que les gens n'ont que 50% de chances de deviner correctement si un visage a été généré par l'intelligence artificielle. Les visages synthétisés par l'IA se sont avérés impossibles à distinguer des vrais visages et, d'une certaine manière, plus dignes de confiance.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd