Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4085

Incidents associés

Incident 7722 Rapports
Kristen Bell Deepfaked in Non-Consensual AI-Generated Pornography

Loading...
La menace la plus urgente des deepfakes n’est pas la politique. C’est la pornographie.
vox.com · 2020

Kristen Bell a découvert pour la première fois qu'il y avait des vidéos pornographiques deepfake d'elle en ligne, réalisées par son mari, l'acteur Dax Shepard. Dans les vidéos, son visage a été manipulé sur le corps d'acteurs pornographiques.

"J'étais juste choquée", m'a dit Bell. "C'est difficile de penser que je suis exploitée."

Et cela n'arrive pas seulement aux célébrités. Noelle Martin, une récente diplômée en droit à Perth, en Australie, a découvert que quelqu'un avait pris des photos qu'elle avait partagées sur les réseaux sociaux et les avait utilisées d'abord pour la retoucher en images nues, puis pour créer des vidéos deepfakes.

Les deepfakes sont souvent présentés comme une menace politique --- de fausses vidéos de politiciens faisant des commentaires qu'ils n'ont jamais faits. Mais dans un récent rapport, le groupe de recherche Deeptrace a découvert que 96 % des deepfakes trouvés en ligne sont pornographiques. Parmi ces vidéos, pratiquement toutes sont des femmes. Et pratiquement toutes sont réalisées sans leur consentement.

« On parle beaucoup des défis liés aux avancées de la technologie deepfake », a déclaré Martin. « Mais je pense que ce qui est souvent oublié dans le débat, c'est l'impact sur les individus à l'heure actuelle. Pas dans quelques années, pas dans quelques mois. Maintenant. »

Ce qui se passe dans ces vidéos est un type spécifique de manipulation numérique. Ce n'est pas la même chose que les anciens filtres d'échange de visages que vous auriez pu utiliser sur les réseaux sociaux. Ces outils vous permettent de mettre votre visage sur la tête d'un ami, mais comme ils transfèrent à la fois vos traits du visage et vos expressions, vous en avez toujours le contrôle.

Les deepfakes sont différents. Ils peuvent prendre vos traits du visage seuls et animer votre visage avec les expressions de quelqu'un d'autre. C'est ce qui les rend si invasifs. Le créateur enlève à la victime le contrôle de son visage, l'utilisant pour quelque chose qu'elle n'a jamais voulu. Ce faisant, ils contribuent à une longue histoire d'humiliation sexuelle des femmes.

Vous pouvez retrouver cette vidéo et toutes les vidéos de Vox sur YouTube. Et rejoignez le réseau Open Sourced Reporting Network pour nous aider à rendre compte des conséquences réelles des données, de la confidentialité, des algorithmes et de l'IA.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd