Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4567

Incidents associés

Incident 79926 Rapports
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates

Une fille de 15 ans s'exprime après qu'un camarade de classe a fait de fausses photos d'elle nues et les a publiées en ligne
independent.co.uk · 2024

En octobre dernier, Elliston Berry, 14 ans, s’est réveillée en plein cauchemar.

Le téléphone de l’adolescente a été inondé d’appels et de SMS lui disant que quelqu’un avait partagé de fausses images dénudées d’elle sur Snapchat et d’autres plateformes de médias sociaux.

« On m’a dit que ça avait fait le tour de l’école », a déclaré Berry, originaire du Texas, à Fox News. « C’était tellement effrayant de suivre les cours et d’aller à l’école, parce que la peur que tout le monde voie ces images, cela créait tellement d’anxiété. »

Les photos ont été générées par l’IA – ce qu’on appelle des deepfakes. Ces images et vidéos générées sont devenues terriblement répandues ces dernières années. Les deepfakes sont conçus pour paraître hyper réalistes et sont souvent utilisés pour se faire passer pour de grandes personnalités publiques ou créer de la fausse pornographie. Mais ils peuvent également causer des dommages importants aux gens ordinaires.

Berry, aujourd’hui âgé de 15 ans, appelle les législateurs à inscrire des sanctions pénales dans la loi pour les auteurs afin de protéger les futures victimes d’images deepfakes.

L’adolescente a déclaré au média qu’après avoir découvert ce qui s’était passé, elle s’est immédiatement rendue chez ses parents. Sa mère, Anna McAdams, a déclaré à Fox News qu’elle savait que les images étaient fausses. McAdams a ensuite contacté Snapchat à plusieurs reprises sur une période de huit mois pour faire retirer les photos.

Bien que les deepfakes de Berry aient finalement été retirés, a déclaré McAdams à CNN, le camarade de classe qui les a distribués ne fait face à que peu de répercussions.

« Ce gamin n’obtient aucune conséquence réelle autre qu’une petite mise à l’épreuve, et puis quand il aura 18 ans, son casier judiciaire sera effacé, et il continuera sa vie, et personne ne saura jamais vraiment ce qui s’est passé », a déclaré McAdams à CNN.

Cette semaine, le sénateur républicain Ted Cruz, la sénatrice démocrate Amy Klobuchar et plusieurs collègues ont coparrainé un projet de loi qui obligerait les entreprises de réseaux sociaux à supprimer la pornographie deepfake dans les deux jours suivant la réception d'un rapport.

La loi Take It Down Act rendrait également la distribution de ces images un crime, a déclaré Cruz à Fox News. Les auteurs qui ciblent les adultes risquent jusqu'à deux ans de prison, tandis que ceux qui ciblent les enfants risquent trois ans.

Cruz a déclaré que ce qui est arrivé à Berry « est un schéma malsain et tordu qui devient de plus en plus courant ».

« [Le projet de loi] impose aux grandes entreprises technologiques l’obligation légale de retirer les images lorsque la victime ou sa famille le demande », a déclaré Cruz. « La mère d’Elliston est allée sur Snapchat à maintes reprises et Snapchat lui a simplement dit : « Va sauter dans un lac ». Ils l’ont ignorée pendant huit mois. »

Un porte-parole de Snap Inc, la société mère de Snapchat, a déclaré que la plateforme n’autorise pas la pornographie et a des politiques interdisant les deepfakes et l’intimidation.

La mère et la fille affirment que la législation est essentielle pour protéger les futures victimes et qu’elle aurait pu entraîner des conséquences plus graves pour le camarade de classe qui a partagé les deepfakes.

« Si cette loi avait été en vigueur à ce moment-là, ces photos auraient été retirées dans les 48 heures et il aurait pu risquer trois ans de prison… il aurait donc été puni pour ce qu’il a réellement fait », a déclaré McAdams à CNN.

Bien que les photos ne soient plus sur Snapchat, Berry dit qu’elle est terrifiée à l’idée qu’elles réapparaissent si la loi Take it Down Act est adoptée.

« C’est toujours aussi effrayant que ces images ne soient plus sur Snapchat, mais cela ne veut pas dire qu’elles ne sont plus sur les téléphones des étudiants, et chaque jour, j’ai dû vivre avec la peur de voir ces photos réapparaître », a déclaré Berry. « Grâce à l’adoption de cette loi, je n’aurai plus à vivre dans la peur de savoir que quiconque publiera ces images sera puni. »

Cet article a été mis à jour avec un commentaire de Snap Inc.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e