Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4093

Incidents associés

Incident 79927 Rapports
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates

Loading...
Une victime de cyberexploitation de l'IA âgée de 14 ans parle de son expérience mortifiante sur les réseaux sociaux
foxbusiness.com · 2024

Une sinistre opération de cyberexploitation a bouleversé la vie d'Elliston Berry, une adolescente texane de 14 ans, en octobre dernier, après avoir découvert un matin des images d'elle nue truquées circulant sur les réseaux sociaux.

Pour couronner le tout, beaucoup de ses camarades de classe les avaient déjà vues.

« Je m'attendais à une journée normale et j'ai reçu de nombreux appels et messages de mes amis me disant que ces images nues circulaient », s'est-elle souvenue mercredi dans l'émission « Mornings with Maria » de FOX Business.

« Elles circulaient partout à l'école : sur Snapchat, Instagram, sur tous les réseaux sociaux », a-t-elle ajouté.

Elliston Berry, une adolescente texane de 14 ans, a déclaré qu'elle avait été mortifiée de découvrir de fausses images nues d'elle-même circulant sur les réseaux sociaux. (Mornings with Maria/Capture d'écran/Fox News)

La mère de Berry, Anna McAdams, s'attendait également à une journée normale jusqu'à ce que sa fille se précipite dans sa chambre, horrifiée et en larmes.

"Elle est entrée là-bas en me montrant les photos, et j'étais mortifiée et, en tant que mère, abasourdie. Je veux dire, je n'ai pas pu protéger ma fille", a-t-elle déclaré mercredi.

McAdams a déclaré à l'animatrice Maria Bartiromo que les photos semblaient convaincantes.

L'une de Berry debout sur le pont d'un bateau de croisière a été modifiée pour remplacer ses vêtements par un faux corps nu. D'autres faux nus de filles de son groupe d'amis, selon un rapport du Wall Street Journal, ont été générés à partir de photos de plage originales.

"J'ai reconnu où elle était", a déclaré McAdams. « En tant que maman, j'ai immédiatement su où se trouvait la première photo, mais… si je ne le savais pas, et que je regardais simplement la photo, j'aurais probablement pensé qu'elle était réelle. »

Berry découvrira plus tard qu'un camarade de classe avait orchestré le stratagème en prenant deux photos de son compte Instagram privé et en la rendant nue à l'aide d'un logiciel d'IA, a rapporté le WSJ.

Cette image de « Mornings with Maria » détaille la « Take it Down Act » soutenue par les deux partis. (Mornings with Maria/Screengrab / Fox News)

Le même étudiant était également à l'origine des incidents impliquant ses amis. 

Berry a déclaré au média que cette épreuve l'avait laissée « honteuse et effrayée » à l'école, car elle se demandait si les élèves qu'elle avait rencontrés avaient vu les images et pensaient qu'elles étaient fausses.

« J'ai eu l'impression de devoir dire à tout le monde que ce n'était pas réel et que je l'étais, je me battais juste pour ce que je pensais être juste », a-t-elle déclaré à Bartiromo.

Les schémas d'exploitation sont devenus un défi éthique majeur alors que l'IA continue de croître de manière exponentielle, se frayant un chemin dans le monde du travail, le monde créatif et ailleurs.

Cela a laissé les législateurs sous pression pour faire quelque chose à ce sujet.

Le sénateur républicain du Texas Ted Cruz et la sénatrice démocrate du Minnesota Amy Klobuchar font partie du groupe de législateurs bipartites qui parrainent le « Take it Down Act », qui criminaliserait la publication d'images intimes non consensuelles, obligerait les plateformes de médias sociaux à supprimer le contenu et plus encore.

« C’est un modèle malsain et tordu qui devient de plus en plus courant. Il y a des milliers et des milliers de personnes qui en sont victimes, tout comme Elliston », a déclaré Cruz alors qu’il était assis en studio avec Bartiromo, Berry et McAdams.

« Parmi les deep fakes qui circulent en ligne, jusqu’à 95 % sont des images intimes non consensuelles, et la technologie est telle que vous pouvez prendre… [des images innocentes] et les transformer en photos, vous pouvez les transformer en vidéos. Avec la technologie, vous ne pouvez pas dire qu’elles sont fausses. Vous pensez que c’est réel. Et c’est un modèle qui est utilisé pour abuser de [principalement des femmes et des adolescentes] ».

Cruz a déclaré que le projet de loi vise à infliger des peines de prison aux délinquants – en les mettant derrière les barreaux pendant deux ans si l’infraction est commise contre un adulte et trois ans si la victime est mineure.

Il a également souligné qu’une telle législation donnerait aux plateformes de médias sociaux l’obligation légale d’intervenir et de supprimer les images préjudiciables.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd