Incidents associés
Ce rapport contient plus de détails concernant l'incident 799, mais commence par faire également référence à cet incident.
En février, des élèves de la Beverly Vista Middle School ont fait l'objet d'une enquête de la part du département de police de Beverly Hills pour avoir créé de fausses photos de nus de leurs camarades de classe. Les responsables de l'école et du district ont exprimé leur connaissance des « photos de nu générées par l'IA ».
Les Deepfakes sont des images, des vidéos et des clips audio générés par l'intelligence artificielle qui représentent des personnes réelles ou inexistantes. Ces images produites par l'IA sont utilisées pour diffuser de fausses informations, notamment sur les célébrités.
Elliston Berry, une jeune fille de 15 ans d'Aledo, au Texas, a découvert des photos de nu artificielles d'elle et de ses amis publiées sur les réseaux sociaux. (https://www.wfaa.com/article/news/local/north-texas-girl-victimized-with-deepfake-nudes-pushes-for-federal-law/287-7cf49849-1b27-4a21-864c-d69cf1644e9c). « Je me suis réveillée avec de très nombreux SMS de mes amis me disant qu'il y avait ces images de moi qui tournaient autour d'elle », a déclaré Elliston.
Ces dernières années, l'augmentation des photos de nus deepfake chez les jeunes adultes est devenue un problème alarmant. De nombreux incidents ont eu lieu dans tout le pays concernant des adolescents créant de faux contenus sexuels pour leurs pairs en utilisant l'IA comme outil d'intimidation.
« C'était tellement réaliste. C'est de la pornographie juvénile », a déclaré la mère d'Elliston, Anna McAdams dans une interview avec WFAA. « Nous ne pouvions vraiment pas nous occuper d'elle. À ce moment-là, nous étions impuissants... de plus en plus de photos sont apparues tout au long de ce premier jour et du deuxième jour. »
Les faux contenus sexuels nuisent de manière disproportionnée aux jeunes filles, qui représentent 90 % des victimes. Les deepfakes peuvent également cibler des groupes historiquement marginalisés, comme l'a fait une étudiante de New York qui a réalisé une vidéo artificielle de son directeur criant des insultes racistes et menaçant de blesser des élèves de couleur. La violation de la réputation et de la vie privée peut entraîner de graves problèmes de santé mentale chez les étudiants(https://timesofindia.indiatimes.com/life-style/parenting/moments/how-social-media-scandals-like-deepfake-impact-minors-and-students-mental-health/articleshow/105168380.cms#), les faisant se sentir en insécurité vis-à-vis des autres et de l'environnement scolaire. Les attaques basées sur l'identité font que les étudiants se sentent humiliés et détachés d'eux-mêmes.
Des réglementations ont été mises en place dans certains États pour lutter contre le harcèlement par les images truquées.
En juin, le sénateur du Texas Ted Cruz a présenté la loi intitulée Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks (Take It Down), qui rend illégale la publication d'images pornographiques artificielles et réalistes. D'autres Étatss dont le Mississippi, la Louisiane, le Dakota du Sud et le Nouveau-Mexique ont également adopté des projets de loi visant à mettre fin à la pornographie de vengeance.
En 2019, le Congrès a adopté la loi sur le signalement des faux contenus, qui oblige les entreprises technologiques américaines à signaler les falsifications numériques. La Chambre a également présenté le Deepfake Accountability Act dédié à fournir des ressources utiles aux victimes de Deepfakes. D'autres projets de loi fédéraux ont également été adoptés pour atténuer l'influence des images artificielles, mais il n'existe aucune législation fédérale officielle interdisant ou réglementant les Deepfakes.
Avant que le problème de la pornographie Deepfake ne puisse être efficacement réglementé, les adolescents sont soumis au danger de cette nouvelle forme de cyberintimidation, et les victimes sont marquées par leurs expériences.
"J'étais en première année, et je n'avais que quatorze ans", a déclaré Elliston. « Aujourd’hui encore, j’ai peur que ces images réapparaissent. »