Incidents associés

Aux États-Unis, les adolescentes qui sont de plus en plus ciblées ou menacées par de fausses photos nues créées avec l'intelligence artificielle ou d'autres outils disposent de moyens limités pour demander des comptes ou des recours, alors que les écoles et les législatures des États ont du mal à rattraper leur retard sur les nouvelles technologies, selon les législateurs. des experts juridiques et une victime qui plaide désormais en faveur d'un projet de loi fédéral.
Depuis le début de l’année scolaire 2023, les cas impliquant des adolescentes victimes de fausses photos nues, également connues sous le nom de deepfakes, se sont multipliés dans le monde entier, notamment dans les lycées du New Jersey et de l’État de Washington.
Les services de police locaux enquêtent sur les incidents, les législateurs s'empressent d'adopter de nouvelles mesures qui imposeraient des sanctions contre les créateurs des photos, et les familles concernées font pression pour obtenir des réponses et des solutions.
Des deepfakes irréalistes peuvent être réalisés avec de simples outils de retouche photo qui existent depuis des années. Mais deux districts scolaires ont déclaré à NBC News qu'ils pensaient que de fausses photos d'adolescents ayant affecté leurs élèves étaient générées par l'IA.
La technologie de l'IA est de plus en plus disponible, comme la diffusion stable (technologie open source capable de produire des images à partir de messages texte) et les outils d'« échange de visage » qui peuvent mettre le visage d'une victime à la place de celui d'un artiste pornographique dans une vidéo ou une photo. .
Des applications censées « déshabiller » des photos habillées ont également été identifiées comme des outils possibles utilisés dans certains cas et ont été trouvées [disponibles gratuitement](https://www.nbcnews.com/tech/internet/chinas-crackdown-deepfakes- don't-stop-apps-finding-us-audience-rcna77423) sur les magasins d'applications. Ces deepfakes modernes peuvent être plus réalistes et plus difficiles à identifier immédiatement comme faux.
"Je ne savais pas à quel point la technologie de l'IA était complexe et effrayante", a déclaré Francesca Mani, 15 ans, étudiante en deuxième année à la Westfield High School du New Jersey, où plus de 30 filles ont appris le 20 octobre qu'elles pouvaient avoir été représentées de manière explicite. -images manipulées.
"J'ai été choquée parce que les autres filles et moi avons été trahies par nos camarades de classe", a-t-elle déclaré, "ce qui signifie que cela peut arriver à n'importe qui et à n'importe qui."
Les politiciens et les experts juridiques affirment qu’il existe peu, voire aucun, de voies de recours pour les victimes de pornographie générée par l’IA et de deepfake, qui attachent souvent le visage d’une victime à un corps nu.
Les photos et les vidéos peuvent être étonnamment réalistes et, selon Mary Anne Franks, experte juridique en médias sexuellement explicites non consensuels, la technologie permettant de les réaliser est devenue plus sophistiquée et plus accessible.
Un mois après l'incident survenu au lycée de Westfield, Francesca et sa mère, Dorota Mani, ont déclaré qu'elles ne connaissaient toujours pas l'identité ni le nombre de personnes qui ont créé les images, combien ont été réalisées ou si elles existent toujours. On ne sait pas non plus quelle punition le district scolaire a infligée, le cas échéant.
La ville de Westfield a adressé ses commentaires aux écoles publiques de Westfield, qui ont refusé de commenter. Invoquant la confidentialité, le district scolaire a précédemment déclaré à [NBC New York](https://www.nbcnewyork.com/news/local/students-at-nj-school-reportedly-used-ai-to-make-pornographic-images- of-classmates/4829307/) qu'il "ne divulguerait aucune information sur les étudiants accusés d'avoir créé de fausses photos de nus, ni sur la discipline à laquelle ils sont confrontés".
Le surintendant Raymond Gonzalez a déclaré au média que le district « continuerait à renforcer nos efforts en éduquant nos élèves et en établissant des lignes directrices claires pour garantir que ces nouvelles technologies sont utilisées de manière responsable dans nos écoles et au-delà ».
Dans un courriel obtenu par NBC News, Mary Asfendis, la directrice du lycée, a déclaré le 20 octobre aux parents qu'elle enquêtait sur les allégations d'élèves selon lesquelles certains de leurs pairs avaient utilisé l'IA pour créer des images pornographiques à partir de photos originales.
À l’époque, les responsables de l’école pensaient que toutes les images créées avaient été supprimées et n’étaient pas diffusées, selon la note.
"Il s'agit d'un incident très grave", a écrit Asfendis, en exhortant les parents à discuter de leur utilisation de la technologie avec leurs enfants. « Les nouvelles technologies ont rendu possible la falsification des images et les étudiants doivent connaître l’impact et les dommages que ces actions peuvent causer aux autres. »
Bien que Francesca n'ait pas vu l'image d'elle-même ou d'autrui, sa mère a déclaré que le directeur de Westfield lui avait dit que quatre personnes avaient identifié Francesca comme une victime. Francesca a déposé un rapport de police, mais ni le département de police de Westfield ni le bureau du procureur n'ont répondu aux demandes de commentaires.
Le sénateur de l'État du New Jersey, Jon Bramnick, a déclaré que les forces de l'ordre lui avaient fait part de leurs inquiétudes quant au fait que l'incident ne ferait que se transformer en une "allégation de harcèlement de type cyber, même s'il devrait en réalité atteindre le niveau d'un crime plus grave".
"Si vous attachez un corps nu au visage d'un enfant, c'est pour moi de la pornographie juvénile", a-t-il déclaré.
Le législateur républicain a déclaré que les lois des États ne parviennent actuellement pas à punir les créateurs de contenu, même si les dommages infligés par des images réelles ou manipulées peuvent être les mêmes.
«Cela les victimise de la même manière que les personnes qui s'adonnent au trafic de pédopornographie. Ce n’est pas seulement offensant pour le jeune, cela le diffame. Et on ne sait jamais ce qui va arriver à cette photo », a-t-il déclaré. "On ne sait pas où ça se trouve une fois qu'il est transmis, quand ça va revenir hanter la jeune fille."