Incidents associés

Des images pornographiques générées par l'IA d'étudiantes d'un lycée du New Jersey ont été diffusées par des camarades de classe masculins, déclenchant le tollé des parents et une enquête policière, selon un rapport.
Étudiants de la Westfield High School – située à Westfield, une ville située à environ 40 km à l'ouest de Manhattan, où le revenu moyen d'un ménage est de 259 377 $, selon [Forbes](https://www.forbes.com/sites/andrewdepietro/2023/09/ 11/quelle-est-la-ville-la-riche-du-new-jersey-latest-census-data-reveals-the-details/?sh=5cc3da976845) — a déclaré au [Wall Street Journal](https://www. wsj.com/tech/personal-tech/fake-nudes-of-real-students-cause-an-uproar-at-a-new-jersey-high-school-df10f1bb?mod=tech_lead_story) qu'un ou plusieurs camarades de classe ont utilisé un outil en ligne basé sur l'IA pour créer des images osées, puis les partager avec ses pairs.
Une mère dont la fille est étudiante à la Westfield High School, racontant ce que son enfant lui a dit au Journal, a déclaré que les garçons de deuxième année de l'école se comportaient « bizarrement » le lundi 16 octobre.
Plusieurs filles ont commencé à poser des questions et finalement, le 20 octobre, un garçon a révélé la raison de tous ces chuchotements : au moins un élève avait utilisé des photos de filles trouvées en ligne pour créer de faux nus, puis les avait partagées avec d'autres garçons dans des discussions de groupe. , selon le Journal.
Plusieurs élèves de sexe féminin auraient également été informées par la direction de l'école que des garçons les avaient identifiées sur les fausses images pornographiques, ont indiqué leurs parents, bien qu'un porte-parole du lycée ait refusé de dire au Journal si des membres du personnel avaient vu les photos.
De fausses images nues d'étudiantes du lycée Westfield, dans le New Jersey, circulaient parmi leurs camarades de classe. Certains membres du personnel de l’école ont même dit aux filles qu’elles étaient sur les images, selon le Wall Street Journal.
Un autre parent, Dorota Mani, a déclaré que l'école avait dit à sa fille Francesca, 14 ans, que sa photo avait été utilisée pour générer une fausse image de nu, connue sous le nom de « deepfake ».
« Je suis terrifié par la façon dont cela va faire surface et quand. Ma fille a un avenir brillant et personne ne peut garantir que cela n’aura pas d’impact sur elle sur le plan professionnel, académique ou social », a déclaré Mani au Journal.
La mère inquiète a déclaré qu’elle ne voulait pas que sa fille aille à l’école avec quelqu’un qui a créé les images et a confirmé qu’elle avait déposé une plainte à la police.
Selon la société de renseignement visuel sur les menaces Sensity, plus de 90 % des images deepfake sont pornographiques.
Beaucoup utilisent également des ressemblances avec des célébrités, comme une vidéo virale récente dans laquelle un deepfake généré par l'IA montrait [le mannequin Bella Hadid](https://nypost.com/2023/10/31/news/bella-hadid-video-is- effrayant-réaliste-deepfake/), dont le père est palestinien, exprime son soutien à Israël. Plus tôt cette année, deepfake images du pape François dans un Balenciaga La doudoune et la résistance de Donald Trump à son arrestation ont également pris d'assaut Internet.
Snap, derrière Snapchat, a pris des mesures pour interdire de telles images de mineurs et les signaler au Centre national pour les enfants disparus et exploités, selon le Journal, bien qu'il n'y ait pratiquement aucune garantie en place pour empêcher que cela se produise ailleurs sur Internet. .
Il n'était pas immédiatement clair quel site Web d'IA avait été utilisé pour créer les images pornographiques, bien qu'il existe de nombreux générateurs d'images gratuits basés sur l'IA sur Internet, notamment Dall-E d'OpenAI, Firefly et Canva d'Adobe, ainsi qu'une multitude d'autres de moindre envergure. des outils connus tels que Freepik, Wepik, Craiyon et Fotor, pour n'en nommer que quelques-uns.
D’autres parents de filles qui ont parlé au Journal – dont deux des quatre qui ont déposé un rapport auprès de la police locale – ont déclaré qu’eux et leurs filles n’avaient pas vu les images en question.
Une personne proche de l’enquête policière a déclaré que la police n’avait pas non plus vu les photos, a rapporté le Journal.
Le 20 octobre également, Mary Asfendis, directrice du lycée de Westfield, a confirmé l'incident aux parents de chacun des quelque 1 900 élèves de l'école après que les filles eurent signalé les photos aux administrateurs de l'école.
Asfendis a également déclaré dans le courriel obtenu par le Journal qu'elle pensait que les images avaient été supprimées et ne circulaient plus.
"Il s'agit d'un incident très grave", a écrit Asfendis. « Les nouvelles technologies ont rendu possible la falsification des images et les étudiants doivent connaître l’impact et les dommages que ces actions peuvent causer aux autres. »
Elle s’est également engagée à continuer d’enseigner aux enfants une utilisation responsable de la technologie.
Il n’était pas immédiatement clair combien d’étudiants étaient impliqués dans la création de ces fausses images de nus, ni si des mesures disciplinaires avaient été prises.
"Il est difficile d'être témoin d'une situation où l'on voit des jeunes filles traumatisées à un stade vulnérable de leur vie", a déclaré la maire de Westfield, Shelley Brindle, au Journal à propos de l'incident, ajoutant qu'en tant que première femme maire de la ville, elle se considère comme une défenseure de la cause. pour les femmes et les filles.
Le Post a sollicité les commentaires de la Westfield High School et du service de police de Westfield.
Cette semaine encore, le président Biden a publié un [décret exécutif](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure- and-trustworthy-development-and-use-of-artificial-intelligence/) qui [réglemente le développement de l'IA](https://nypost.com/2023/10/30/news/biden-tightens-ai-regulations- comme les critiques mettent en garde contre la bureaucratie étouffante des entreprises/), et met en œuvre « des garanties contre… la production de matériel d’abus sexuel sur des enfants et contre la production d’images intimes non consensuelles d’individus réels ».
Les autorités de l'État ont interdit la distribution de pornographie générée par l'IA ou ont donné aux victimes le droit de poursuivre devant les tribunaux civils en Virginie, en Californie, au Minnesota et à New York.