Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3283

Incidents associés

Incident 59757 Rapports
Female Students at Westfield High School in New Jersey Reportedly Targeted with Deepfake Nudes

Loading...
Un lycéen américain accusé d'avoir utilisé l'IA pour créer des images nues de ses camarades de classe - National
globalnews.ca · 2023

Les parents et les élèves de Westfield High dans le New Jersey s'expriment après qu'un ou plusieurs élèves de sexe masculin auraient utilisé une [IA](https://globalnews.ca/ tag/ai) pour créer de fausses images de nus en utilisant les visages de camarades de classe et les distribuer dans une discussion de groupe.

Francesca Mani, 14 ans, est l'une des 30 jeunes filles victimes de l'incident, dit-elle. Dans une interview télévisée avec CNN, elle a appelé le gouvernement américain à [promulguer des lois pour protéger les victimes des contenus générés par l'IA](https://www.cnn.com/2023/11/04/us/new-jersey-high -school-deepfake-porn/index.html).

Elle a également affirmé que les membres de la communauté scolaire connaissent l'élève responsable pour avoir créé des images obscènes, mais il n'a pas encore fait face aux conséquences appropriées.

"Tant de filles ne se sentent pas à l'aise en sachant qu'il marche dans nos couloirs", a déclaré Mani.

Westfield High a déclaré il ne pouvait pas fournir des détails spécifiques sur les mesures disciplinaires prises ou le nombre d’étudiants impliqués, pour des raisons de confidentialité. L'incident se serait produit pendant les vacances d'été, mais l'école n'en a eu connaissance que le 20 octobre.

Ce jour-là, Mary Asfendis, directrice du lycée de Westfield, a envoyé un e-mail aux parents au sujet de « l’incident très grave ».

"Il y avait beaucoup d'inquiétude quant à savoir qui avait créé des images d'eux et si elles étaient partagées", a écrit Asfendis. "Pour le moment, nous pensons que toutes les images créées ont été supprimées et ne circulent pas."

Selon le Wall Street Journal, qui a rapporté l'incident pour la première fois samedi, les étudiantes ont découvert les images non consensuelles après avoir remarqué des camarades de classe de 10e année agissant de manière « bizarre » le 16 octobre. Quelques jours plus tard, un garçon s'est manifesté pour dire qu'un camarade de classe avait a utilisé des photos d'étudiantes sur les réseaux sociaux pour générer de fausses images de nus à l'aide d'un site Web alimenté par l'IA.

Un groupe d’étudiantes a signalé l’affaire aux administrateurs de l’école. L’incident a laissé beaucoup d’entre eux se sentir « humiliés et impuissants », a rapporté le Journal.

Westfield High a déclaré avoir mené une enquête sur l'incident en collaborant avec la police locale. Des conseils ont été fournis aux étudiants après que l'affaire a été révélée.

Le surintendant Raymond González a déclaré que les écoles du monde entier « sont aux prises avec les défis et l'impact de l'intelligence artificielle et des autres technologies disponibles pour les étudiants à tout moment et en tout lieu ».

«Le district scolaire public de Westfield a mis en place des mesures de protection pour empêcher que cela ne se produise sur notre réseau et sur les appareils fournis par l'école. Nous continuons de renforcer nos efforts en éduquant nos élèves et en établissant des lignes directrices claires pour garantir que ces nouvelles technologies sont utilisées de manière responsable dans nos écoles et au-delà », a-t-il ajouté.

Mani, étudiant à Westfield, estime que le problème devrait être traité par la police locale et que l'école devrait contribuer davantage à ce que les élèves se sentent à l'aise dans les couloirs.

La mère de Mani a déclaré qu'elle était fière de sa fille qui défendait ses intérêts et ceux des autres filles victimes de faux contenus pornographiques.

"Je pense que cette question est plus complexe que le lycée Westfield, et c'est notre moment et notre opportunité de la traiter comme une plate-forme enseignable, pour faire la lumière sur cette question importante", a déclaré Dorota Mani à CNN.

Ces dernières années, à mesure que la technologie de l’IA est devenue plus accessible, le nombre d’images et de vidéos truquées sur Internet a explosé.

Un rapport de Sensity AI, une société qui détecte et surveille le contenu généré par l'IA, a révélé que 96 % des vidéos deepfakes en ligne sont pornographiques.

Un robot alimenté par l’IA qui « dépouille » les gens de leurs vêtements a été utilisé pour créer de fausses images nues de près de 105 000 femmes en un an, a découvert la société. Le bot a été largement partagé sur la plateforme Telegram.

Environ 70 pour cent des images créées étaient celles de particuliers ; en d’autres termes, pas de célébrités ou de personnalités publiques.

« Les deepfakes continuent de constituer une menace pour les individus et les industries, y compris des impacts potentiels à grande échelle sur les nations, les gouvernements, les entreprises et la société », selon un [rapport récent du ministère de la Sécurité intérieure](https://www.dhs .gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf).

« Les experts de différentes disciplines dont les intérêts de recherche se rejoignent sur les deepfakes ont tendance à s’accorder sur le fait que la technologie progresse rapidement et que le coût élevé de production de contenu deepfake de haute qualité diminue. En conséquence, nous nous attendons à un nouveau paysage de menaces dans lequel les attaques deviendront plus faciles et plus efficaces », ajoute le rapport.

Actuellement, il n'y a [aucune loi](https://www.cba.org/Sections/Privacy-and-Access/Resources/Resources/2023/PrivacyEssayWinner2023#:~:text=Unfortunately%2C%20Canada's%20%E2% 80%9CCriminal%20Code%E2%80%9D,jusqu'à%20à%20cinq%20ans'%20d'emprisonnement.) dans le Code criminel du Canada qui interdisent catégoriquement la création et la distribution de contenu pornographique deepfake. Cependant, il existe une disposition qui criminalise la vengeance pornographique, ou le partage non consensuel d'images intimes.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd