Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6817

Incidents associés

Incident 13511 Rapport
Alleged Use of AI to Create Sexualized Deepfake Images of Middle School Students Under Investigation in Bucks County, Pennsylvania

Loading...
Un élève d'un collège de Council Rock fait l'objet d'une enquête pour diffusion présumée d'images truquées de jeunes filles.
phillyburbs.com · 2025

La police de Newtown Township et le bureau du procureur du comté de Bucks enquêtent sur des allégations selon lesquelles un élève de collège aurait utilisé l'intelligence artificielle pour créer des images pornographiques truquées de ses camarades de classe.

L'incident se serait produit en mars et impliquerait un élève du collège de Newtown. D'après des sources proches du dossier, les photos d'une douzaine de jeunes filles mineures auraient été utilisées pour créer de fausses images de nu.

On ignore pour l'instant si les images ont été partagées ou diffusées en ligne.

Andrea Mangold, porte-parole du district scolaire de Council Rock, s'est refusée à tout commentaire, se contentant d'indiquer que la police de Newtown Township était chargée de l'enquête.

Le capitaine Jason Harris, de la police de Newtown Township, a confirmé qu'une enquête était en cours concernant un mineur, mais a précisé qu'aucune information ne serait divulguée afin de ne pas compromettre l'affaire.

M. Harris a confirmé que le personnel de Council Rock avait signalé l'affaire à la police. On ignore si ChildLine, le service d'assistance téléphonique de l'État pour les signalements de maltraitance infantile, a été informé.

Un porte-parole du procureur du comté de Bucks a également confirmé que son bureau était au courant des allégations. Il a déclaré qu'une enquête était en cours, mais qu'il ne pouvait pas divulguer davantage d'informations, compte tenu de l'implication d'un mineur.

Si les allégations sont confirmées, l'étudiant pourrait être parmi les premiers poursuivis en vertu d'une nouvelle loi de Pennsylvanie interdisant la diffusion de deepfakes pornographiques.

Que sont les deepfakes ?

Les deepfakes sont des images, des vidéos et des enregistrements audio générés par des outils d'intelligence artificielle pour représenter des personnes réelles ou fictives. Ces deepfakes peuvent être rendus réalistes en utilisant le visage ou la voix d'une personne. Dans certains cas, l'image d'une personne a été superposée à un corps nu ou à une image pornographique sans aucun lien avec elle, puis diffusée en ligne.

Ces contrefaçons numériques sophistiquées ont été utilisées pour commettre des escroqueries financières, nuire à la réputation de personnes et perturber le processus politique.

Que dit la loi de Pennsylvanie concernant l'utilisation de deepfakes numériques générés par l'IA ? L'année dernière, la Pennsylvanie est devenue le premier État à sévir contre les deepfakes numériques.

La nouvelle loi pennsylvanienne érige en infraction le harcèlement d'une personne par la diffusion, sans son consentement, d'une image deepfake la représentant nue ou en train d'avoir un acte sexuel. L'infraction est aggravée si la victime est mineure.

L'ajout des contenus générés par intelligence artificielle vient renforcer la loi de l'État qui criminalise déjà la diffusion d'images intimes sans consentement.

La sénatrice Tracy Pennycuick (R-Montgomery), présidente de la commission sénatoriale des communications et des technologies, a déclaré que le projet de loi s'inspirait en partie d'un incident survenu à Westfield (New Jersey) en 2023, où des images de lycéens nus, générées par intelligence artificielle, avaient été diffusées sur les réseaux sociaux.

Mardi, les membres de la commission sénatoriale judiciaire ont adopté un nouveau projet de loi relatif à l'intelligence artificielle qui inclurait les images numériques falsifiées et l'usurpation d'identité dans le cadre de la loi de l'État sur la contrefaçon.

Les membres du Congrès examinent également de plus près la technologie des deepfakes.

L'année dernière, les sénateurs ont adopté le Defiance Act, une loi fédérale autorisant les victimes de deepfakes à caractère sexuel non consentis à poursuivre en justice les personnes qui créent, partagent et reçoivent ces images. La version de la Chambre des représentants a récemment été réintroduite.

Plus tôt cette année, la Chambre des représentants a adopté une loi similaire, approuvée par le Sénat, appelée Take It Down Act, que Trump a signée le mois dernier. Cette loi criminalise la diffusion non consentie de contenus pornographiques deepfake et oblige les plateformes à retirer ces contenus dans les 48 heures suivant la notification.

Comment les établissements scolaires gèrent-ils la question des deepfakes parmi les élèves ?

Dans sa dernière enquête, le Center for Democracy and Technology a constaté que près de 40 % des lycéens interrogés avaient entendu parler de personnes créant et partageant des images à caractère sexuel d'autrui sans autorisation, notamment des deepfakes.

« Ce sont surtout les jeunes qui se font cela entre eux », a déclaré Kristin Woelfel, conseillère politique du centre, une organisation à but non lucratif et non partisane qui œuvre pour les droits civiques et les libertés individuelles à l'ère numérique.

Les recherches du centre ont également révélé que la plupart des élèves surpris à partager des images à caractère sexuel, qu'elles soient réelles ou truquées (deepfakes), subissaient des conséquences : généralement un signalement aux forces de l'ordre et une exclusion temporaire de longue durée.

Cependant, selon Woelfel, le personnel scolaire n'apporte pas un soutien suffisant aux victimes et ne prévient pas efficacement ce type de situation. Seuls 10 % environ des élèves interrogés en 2023-2024 ont déclaré que leur établissement proposait des ressources aux victimes figurant sur les images.

L'enquête a également révélé que la majorité des écoles n'avaient communiqué aucune politique ni procédure relative au partage d'images à caractère sexuel, réelles ou truquées, aux élèves, au personnel ou aux parents, a indiqué Woelfel.

Plus de la moitié des enseignants interrogés ignoraient si une telle politique existait dans leur district.

Le centre a également constaté que les écoles étaient deux fois plus susceptibles d'élaborer une politique concernant le partage d'images à caractère sexuel après un incident, a précisé Woelfel.

(Cet article a été mis à jour afin de refléter fidèlement les informations les plus récentes.)

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd