Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3288

Incidents associés

Incident 59757 Rapports
Female Students at Westfield High School in New Jersey Reportedly Targeted with Deepfake Nudes

Loading...
L'incident du « deepfake » dans un lycée du New Jersey montre le manque de recours juridique pour les victimes
washingtonexaminer.com · 2023

Un incident très médiatisé au cours duquel des lycéens ont partagé des images pornographiques générées par l'intelligence artificielle de [mineurs](https://washingtonexaminer.com/tag /adolescents) camarades de classe a attiré l'attention sur le manque de ressources juridiques pour les victimes de tels « deepfakes ».

Bien que les deepfakes suscitent depuis des années une controverse sur la création d'images pornographiques éditées pour présenter des célébrités, le phénomène a pris une nouvelle importance pour les non-célèbres lorsque les filles de Westfield Un lycée du New Jersey a découvert que des garçons partageaient des photos nues falsifiées d'eux lors de discussions de groupe, comme le rapporte le [Wall Street Journal](https://www.wsj.com/tech/fake-nudes-of-real- les étudiants-causent-un-tumulte-dans-un-lycée-du-new-jersey-df10f1bb?mod=wknd_pos1). Les parents et la direction de l'école ont découvert que la loi ne fournit aucune clarté sur la manière de gérer une telle situation.

"De toute évidence, ce comportement est inacceptable", a déclaré Jake Denton, chercheur associé à la fondation conservatrice Heritage, au Washington Examiner. "Mais quelles sont les conséquences réelles ?"

Les fausses images sexuelles sont si nouvelles pour les forces de l’ordre que les législateurs n’ont pas encore établi de paramètres juridiques autour de cette pratique. Le New Jersey n’interdit pas la pornographie générée par l’IA, par exemple.

Plusieurs incertitudes s'appliquent à l'utilisation de telles images, a noté Denton. Par exemple, une image est-elle considérée comme de la pédopornographie si le deepfake attache le visage d’une fille mineure au corps d’une femme adulte ? Comment l’observateur moyen détermine-t-il si le sujet d’une image est mineur ou non ?

Certains États constatent cependant des efforts pour rédiger des lois. Une loi du Minnesota interdisant la propagation de pratiques non consensuelles la pornographie deepfake est entrée en vigueur en août. Le Texas a également interdit la publication de deepfakes politiques. La Californie a interdit les deux pratiques en 2019.

Le représentant Joe Morelle (Démocrate de New York) a présenté une législation en juin qui rendrait le partage de pornographie deepfake illégales à l’échelle nationale et créer de nouveaux recours juridiques pour les victimes, même si le projet de loi n’a pas progressé.

La propagation de la pornographie générée par l'IA a été remarquée lorsque plusieurs garçons de Westfield se comportaient « bizarrement » le 16 octobre, selon certains parents. Lorsque certaines filles ont commencé à poser des questions, l'une d'elles leur a montré qu'au moins une étudiante avait utilisé un site Web alimenté par l'IA pour créer des images pornographiques en utilisant les photos des filles en ligne, puis en les partageant via une discussion de groupe. La situation a été signalée aux administrateurs de l'école.

"Il s'agit d'un incident très grave", a écrit Mary Asfendi, directrice du lycée de Westfield, dans un courrier électronique. "Les nouvelles technologies ont rendu possible la falsification des images et les étudiants doivent connaître l'impact et les dommages que ces actions peuvent causer aux autres."

Au moins quatre des parents des filles ont déposé plainte à la police.

Les deepfakes sont souvent utilisés pour créer de la pornographie. Le contenu pour adultes représentait 98 % de tous les contenus deepfakes en ligne, selon une analyse de la société de sécurité Home Security Heroes. La technologie est également devenue suffisamment bon marché pour qu’un utilisateur puisse créer une image pornographique deepfake en 25 minutes sans frais financiers.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd