Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3273

Incidents associés

Incident 59757 Rapports
Female Students at Westfield High School in New Jersey Reportedly Targeted with Deepfake Nudes

Loading...
De faux nus de vrais étudiants provoquent un tollé dans un lycée du New Jersey
wsj.com · 2023

Lorsque des filles du lycée Westfield, dans le New Jersey, ont découvert que des garçons partageaient des photos d'elles nues lors de discussions de groupe, elles ont été choquées, et pas seulement parce qu'il s'agissait d'une atteinte à leur vie privée. Les images n'étaient pas réelles.

Les étudiants ont déclaré qu'un ou plusieurs camarades de classe utilisaient un outil en ligne alimenté par l'intelligence artificielle pour créer les images, puis les partageaient avec d'autres. La découverte a suscité un tollé à Westfield, une ville aisée située à l'extérieur de la ville de New York.

Les images et vidéos modifiées ou truquées numériquement ont explosé parallèlement à la disponibilité d’outils d’IA gratuits ou bon marché. Même si les portraits de célébrités, d'Oprah Winfrey au pape François, ont attiré l'attention des médias, l'écrasante majorité des images truquées sont pornographiques, affirment les experts.

Le manque de clarté sur la légalité de ces images – et sur la manière ou l’opportunité de punir leurs créateurs – pousse les parents, les écoles et les forces de l’ordre à rattraper leur retard alors que l’IA avance à toute vitesse.

Le lycée a confirmé l'incident dans un e-mail adressé aux parents, mais une porte-parole des écoles publiques de Westfield a refusé de fournir des détails sur le nombre d'élèves impliqués ou de confirmer si des mesures disciplinaires avaient été prises, invoquant la confidentialité des élèves.

Certains parents de Westfield ont déclaré que leurs filles se sentaient humiliées et impuissantes et s'inquiétaient des dommages qui leur seraient causés si les images faisaient surface plus tard. Et ils sont mécontents qu’aucune solution ne soit trouvée.

Même parmi les parents, il n’y a pas de consensus. Dans un groupe Facebook local, certains ont appelé à des sanctions sévères pour quiconque a créé les images. D’autres considéraient qu’il s’agissait d’une transgression de jeunesse qui devait être pardonnée.

Le débat et ses conséquences devraient se poursuivre pendant des mois. La police de Westfield enquête et un sénateur de l'État a demandé aux procureurs du comté d'examiner l'affaire.

Les murmures

Les garçons de deuxième année de Westfield High se comportaient « bizarrement » le lundi 16 octobre, chuchotant entre eux et étant plus silencieux que d'habitude, a déclaré une mère, racontant ce que sa fille, une camarade de classe, lui avait dit.

Les filles ont commencé à poser des questions, dit la mère. Finalement, le 20 octobre, un garçon a expliqué à certaines filles pourquoi tous ces chuchotements portaient sur eux : au moins un élève avait utilisé un site Web alimenté par l'IA pour créer des images pornographiques à partir de photos de filles trouvées en ligne, puis les avait partagées avec d'autres garçons. discussions de groupe. Les filles de Westfield ont signalé la situation aux administrateurs de l'école, qui ont commencé à interroger des garçons qui auraient pu connaître plus d'informations.

Dans un courriel adressé aux parents le 20 octobre, Mary Asfendis, directrice du lycée de Westfield, a déclaré qu'elle pensait que les images avaient été supprimées et n'étaient pas diffusées.

"Il s'agit d'un incident très grave", a écrit Asfendis. "Les nouvelles technologies ont rendu possible la falsification des images et les étudiants doivent connaître l'impact et les dommages que ces actions peuvent causer aux autres." Elle s'est engagée à continuer d'enseigner aux enfants une utilisation responsable de la technologie.

Plusieurs filles ont été informées par les administrateurs de l'école que certains garçons les avaient identifiées dans les images générées, selon leurs parents. La porte-parole du district scolaire a refusé de dire si les membres du personnel de l'école avaient examiné les images.

Les parents des filles qui ont parlé au Wall Street Journal, y compris deux des quatre qui ont déposé un rapport auprès de la police locale, ont déclaré qu'eux et leurs filles n'avaient pas vu les images. La police ne les a pas non plus vus, selon une personne proche de l'enquête.

"Il est difficile d'être témoin d'une situation où l'on voit des jeunes filles traumatisées à un stade vulnérable de leur vie", a déclaré la maire de Westfield, Shelley Brindle, dans une interview. Première femme maire de la ville, elle se décrit comme une défenseure de longue date des femmes et des filles.

Brindle, un ancien cadre de HBO, encourage les personnes touchées par cette situation à faire des déclarations à la police. Une porte-parole de la ville de Westfield a déclaré que la police ne ferait aucun commentaire.

Dorota Mani a déclaré que sa fille de 14 ans, Francesca, avait été informée par l'école que sa photo avait été utilisée.

"Je suis terrifiée par la façon dont cela va surgir et quand. Ma fille a un avenir brillant et personne ne peut garantir que cela n'aura pas d'impact sur elle professionnellement, académiquement ou socialement", a déclaré Mani, qui a déposé une plainte à la police. Elle a dit qu'elle ne voulait pas que sa fille aille à l'école avec quelqu'un qui a créé les images.

Il suffit d'un téléphone

Le harcèlement numérique est répandu dans les écoles aux États-Unis. Les smartphones et leurs caméras intégrées ont déjà rendu les dégâts du harcèlement numérique plus profonds et plus durables. Alors que les gens peuvent retoucher des images avec Photoshop et des logiciels similaires depuis des années, [nouveaux créateurs d'images IA](https://www.wsj.com/articles/reality-is-broken-we-have-ai-photos- to-blame-de00b23) facilitent la production de photos entièrement fabriquées. Et n’importe quelle image peut facilement être largement partagée sur les plateformes sociales et de messagerie en quelques clics.

"Il y a quelques années, il aurait fallu tout un cluster d'ordinateurs pour générer des images. Aujourd'hui, il vous suffit d'un iPhone", a déclaré Ben Colman, directeur général de Reality Defender, qui travaille avec des entreprises et des agences gouvernementales pour détecter les fausses images générées par l'IA. .

Les générateurs d'images de grandes entreprises --- comme Dall-E d'OpenAI et Firefly de Adobe --- disposent de paramètres de modération qui empêchent les utilisateurs de créer images pornographiques. Mais une recherche rapide en ligne donne des dizaines de résultats pour les outils d'échange de visage et de « retrait de vêtements ». Étant donné que ces services utilisent probablement des logiciels open source accessibles au public, la modération et les garde-fous techniques sont difficiles, voire impossibles, à appliquer et à mettre en œuvre, a déclaré Colman. C'est presque [impossible pour l'œil humain](https://www.wsj.com/video/humans-can-no-longer-spot-ai-deepfakes-this-company-can/1824CE8C-9E73-4BCC-AEBF -8E80C8873AAB) pour distinguer le vrai du faux, a-t-il ajouté.

Plus de 90 % de ces fausses images---connues sous le nom de "deepfakes"---sont de la pornographie, selon l'image. -société de détection Sensity AI. Des entreprises technologiques, dont Snap et TikTok, se sont engagées à travailler avec des groupes gouvernementaux pour empêcher la circulation de telles images. Snap et d’autres affirment interdire les images sexuelles de mineurs générées par l’IA et les signaler au Centre national pour les enfants disparus et exploités.

'Un crime grave'

Les fausses images sexuelles de vraies personnes sont si nouvelles que la loi fédérale est à la traîne, affirment les experts juridiques. Une poignée d'États, dont la Virginie, la Californie, le Minnesota et New York, ont interdit la distribution de faux porno ou ont donné aux victimes le droit de poursuivre leurs créateurs devant un tribunal civil.

Jon Bramnick, sénateur de l'État du New Jersey dont le district comprend Westfield, cherche à savoir s'il existe des lois dans l'État ou des projets de loi en cours qui criminaliseraient la création et le partage de ce type de matériel. Dans le cas contraire, il a déclaré qu’il avait l’intention de rédiger un projet de loi dans ce sens.

"Cela doit être un crime grave dans le New Jersey", a-t-il déclaré, ajoutant qu'il avait demandé au procureur du comté d'Union d'enquêter sur l'affaire Westfield High.

Les lois couvrant les abus sexuels sur enfants pourraient s'appliquer dans cette situation, a déclaré Natalie Elizaroff, avocate en propriété intellectuelle à Chicago, car elles interdisent les images numériques, les images informatiques ou même les images générées par ordinateur de mineurs se livrant à un comportement sexuellement explicite. L'affaire devrait être portée devant des procureurs d'État ou fédéraux, qui devraient établir que la personne représentée est mineure, que le contenu est explicite et que quelqu'un l'a créé, possédé ou distribué, a-t-elle ajouté.

L’administration Biden a appelé cette semaine, dans le cadre d’un vaste décret sur l’IA, à empêcher l’IA générative de produire du matériel pédophile ou des « images intimes non consensuelles d’individus réels ».

Une autre affaire américaine impliquant de la fausse pornographie représentant des étudiants du secondaire a donné lieu à des accusations criminelles. En avril, un homme de 22 ans de Long Island a été condamné à six mois de prison pour avoir créé et publié de fausses images représentant des femmes de son ancienne école, ainsi que des informations d'identification personnelle. Les photos originales ont été prises lorsque les femmes étaient au collège et au lycée.

Suppression des réseaux sociaux

Lors d'une réunion tenue chez elle lundi, la fille de Mani, Francesca, a décrit ce qu'elle et d'autres filles du lycée de Westfield traversent.

"Au début, j'ai pleuré, puis j'ai décidé que je ne devais pas être triste", a-t-elle déclaré au groupe. "Je devrais être en colère et défendre mes intérêts et ceux des autres victimes."

Parmi les participants se trouvaient des parents d'autres élèves, ainsi que Brindle, Bramnick, trois femmes membres du conseil municipal et un membre du conseil scolaire. (Le Journal a été invité à nous écouter par téléphone.)

Lors d'une séance de conseil de groupe à l'école ce jour-là, certaines filles ont déclaré qu'elles n'étaient pas à l'aise de devoir aller à l'école avec quelqu'un qui, selon elles, avait créé et partagé les images, a déclaré Francesca.

L’incident a amené certaines de ses camarades de classe à repenser ce qu’elles publient en ligne, a-t-elle déclaré, étant donné le peu de contrôle qu’elles ont sur la manière dont cela peut être utilisé. Certains, dit-elle, ont supprimé leurs comptes sur les réseaux sociaux.

"Nous sommes conscients qu'il y a des gars effrayants là-bas", a-t-elle déclaré au groupe, "mais vous n'auriez jamais pensé qu'un de vos camarades de classe vous violerait de cette façon."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd