Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4544

Incidents associés

Incident 79927 Rapports
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates

Loading...
« J’étais juste terrifiée » : les parents se battent contre les grandes entreprises technologiques au sujet des nus créés par l’IA
thetimes.com · 2024

L'intelligence artificielle n'était pas quelque chose à laquelle Elliston Berry pensait, au-delà d'une vague compréhension selon laquelle les étudiants n'étaient pas autorisés à l'utiliser pour tricher aux examens.

Elle venait de commencer sa première année au lycée au Texas et se lançait dans la vie étudiante, mais le matin du 2 octobre, Elliston a eu une introduction terrifiante à cette technologie. Des photos, prises à partir de son compte Instagram, avaient été soumises à un logiciel d'IA pour la rendre nue, et les fausses images étaient partagées entre ses camarades de classe sur Snapchat.

"J'étais totalement choquée, je n'avais aucune pensée qui me traversait la tête, j'étais juste terrifiée", dit-elle. Elle avait 14 ans.

Une personne alors inconnue partageait également de fausses images d'autres camarades de classe en utilisant un outil en ligne facile d'accès qui permet à quelqu'un de télécharger une vraie photo et d'utiliser l'IA pour analyser à quoi ressemblerait cette personne sans vêtements. Le logiciel crée une nouvelle image, en utilisant la tête de la personne sur un corps nu généré par l'IA.

Au cours de l'année écoulée, les écoles à travers les États-Unis ont été obligées de lutter contre cette forme émergente d'exploitation sexuelle sans aucun cadre juridique clair sur la manière de la combattre.

"C'était tellement réel", dit la mère d'Elliston, Anna McAdams. "C'est ce qui était si choquant. "Voici ma fille, je la connais, je sais que la photo a été prise et où elle a été prise. Je n'avais tout simplement pas de mots, à part la colère --- comment quelqu'un peut-il faire ça ?"

McAdams est alors entrée dans ce qu'elle appelle le "mode maman ours". En liaison avec les parents des autres filles ciblées, elle a organisé une réunion ce matin-là avec la police et le personnel du lycée d'Aledo. C'est alors qu'elle a eu son deuxième choc de la journée.

"Ils ne savaient pas quoi faire avec ça", dit-elle. "Il n'y a rien dans le code de conduite des élèves. Et selon la loi, il n'y a rien non plus."

Bien qu'il soit difficile de quantifier l'ampleur du problème, car il n'est souvent pas signalé, des cas de images nues d'IA partagés dans des écoles ont été documentés au Texas, dans le New Jersey, à Washington DC, en Floride, en Californie et dans l'État de Washington.

"Nous avons entendu parler d'au moins une demi-douzaine d'écoles qui ont rencontré ce problème, et ce n'est que la pointe de l'iceberg", déclare Brian Hughes, directeur exécutif du Polarisation and Extremism Research and Innovation Lab (Peril) de l'American University de Washington. "Personne ne maîtrise cet espace complètement non réglementé, et nos régulateurs et nos législateurs ont vraiment failli à leurs responsabilités de protection des enfants", dit-il.

Depuis le bond en avant des capacités de l'IA avec la sortie En 2022, la capacité de la technologie à générer des images explicites a été exploitée dans le monde entier, de nombreuses personnalités publiques telles que des politiciens et des acteurs étant ciblées. Au Royaume-Uni, une enquête de Channel 4 News a révélé que 255 personnes avaient été victimes de personnes créant ce que l'on appelle des images deepfake.

Stefan Turkheimer, vice-président des politiques publiques au sein du Rape, Abuse and Incest National Network, se dit particulièrement préoccupé par le fait que des images explicites et trafiquées d'enfants puissent entrer sur le marché commercial. « Si personne ne fait quelque chose à ce sujet, relativement bientôt, nous pourrions nous retrouver dans une exploitation commerciale de ces images », dit-il.

La création de ces images peut avoir un impact particulièrement dévastateur sur les jeunes victimes, préviennent les experts. « Il y a de l'anxiété, de la dépression, de la honte, ils ne veulent pas aller à l'école, ils abandonnent souvent les activités parascolaires », explique Turkheimer, ajoutant que les conséquences peuvent durer toute la vie. « Certains d'entre eux ont peur d'accepter un travail en dehors de chez eux, cela peut être un véritable problème à vie. Et puis il y a des cas où les gens sont harcelés lorsque ces images sont associées à leur nom et à leur identité. Dans le pire des cas, cela peut même conduire au suicide. »

Trop souvent, dit-il, les écoles hésitent à prendre des mesures contre l'agresseur : « La réaction de base dans les écoles américaines à l'heure actuelle est de protéger la personne qui a créé les deepfakes aux dépens de la personne qui en est victime. »

C'est ce qu'ont vécu Elliston Berry et sa mère. Le lendemain du partage des images nues, la personne derrière le compte Snapchat qui les avait diffusées a commencé à publier des messages dérangeants sur le fait de « sortir en fanfare » et de « ruiner les filles », incitant les parents à empêcher leurs filles d'aller à l'école.

Le lendemain, l'agresseur a été identifié lorsqu'il a posté des images en utilisant le Wi-Fi de l'école. Il a été accusé en tant que mineur d'avoir distribué des contenus préjudiciables à une mineure. Les parents affirment que l'école n'a pas pris de mesures et qu'il leur appartenait de le renvoyer.

"La réponse [de l'école] a été : "Nous avons l'obligation morale de l'éduquer, de le soutenir et de le protéger", et elle l'a vraiment pris comme s'il était la victime et non les filles", explique McAdams.

Elliston décrit son état mental lorsqu'elle est retournée à l'école plus tard dans la semaine comme "en plein essor". Elle dit qu'elle "était tellement paranoïaque que tout le monde ait vu ces images, cela m'a donné tellement d'anxiété". Jusqu'à présent, l'école n'a fourni aucun soutien en matière de santé mentale. "Après cette semaine, ils ont en quelque sorte tout oublié. C'était comme une bataille silencieuse à laquelle moi et toutes les filles avons dû faire face", a-t-elle déclaré.

Un porte-parole du district scolaire indépendant d'Aledo a déclaré qu'il avait « sanctionné l'élève impliqué conformément au code de conduite des élèves du district scolaire indépendant d'Aledo et à la loi en vigueur ». Le district a déclaré qu'il révisait son code de conduite à la lumière de l'incident.

La réponse inégale de la police et de l'école a incité Elliston et sa mère à contacter Ted Cruz, le sénateur républicain du Texas qui est lui-même père de jeunes filles adolescentes. En quelques mois, il a collaboré à un projet de loi bipartisan appelé Take It Down Act, qui criminalise la publication de nus non consensuels créés par l'IA et oblige les plateformes en ligne à supprimer ce contenu dans les 48 heures.

Cruz et sa collègue démocrate, Amy Klobuchar, ont présenté le projet de loi au Sénat le mois dernier, et un groupe bipartisan l'a également porté à la Chambre des représentants. En juin, sous la pression de Cruz, Snapchat a finalement supprimé les images d'Elliston Berry, ce qu'elle décrit comme « un très grand soulagement ». « Ces images sont restées gravées dans ma mémoire et je vis chaque jour avec la peur qu’elles refassent surface », dit-elle.

Hughes, du laboratoire Peril de l’American University, affirme que les écoles doivent également investir des ressources pour garantir aux garçons et aux filles des espaces dans lesquels ils peuvent discuter du consentement et de l’exploitation sexuelle sans peur ni honte. « Il est très important d’intégrer cela dans une approche beaucoup plus large de l’éducation de nos enfants pour qu’ils respectent les droits et l’autonomie des autres », dit-il.

Elliston Berry fait preuve d’une empathie remarquable pour le jeune homme qui lui a causé tant de détresse. Elle n’a aucune idée de ses motivations. « J’espère vraiment qu’il pourra obtenir l’aide dont il a besoin », dit-elle.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd