Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6814

Incidents associés

Incident 79927 Rapports
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates

Loading...
Sa camarade de classe a utilisé l'intelligence artificielle pour créer de fausses images d'elle nue. Les experts affirment que ce n'est pas rare.
usatoday.com · 2025

Le lendemain de la fête de rentrée d'Elliston Berry, en octobre 2023, cette lycéenne du nord du Texas a reçu un SMS : des photos d'elle nue circulaient dans l'établissement.

Mais ces images étaient fausses. Un camarade de classe avait utilisé l'intelligence artificielle pour créer des deepfakes, en incrustant un corps nu sur des photos du compte Instagram d'Elliston. Elle avait alors 14 ans.

« Ce matin-là, en me réveillant, j'ai eu l'impression que ma vie s'était effondrée », raconte l'adolescente, aujourd'hui âgée de 15 ans. « Je suis bien plus que ces photos. Mais à ce moment-là, j'avais le sentiment que c'était tout ce que les gens voyaient. »

Des spécialistes de la santé mentale et de la cybersécurité affirment que ce qu'a vécu Elliston Berry est de plus en plus fréquent chez les adolescents.

Selon un récent rapport de Thorn, une association à but non lucratif œuvrant pour la sécurité des enfants en ligne, un adolescent sur huit âgé de 13 à 17 ans connaît personnellement quelqu'un qui a été victime de deepfakes. Le rapport constate que la technologie des deepfakes est de plus en plus accessible aux adolescents. Le contenu généré par l'IA est souvent indiscernable des images réelles et est utilisé comme un outil de harcèlement et d'abus qui cible de manière disproportionnée les adolescentes et les femmes.

Le harcèlement par deepfake reste du harcèlement

L'image initiale a circulé lundi, et dès mardi, d'autres circulaient. Un élève a créé des images truquées de huit autres filles et les a diffusées via un pseudonyme Snapchat anonyme, explique Berry.

Les faits se sont déroulés hors de l'établissement scolaire, et aucun protocole n'existait pour les forces de l'ordre, laissant les filles et leurs familles sans nouvelles de l'auteur des faits pendant des mois. Trois des filles concernées ont changé d'établissement, se souvient-elle.

Chaque jour, Berry arrivait au lycée angoissée à l'idée de croiser son harceleur inconnu avant les cours ou en allant à l'entraînement de volley-ball. D'ordinaire, elle tapait dans la main de ses amis dans les couloirs et discutait avec eux entre les cours, mais dans les mois qui ont suivi l'incident, elle ne voulait plus sortir de sa chambre.

« La souffrance psychologique qu'elle endurait et le changement de sa personnalité étaient très perturbants », confie Anna McAdams, la mère de Berry. Elle a vu sa fille passer d'une extravertie pétillante à une introvertie.

L'impact des abus facilités par la technologie est similaire à celui des agressions sexuelles traditionnelles : honte, culpabilité, peur des représailles et séquelles psychologiques potentielles à long terme, explique Jennifer Simmons Kaleba, vice-présidente de la communication du Réseau national contre le viol, les abus et l'inceste (RAINN).

Mais la nature numérique de cette exploitation donne à ces abus un caractère omniprésent. Impossible de savoir combien de fois les images de Berry et de ses amis ont été partagées, ni même si cela a réellement cessé.

« Le préjudice est continu, car chaque fois que l'image refait surface et qu'un ami appelle en disant : "Je t'ai vue en ligne", c'est une nouvelle transgression, une nouvelle source de honte », déplore Stefan Turkheimer, vice-président des politiques publiques du RAINN.

Un nombre important d'adolescents connaissent une personne victime de photos intimes truquées par IA

Selon une enquête menée par Thorn auprès de 1 200 jeunes, un adolescent sur huit âgé de 13 à 17 ans connaît une personne directement ciblée par des photos intimes truquées (deepfakes), tandis qu'un sur 17 déclare en avoir été directement victime.

« L'un des principaux enseignements de ce rapport est l'urgence d'une prise de conscience collective : ce comportement est inacceptable et préjudiciable à la personne visée », explique Melissa Stroebel, vice-présidente de la recherche et des analyses chez Thorn. « Nous devrions nous concentrer sur le partage non consensuel d'images explicites et sur les conséquences qui en découlent, que l'intelligence artificielle ait été utilisée ou non pour leur création. »

Si Berry a confié l'incident à ses parents, de nombreux adolescents souffrent en silence. Selon l'enquête de Thorn, près de la moitié des répondants ont cherché du soutien hors ligne, et 34 % des victimes ont déclaré en avoir parlé à un parent ou à un tuteur.

« Je n'avais que 14 ans, et tout le monde voit mon corps. Même si ce n'est pas le mien, je ressens la même honte et la même culpabilité qu'avec une vraie photo », témoigne Berry.

Ces conclusions s'inscrivent dans une tendance plus large concernant le rôle de l'IA générative dans la création de matériel pédopornographique. Le Centre national pour les enfants disparus et exploités (NCMEC) a commencé à suivre l'IA générative en interne au printemps 2023, d'après Lauren Coffren, directrice générale de la Division des enfants exploités du NCMEC. Les signalements d'utilisation de l'IA générative pour créer du contenu sexuel abusif ont augmenté. De 4 700 en 2023 à 67 000 en 2024.

L’adolescence est une période clé du développement de l’image corporelle et de l’estime de soi.

Le collège et le lycée marquent une période où les élèves développent une plus grande autonomie, une capacité de prise de décision abstraite et subissent d’importants changements physiques liés à la puberté.

Selon Shadeen Francis, psychothérapeute conjugale et familiale agréée, spécialisée en sexothérapie et intelligence émotionnelle, les adolescents se tournent vers leur famille et leurs amis pour commencer à définir leur identité au sein de leur groupe de pairs.

« Vivre un traumatisme à ce stade de la vie, surtout lorsqu’on sait qu’il perturbe la confiance en soi et en autrui, peut être extrêmement déstabilisant pour le sentiment d’identité d’un jeune », explique Francis.

Les expériences de maltraitance vécues durant l’enfance ont des conséquences à long terme sur la capacité des adolescents à construire des relations saines et à établir une relation de confiance avec leurs proches plus tard dans leur vie. Les victimes peuvent développer de l’anxiété, une dépression et un syndrome de stress post-traumatique.

Berry craignait que personne ne se rende compte que les images étaient fausses et s’inquiétait. Ces images pourraient refaire surface plus tard, lors de ses candidatures universitaires ou professionnelles. Le pire, selon elle, c'est qu'elles ont porté atteinte à sa réputation et l'ont sexualisée sans son consentement. Élevée dans une famille chrétienne pratiquante, elle affirme que ses parents lui ont toujours interdit d'envoyer des photos d'elle nue.

« Je ne voulais pas que les gens pensent : "Ah, voilà le genre de personne qu'elle était" », explique Berry. « Il m'a dépouillée de mon innocence et a diffusé ces images, exposant ma vulnérabilité et ma faiblesse à la vue de tous. »

Elle portait des sweats et des pantalons de survêtement à l'école pour dissimuler sa silhouette, car elle ne voulait pas qu'on la regarde en vrai comme on la regardait sur ces photos.

Face à l'essor des deepfakes, les ressources et la législation sont insuffisantes

Les deepfakes ont fait leur apparition en février 2018 lorsque Reddit a suspendu r/deepfakes, un subreddit qui comptait 90 000 abonnés et où les utilisateurs créaient de fausses photos et vidéos pornographiques. À l'époque, il fallait souvent des milliers d'images pour créer un deepfake, ce qui faisait des personnalités publiques les principales cibles. Aujourd'hui, il est possible d'en créer avec seulement quelques images.

En janvier 2024, des utilisateurs ont créé de fausses images à caractère sexuel explicite montrant Taylor Swift lors d'un match de football. Ces images se sont propagées comme une traînée de poudre, malgré une violation flagrante du règlement de la plateforme X, selon le Centre de ressources sur les violences sexuelles.

McAdams affirme que la victimisation de sa fille a été un choc. « J'entendais parler de stars de cinéma ou de gens d'Hollywood, pas d'une personne lambda. » « Je n’avais pas conscience de la gravité de la situation », explique-t-elle.

Les parents des jeunes filles victimes de ces agissements à l’école de Berry ont déposé une plainte en vertu du Titre IX en janvier 2024. L’auteur des faits a été inculpé d’un délit de classe A pour diffusion de contenu préjudiciable. Selon Turkheimer, de RAINN, aucune loi fédérale n’oblige actuellement les plateformes en ligne à retirer les images intimes non consensuelles, laissant ainsi les parents et les établissements scolaires sans ressources pour gérer les cas de deepfakes.

Pendant plus de huit mois, McAdams n’a pas réussi à obtenir le retrait des images par Snapchat. Ce n’est qu’après l’intervention personnelle du bureau du sénateur Ted Cruz (républicain du Texas) auprès de Snapchat que la photo a finalement été supprimée, précise-t-elle.

Berry fait partie des militants qui incitent les législateurs à adopter la loi « Take it Down Act », qui criminalise la publication d’« images à caractère sexuel non consensuelles, y compris les deepfakes générés par l’IA ». Cela inclut les « falsifications numériques » créées à l’aide de logiciels d’intelligence artificielle et oblige les plateformes technologiques à supprimer les contenus signalés dans les 48 heures suivant la réception d’une demande valide.

Le 3 mars, la Première dame Melania Trump a défendu avec vigueur cette loi, qui a été adoptée à l’unanimité par le Sénat. Berry, assise à côté de la Première dame, a partagé son histoire avec les parlementaires.

« Il est déchirant de voir de jeunes adolescents, et surtout des filles, aux prises avec les difficultés considérables que représentent les contenus malveillants en ligne, comme les deepfakes », a déclaré Trump.

Ce que les adolescents et leurs parents doivent savoir

Coffren explique que la création d’images à caractère sexuel par des prédateurs n’est pas un phénomène nouveau, mais que la prolifération anarchique des nouvelles technologies de deepfake rend ces contenus plus faciles à créer et plus difficiles à détecter.

Si vous êtes victime de deepfakes à caractère sexuel, signalez-le aux autorités en utilisant la CyberTipline du NCMEC à l’adresse report.cybertip.org ou en appelant le 1-800-843-5678. Les experts recommandent de ne pas supprimer les plateformes sur lesquelles le problème est survenu, car cela peut être… Une piste de preuves précieuse.

Il est essentiel d'aborder le sujet des deepfakes – tant la gravité de la création de ces images que les risques qu'elles représentent – de la même manière que les parents parlent de consentement et d'agression sexuelle avec leurs enfants.

McAdams reconnaît avoir été « dépassée » par la question des deepfakes, mais se dit reconnaissante que sa fille se soit sentie suffisamment à l'aise pour lui en parler. Elle encourage les autres adolescents à faire de même si cela leur arrive.

« Parlez-en à vos enfants. Ils doivent savoir qu'ils peuvent se confier à vous sans crainte », insiste McAdams.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd