Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4554

Incidents associés

Incident 79927 Rapports
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates

Loading...
Une victime de fausses photos de nus du lycée d'Aledo rejoint l'effort fédéral pour lutter contre les fausses photos de nus
dallasnews.com · 2024

WASHINGTON --- La première année d'Elliston Berry, élève du lycée Aledo, s'est transformée en cauchemar en octobre lorsqu'une camarade de classe a utilisé un programme d'intelligence artificielle pour transformer des photos innocentes d'elle et de ses amis en photos de nus « deepfakes », puis a diffusé les images sur l'application de médias sociaux Snapchat.

« Une fois ces photos publiées, j'appréhendais l'école et j'avais hâte de mettre les pieds sur le campus », a déclaré Elliston, qui a eu 15 ans plus tôt cette année, mardi lors d'une conférence de presse au Capitole dévoilant une législation bipartite réprimant les deepfakes.

Bien que la camarade de classe ait quitté son école, permettant à Elliston de se sentir plus confiante pour assister aux cours, « il y aura toujours une crainte que ces photos refassent surface », a-t-elle déclaré.

L'expérience a transformé Elliston et sa mère, Anna McAdams, en défenseurs de la cause des législateurs pour qu'ils répriment le partage d'images intimes non consensuelles, y compris celles produites par des programmes capables de créer des photos de nus d'apparence authentique.

Ils ont partagé leur histoire lors d'une conférence de presse mardi avec le sénateur américain Ted Cruz, qui a dévoilé une législation visant à criminaliser la publication ou la menace de publication d'images intimes non consensuelles, y compris des photos et des vidéos réalistes générées par ordinateur représentant de vraies personnes.

Le projet de loi du républicain texan obligerait également les applications telles que Snapchat et les sites Web à supprimer les images dans les 48 heures si une victime le demande. La Federal Trade Commission serait chargée de faire respecter cette exigence.

« Imaginez avoir 14 ans et vous présenter à l'école où vos camarades de classe croient avoir vu une photo explicite de vous qui est un faux et une fraude. Les photos ne sont peut-être pas réelles, mais la douleur et l'humiliation le sont », a déclaré Cruz. « Pour de nombreux jeunes adolescents, cela change leur vie à jamais. »

Les partisans de la proposition de Cruz ont déclaré que presque tous les États disposent de lois protégeant les personnes contre la publication d’images intimes non consensuelles, dont beaucoup traitent explicitement des deepfakes. Mais ils ont déclaré que les sanctions peuvent varier et que les victimes ont souvent du mal à faire supprimer les images des sites Web.

Le Congrès a adopté une loi en 2022 créant une cause d’action civile pour les victimes afin de poursuivre ceux qui publient le matériel, mais intenter une telle action en justice peut être coûteux et prendre du temps.

D’autres législateurs ont proposé leurs propres propositions.

Le sénateur américain Dick Durbin, démocrate de l’Illinois, a récemment tenté de faire passer par consentement unanime un projet de loi bipartisan qui créerait une voie permettant aux victimes de poursuivre ceux qui produisent les images ou les possèdent dans l’intention de les distribuer.

La sénatrice américaine Cynthia Lummis, républicaine du Wyoming, s'est opposée à cette législation, la jugeant trop large. Elle a rejoint Cruz lors de sa conférence de presse de mardi pour soutenir sa proposition.

Cruz a déclaré que son projet de loi est conçu pour compléter d'autres projets de loi visant à lutter contre les images intimes non consensuelles. Il comprend une première en son genre, obligeant les entreprises telles que Snapchat à créer un processus de suppression des images dans les 48 heures.

Cruz a vanté le groupe bipartisan de 12 sénateurs soutenant la législation, dont la moitié sont démocrates.

McAdams a déclaré que la camarade de classe de sa fille avait téléchargé des photos à partir d'une plateforme de médias sociaux et les avait passées dans un programme qui créait des images incroyablement réalistes.

"Ces images sont de la pornographie infantile", a-t-elle déclaré. "Ces filles avaient 14 ans. Leur innocence a été volée ce jour-là".

Elle a déclaré avoir essayé pendant des mois d'obtenir que Snapchat supprime les photos. Cruz a déclaré que Snapchat l'avait fait la semaine dernière après qu'il se soit plaint, ajoutant qu'il ne devrait pas falloir un membre du Congrès pour obliger l'entreprise à agir.

Snapchat a refusé de commenter la façon dont il a géré les photos d'Aledo.

La société a déclaré que sa plateforme avait des politiques interdisant la pornographie, les deepfakes, l'intimidation et le harcèlement.

McAdams et Cruz ont souligné les faux nus de Taylor Swift créés par l'IA, très médiatisées, affirmant que la pop star internationale avait utilisé son influence pour faire supprimer les images.

"Si nous avions été Taylor Swift, cela aurait été immédiatement supprimé", a déclaré McAdams. "Ce projet de loi nous donnera une voix que nous n'avions pas auparavant".

McAdams a également appelé les conseils scolaires à mettre à jour les codes de conduite pour couvrir de telles situations.

"Si nous pouvons arrêter cela à n'importe quel niveau", a-t-elle déclaré. "C'est en quelque sorte notre objectif dans tout cela, c'est juste de rendre quelque chose d'horrible un peu meilleur pour quelqu'un d'autre".

Elle a également appelé à une action au niveau de l'État.

Le procureur du comté de Parker, Jeff Swain, a déclaré par courrier électronique que la personne qui a créé les images du lycée Aledo avait été « sanctionnée » par le système pour mineurs, mais que son nom, l'accusation et la sanction ne pouvaient pas être divulgués car les procédures pour mineurs sont confidentielles.

Swain a déclaré que la seule référence dans la loi du Texas à un « deepfake » concerne la production ou la distribution illégale de vidéos, ce qui ne s'appliquerait pas aux images. La législature du Texas a également élargi les lois de l'État sur la pornographie juvénile pour couvrir les images modifiées pour contenir une ressemblance avec un enfant.

« Cette disposition inclut les images éditées avec des logiciels conventionnels comme Photoshop ainsi que celles éditées à l'aide de l'intelligence artificielle », a déclaré Swain. « Étant donné que la loi sur les faux-semblants et l'amendement sur la pornographie infantile sont relativement nouveaux, nous continuons à travailler avec notre communauté chargée de l'application de la loi pour les former à l'interaction entre ces dispositions. »

McAdams a déclaré qu'Elliston a toujours été une « papillon social » pétillante et extravertie, mais qu'elle est restée davantage attachée à son groupe d'amis après l'incident.

Elliston craint que les photos puissent un jour affecter sa capacité à entrer à l'université ou à décrocher un emploi, a déclaré McAdams.

Elliston a déclaré qu'elle espère que le projet de loi ira de l'avant.

« Je ne souhaite à personne de vivre cette expérience et j'espère créer quelque chose qui évitera à tout étudiant d'avoir à traverser cela », a-t-elle déclaré.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd