Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4568

Incidents associés

Incident 79927 Rapports
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates

Loading...
Une adolescente du nord du Texas, victime d'un deepfake, réclame une loi fédérale
spectrumlocalnews.com · 2024

WASHINGTON — Au Capitole, une mère du nord du Texas et sa fille de 15 ans ont fait pression pour que la loi soit adoptée afin de protéger contre le deepfake revenge porn, qui consiste en des images sexuellement explicites créées par l’intelligence artificielle pour nuire ou embarrasser quelqu’un. Elliston Berry s’est rendue dans la capitale du pays depuis Aledo, au Texas, pour partager son histoire de victime de telles images manipulées.

« Je voulais vraiment montrer et partager mon histoire, de façon à ce que toute personne qui traverse cette épreuve sache qu’elle n’est pas seule, que justice sera rendue et qu’elle s’en sortira », a déclaré Elliston à Spectrum News.

L’automne dernier, alors qu’elle était en première année de lycée, Elliston s’est réveillée un matin sous un déluge de SMS.

Quelqu’un a utilisé un programme pour modifier des photos innocentes d’elle et de ses amis afin qu’elles soient sexuellement explicites, puis a partagé les images sur les réseaux sociaux.

« C'était vraiment effrayant, et j'avais vraiment peur d'aller à l'école ou de simplement sortir de mes limites, de mon cercle, et maintenant que nous nous battons pour que ces projets de loi soient mis en place. Cela crée également un soulagement beaucoup plus grand car d'autres personnes qui traversent cette épreuve peuvent également obtenir justice », a déclaré Elliston.

Sa mère, Anna McAdams, a déclaré qu'une partie de la frustration était due au temps qu'il a fallu pour faire retirer les images.

« Nous voulons toujours protéger notre enfant quoi qu'il arrive, et nous ferons tout ce qui est en notre pouvoir pour y parvenir, et je pense que cette infraction à l'IA m'a montré qu'il n'y avait vraiment rien que nous puissions faire », a déclaré McAdams. « Je n'ai pas pu la protéger à ce moment-là, et c'est là, et cela pourrait rester là pour le reste de sa vie, mais, vous savez, nous voulons juste tirer le meilleur parti de cette situation et nous assurer que cela n'arrive à personne d'autre, ou si cela arrive, il y a des conséquences pour que quelqu'un s'arrête. »

L'élève responsable des images d'Elliston a été suspendu et a décidé de quitter l'école. Les charges retenues contre lui seront abandonnées lorsqu'il aura 18 ans.

Mardi, Elliston et sa mère ont rejoint le sénateur Ted Cruz, républicain du Texas, et d'autres sponsors pour l'introduction du Take it Down Act. Le projet de loi bipartisan criminaliserait la publication d'images intimes non consensuelles. Il obligerait également les plateformes de médias sociaux à développer des procédures pour supprimer les images dans les 48 heures suivant la réception d'une demande valide d'une victime. Les entreprises devraient également prendre des mesures raisonnables pour supprimer toute copie.

« Les grandes entreprises technologiques savent comment se conformer à ces demandes, car en vertu de la loi sur le droit d'auteur, si vous publiez une scène du « Roi Lion » sur les médias sociaux, vous la verrez supprimée très, très rapidement, car ce contenu est protégé par le droit d'auteur, ils savent comment le supprimer », a déclaré Cruz à Spectrum News. « Malheureusement, les grandes entreprises technologiques ont fait preuve d’une telle arrogance envers les victimes de ce genre de violations qu’elles ignorent tout simplement leurs demandes, et cette loi va donc changer cela. »  

Le Congrès est largement favorable à la résolution de ce problème, bien qu’il y ait un désaccord sur le degré de responsabilité à donner aux entreprises technologiques pour résoudre le problème. D’autres sénateurs ont présenté un projet de loi qui permettrait aux victimes d’intenter des poursuites contre ceux qui manipulent et partagent des images, mais Cruz estime qu’il faut faire davantage. 

« Il y a quelques années, si vous essayiez de retoucher la tête de quelqu’un sur un autre corps avec Photoshop, cela semblait assez manifestement faux, et avec l’IA, vous pouvez maintenant le faire d’une manière qu’il est impossible de voir », a déclaré Cruz. « Ce projet de loi s’attaque directement à la technologie de deep fake utilisée à cette fin, et deuxièmement, à l’obligation pour les grandes entreprises technologiques de retirer les images. Aucun des autres projets de loi ne prévoit cette obligation. » 

Elliston et sa mère ont déclaré qu’elles espéraient que la législation fédérale serait adoptée.

« Cela semblait désespéré, mais comme nous avons fait tant de progrès pour mettre en place ces lois et obtenir justice, cela montre qu’il faut commencer quelque part, et tant que vous avez une voix et que vous essayez de tendre la main, cela peut se transformer en n’importe quoi », a déclaré Elliston.

En vertu du projet de loi, le non-respect des règles par les sociétés de médias sociaux entraînerait des mesures coercitives de la part de la Federal Trade Commission.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd