Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4572

Incidents associés

Incident 59757 Rapports
Female Students at Westfield High School in New Jersey Reportedly Targeted with Deepfake Nudes

Un adolescent a créé une image nue de sa camarade de classe et l'a diffusée sur Snapchat. Il a été suspendu de l'école pendant une journée
digitalcameraworld.com · 2024

Alors que des membres du Parlement britannique lancent une initiative visant à interdire légalement les smartphones dans les écoles, afin de protéger les enfants des dangers potentiels des réseaux sociaux, une adolescente américaine partage son histoire après que des images d'elle nue prises par l'IA ont fini par circuler sur les réseaux sociaux.

Francesca Mani avait 14 ans en octobre dernier lorsque son nom a été appelé par haut-parleur, au lycée Westfield dans le New Jersey, la convoquant dans le bureau du directeur. Elle a ensuite appris qu'une photo d'elle avait été prise sur Instagram par un camarade de classe, et téléchargée sur un site appelé Clothoff – un site Web de « nudification » populaire.

Mani, qui a été choisie par Time Out comme l'une des 100 personnes les plus influentes d'IA 2024 pour sa campagne, s'est entretenue avec Anderson Cooper sur 60 Minutes et a expliqué pourquoi elle s'est désormais donné pour mission d'empêcher que cela n'arrive à d'autres.

Selon Graphika et rapporté par CBS News, le mois dernier, il y a eu plus de trois millions de visites sur Clothoff – un site où les gens peuvent télécharger une photo, facilement obtenue à partir du compte de réseau social d’une autre personne, et utiliser l’intelligence artificielle pour retirer leurs vêtements, ce qui donne un deepfake très réaliste.

Mani n’a jamais vu la photo d’elle qui circulait, mais une autre étudiante a également intenté une action en justice visant les allégations selon lesquelles un garçon de leur école avait téléchargé les photos d’Instagram sur Clothoff, puis les avait diffusées dans l’école sur Snapchat.

« C’est comme un tir rapide », a-t-elle déclaré, « ça passe par tout le monde. Et donc quand quelqu’un entend – entend ça, c’est comme, 'Attendez. Genre, IA ?' Personne ne pense que ça pourrait vous arriver. »

Les meilleures offres d’appareils photo, des critiques, des conseils sur les produits et des actualités incontournables sur la photographie, directement dans votre boîte de réception !

Alors que l’école a fait valoir que les images avaient été supprimées et que la diffusion avait cessé, la mère de Mani, Dorota, n’était pas convaincue. Dans une interview accordée à 60 Minutes, elle a déclaré : « Qui a imprimé ? Qui a fait une capture d'écran ? Qui a téléchargé ? On ne peut pas vraiment tout effacer. »

60 Minutes a également découvert 30 cas similaires dans des écoles aux États-Unis au cours des 20 derniers mois, en plus d'autres cas dans le monde entier. Dans au moins trois de ces cas, Snapchat aurait été utilisé pour faire circuler des images dénudées par l'IA.

Yiota Souras est directrice juridique au Centre national pour les enfants disparus et exploités, qui travaille avec des entreprises technologiques pour signaler les contenus inappropriés sur leurs sites. Si certains peuvent affirmer que les images sont fausses, Souras soutient que les dommages qu'elles causent aux victimes sont réels.

Elle a déclaré à CBS : « Ils souffriront, vous savez, de détresse mentale et d'atteintes à la réputation. Dans un contexte scolaire, c'est vraiment amplifié, car l'un de leurs pairs a créé cette image. Il y a donc une perte de confiance. Une perte de confiance."

Dans le cas de Mani, on lui a dit que le garçon qui avait créé et diffusé l'image avait reçu une exclusion temporaire de l'école pour une journée comme seule sanction.

Les nouvelles technologies d'intelligence artificielle ont progressé bien plus vite que leurs homologues humaines ne peuvent les contrôler avec une législation appropriée. Il y a de la confusion et des failles, et la responsabilité de ces abus de nouvelles technologies est souvent renvoyée d'un côté à l'autre.

Un parent a déclaré à 60 Minutes qu'il avait fallu 8 mois à Snapchat pour faire supprimer les comptes qui avaient partagé les images de leur fille. Le ministère de la Justice affirme que les nus de mineurs créés par l'IA sont illégaux en vertu des lois fédérales sur la pornographie infantile s'ils représentent ce qui est défini comme une « conduite sexuellement explicite ». Cependant, Souras craint que certaines de ces images dénudées créées par des sites Web ne correspondent pas à cette définition.

Aujourd’hui âgée de 15 ans, Mani et sa mère ont passé l’année dernière à encourager les écoles à mettre en œuvre des politiques sérieuses concernant l’IA et ont travaillé avec des membres du Congrès pour essayer de faire passer plusieurs projets de loi fédéraux visant à protéger les personnes. Le Take It Down Act est coparrainé par le sénateur républicain Ted Cruz et Amy Klobuchar, une politicienne et avocate qui, l’année prochaine, deviendra la présidente du Comité directeur et politique démocrate du Sénat.

Le projet de loi créerait des sanctions pénales pour le partage de dénudations d’IA et obligerait les entreprises de réseaux sociaux à retirer les photos dans les 48 heures suivant la réception d’une demande. Il a été adopté par le Sénat au début du mois et attend maintenant un vote à la Chambre.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e