Incidents associés

Alors que des membres du Parlement britannique lancent une initiative visant à interdire légalement les smartphones dans les écoles, afin de protéger les enfants des dangers potentiels des réseaux sociaux, une adolescente américaine partage son histoire après que des images d'elle nue prises par l'IA ont fini par circuler sur les réseaux sociaux.
Francesca Mani avait 14 ans en octobre dernier lorsque son nom a été appelé par haut-parleur, au lycée Westfield dans le New Jersey, la convoquant dans le bureau du directeur. Elle a ensuite appris qu'une photo d'elle avait été prise sur Instagram par un camarade de classe, et téléchargée sur un site appelé Clothoff – un site Web de « nudification » populaire.
Mani, qui a été choisie par Time Out comme l'une des 100 personnes les plus influentes d'IA 2024 pour sa campagne, s'est entretenue avec Anderson Cooper sur 60 Minutes et a expliqué pourquoi elle s'est désormais donné pour mission d'empêcher que cela n'arrive à d'autres.
Selon Graphika et rapporté par CBS News, le mois dernier, il y a eu plus de trois millions de visites sur Clothoff – un site où les gens peuvent télécharger une photo, facilement obtenue à partir du compte de réseau social d’une autre personne, et utiliser l’intelligence artificielle pour retirer leurs vêtements, ce qui donne un deepfake très réaliste.
Mani n’a jamais vu la photo d’elle qui circulait, mais une autre étudiante a également intenté une action en justice visant les allégations selon lesquelles un garçon de leur école avait téléchargé les photos d’Instagram sur Clothoff, puis les avait diffusées dans l’école sur Snapchat.
« C’est comme un tir rapide », a-t-elle déclaré, « ça passe par tout le monde. Et donc quand quelqu’un entend – entend ça, c’est comme, 'Attendez. Genre, IA ?' Personne ne pense que ça pourrait vous arriver. »
Les meilleures offres d’appareils photo, des critiques, des conseils sur les produits et des actualités incontournables sur la photographie, directement dans votre boîte de réception !
Alors que l’école a fait valoir que les images avaient été supprimées et que la diffusion avait cessé, la mère de Mani, Dorota, n’était pas convaincue. Dans une interview accordée à 60 Minutes, elle a déclaré : « Qui a imprimé ? Qui a fait une capture d'écran ? Qui a téléchargé ? On ne peut pas vraiment tout effacer. »
60 Minutes a également découvert 30 cas similaires dans des écoles aux États-Unis au cours des 20 derniers mois, en plus d'autres cas dans le monde entier. Dans au moins trois de ces cas, Snapchat aurait été utilisé pour faire circuler des images dénudées par l'IA.
Yiota Souras est directrice juridique au Centre national pour les enfants disparus et exploités, qui travaille avec des entreprises technologiques pour signaler les contenus inappropriés sur leurs sites. Si certains peuvent affirmer que les images sont fausses, Souras soutient que les dommages qu'elles causent aux victimes sont réels.
Elle a déclaré à CBS : « Ils souffriront, vous savez, de détresse mentale et d'atteintes à la réputation. Dans un contexte scolaire, c'est vraiment amplifié, car l'un de leurs pairs a créé cette image. Il y a donc une perte de confiance. Une perte de confiance."
Dans le cas de Mani, on lui a dit que le garçon qui avait créé et diffusé l'image avait reçu une exclusion temporaire de l'école pour une journée comme seule sanction.
Les nouvelles technologies d'intelligence artificielle ont progressé bien plus vite que leurs homologues humaines ne peuvent les contrôler avec une législation appropriée. Il y a de la confusion et des failles, et la responsabilité de ces abus de nouvelles technologies est souvent renvoyée d'un côté à l'autre.
Un parent a déclaré à 60 Minutes qu'il avait fallu 8 mois à Snapchat pour faire supprimer les comptes qui avaient partagé les images de leur fille. Le ministère de la Justice affirme que les nus de mineurs créés par l'IA sont illégaux en vertu des lois fédérales sur la pornographie infantile s'ils représentent ce qui est défini comme une « conduite sexuellement explicite ». Cependant, Souras craint que certaines de ces images dénudées créées par des sites Web ne correspondent pas à cette définition.
Aujourd’hui âgée de 15 ans, Mani et sa mère ont passé l’année dernière à encourager les écoles à mettre en œuvre des politiques sérieuses concernant l’IA et ont travaillé avec des membres du Congrès pour essayer de faire passer plusieurs projets de loi fédéraux visant à protéger les personnes. Le Take It Down Act est coparrainé par le sénateur républicain Ted Cruz et Amy Klobuchar, une politicienne et avocate qui, l’année prochaine, deviendra la présidente du Comité directeur et politique démocrate du Sénat.
Le projet de loi créerait des sanctions pénales pour le partage de dénudations d’IA et obligerait les entreprises de réseaux sociaux à retirer les photos dans les 48 heures suivant la réception d’une demande. Il a été adopté par le Sénat au début du mois et attend maintenant un vote à la Chambre.