Incidents associés

La semaine dernière, un nombre non divulgué de filles d'un lycée du New Jersey ont appris qu'un ou plusieurs élèves de leur école avaient utilisé un outil d'intelligence artificielle pour générer ce qui semblait être des images d'elles nues. Pire encore, ces images, qui utilisaient au moins une douzaine de photographies (https://www.wsj.com/tech/fake-nudes-of-real-students-cause-an-uproar-at-a-new-jersey -high-school-df10f1bb?st=t2o58fxzd2u4op1&reflink=desktopwebshare_permalink) de filles sur le campus, étaient partagés entre certains garçons de l'école lors de discussions de groupe. Il y a une enquête en cours, la [police locale est impliquée](https://lawandcrime.com/high-profile/high-school-student-allegedly-used-real-photos-to-create-pornographic-deepfakes-of-female -camarades de classe/), et des conseils ont été proposés aux étudiants concernés. Si vous pensez qu’il devrait y avoir une loi fédérale contre une telle exploitation néfaste des victimes mineures, voire adultes, d’ailleurs, je suis d’accord avec vous. Malheureusement, il n'existe aucun crime de ce type (https://qz.com/no-us-federal-law-banning-nude-ai-deepfakes-1850994319) qui couvre les nus générés par l'IA.
Si vous pensez qu’il devrait y avoir une loi fédérale contre une telle exploitation néfaste des victimes mineures, voire adultes, d’ailleurs, je suis d’accord avec vous.
Les photos et vidéos dites deepfake prolifèrent presque aussi vite que les gens peuvent télécharger le logiciel qui les génère. En plus de créer des produits fictifs qui ne ressemblent pas à des personnes particulières, les deepfakes peuvent utiliser le visage, la voix ou l’image partielle d’une personne réelle et les fusionner avec d’autres images pour leur donner l’apparence ou le son d’une représentation de cette personne. Au printemps dernier, une fausse photo du pape François portant un élégant manteau doudoune de la marque Balenciaga est devenue virale. Le pape est peut-être à la mode, mais ce n’est pas lui sur l’image.
En 2019, les chercheurs ont conclu que [96 % des 14 000 vidéos deepfake en ligne trouvées étaient pornographiques](https://www.washingtonpost.com/technology/2023/11/05/ai-deepfake-porn-teens-women-impact /). Geneviève Oh, chercheuse Internet indépendante qui [a suivi la montée des deepfakes](https://www.nbcnews.com/tech/internet/deepfake-porn-ai-mr-deep-fake-economy-google-visa-mastercard -download-rcna75071), a déclaré au Washington Post que 143 00 vidéos de contrefaçon sur 40 sites Web populaires [avaient été vues 4,2 milliards de fois](https://www.washingtonpost.com/technology/2023/11/05/ai- deepfake-porn-teens-women-impact/).
Des lycéens aux influenceurs YouTube en passant par les célébrités, la [liste des victimes](https://nomics.indiatimes.com/magazines/panache/age-of-ai-has-led-to-an-alarming-prolifération-of -deep-fake-porn/articlesshow/102175209.cms) continue de croître, et le FBI prévient que le nombre de cas de « sextorsion » augmente.
Sur Internet, en particulier dans les recoins du dark web, les pédophiles [s'en donnent à coeur joie](https://www.washingtonpost.com/technology/2023/06/19/artificial-intelligence-child-sex-abuse -images/) avec la technologie IA. Il est important de noter que la pédopornographie générée par l’IA comprend des images empruntées à des enfants connus et identifiables, ainsi que des fabrications entièrement concoctées à partir de milliers d’images numérisées disséminées sur le Web. Alors que le ministère américain de la Justice affirme que ce type de contenu serait passible de poursuites en vertu des lois fédérales existantes sur la pédopornographie qui couvrent les dessins et caricatures représentant des mineurs engagés dans le cas de relations sexuelles explicites, cela ne peut pas indiquer une seule poursuite pour pornographie juvénile IA en vertu de cette théorie. Même si le ministère de la Justice poursuivait quelqu'un pour avoir produit ou possédé de tels documents, il lui faudrait prouver que les images répondent à la définition requise de la pédopornographie, c'est-à-dire représentant des mineurs se livrant à des actes sexuels explicites.
Les lois fédérales sur la pédopornographie n’aideraient pas non plus les lycéens du New Jersey s’ils étaient représentés nus mais ne se livrant pas à une conduite explicite. Cette distinction juridique n’offre pas non plus beaucoup de réconfort si les images non consensuelles de ces victimes restent éternellement en ligne pour les hanter lorsqu’elles postulent à l’université ou à un emploi. Nous avons besoin d’une loi fédérale pour combler cet écart grandissant entre une législation dépassée et la réalité de la haute technologie.
C’est pourquoi les procureurs généraux des 50 États appellent le Congrès à faire quelque chose. C'est aussi pourquoi le président Joe Biden, dans son [décret exécutif] du 30 octobre(https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe -développement-et-utilisation-sécurisés et dignes de confiance de l'intelligence artificielle/) répondant à la nécessité de comprendre et de réglementer l'IA, a demandé à son administration de rechercher des solutions pour : empêcher l'IA générative de produire du matériel d'abus sexuel sur des enfants ou de produire des rapports intimes non consensuels. images de personnes réelles (y compris des représentations numériques intimes du corps ou de parties du corps d'une personne identifiable).
En juin, le représentant Joe Morelle, DN.Y., a présenté la [Loi sur la prévention des Deepfakes of Intimate Images](https://abcnews.go.com/Politics/sharing-deepfake-pornography-illegal-america/story?id= 99084399) dans le but de lutter contre l’utilisation continue de l’IA pour produire des représentations nues de véritables victimes. Cette législation constitue un pas dans la bonne direction pour limiter l’utilisation de l’IA à des fins nuisibles.
Neuf États — dont la Californie, le Texas et la Virginie — ont des lois qui offrent des recours pour les victimes d’images générées par l’IA. Certains États autorisent les poursuites civiles des victimes, d'autres ont criminalisé ce type de comportement, et d'autres encore envisagent de rendre obligatoires les filigranes numériques qui permettraient de retracer les images jusqu'à leurs producteurs. Certaines plateformes Internet facilitent les demandes de « retrait » des victimes et prétendent supprimer le contenu à la demande d’une victime vérifiée.
La pornographie générée par l’IA ne victimise pas ses cibles une seule fois.
Toutes ces options, y compris l'obligation pour les fabricants de logiciels de création d'images d'IA d'insérer automatiquement une étiquette « deepfake » sur le contenu fabriqué, doivent être explorées dès maintenant par le Congrès et les agences fédérales avant que d'autres victimes ne soient confrontées à l'horreur de voir cette technologie utilisée contre eux.
La pornographie générée par l’IA ne victimise pas ses cibles une seule fois. Ces victimes sont violées à chaque fois que quelqu'un clique sur les images. Si neuf États ont compris cela, alors notre gouvernement fédéral devrait être en mesure de le faire également. Il s’agit d’une question bipartite rare que les législateurs devraient saisir pour faire le bien avant que de mauvais acteurs n’utilisent l’IA pour faire encore plus de ravages dans la vie d’un plus grand nombre d’innocents.