Incidents associés
Partager des images nues de personnes réelles modifiées numériquement pourrait éventuellement constituer un crime fédéral.
Le représentant Joseph Morelle (Démocrate, New York) a proposé mardi à nouveau la « Loi sur la prévention des Deepfakes of Intimate Images », qui interdirait le partage non consensuel d'images intimes modifiées numériquement. Il avait précédemment présenté le projet de loi mais a depuis ajouté le représentant Tom. Kean, un républicain du New Jersey, en tant que co-sponsor. Kean avait présenté un projet de loi en novembre appelé AI Labeling Act of 2023, qui exigerait que le contenu généré par l'IA soit avoir un étiquetage clair qui l’identifie comme tel.
Le démarche bipartite mardi intervient en réponse à un incident à Westfield High School dans Nouveau Jersey. Là-bas, les garçons partageaient des images nues de camarades de classe générées par l’IA sans leur consentement. Lorsque les filles l'ont découvert, elles l'ont signalé aux administrateurs de l'école, qui l'ont qualifié dans un courrier électronique adressé aux parents d'« incident très grave ».
Francesca Mani, une étudiante de 14 ans à qui l'école a dit que sa photo figurait dans certaines des images générées, s'est mise en colère et a décidé de défendre les autres victimes. Elle et sa mère, Dorota Mani, ont passé les deux derniers mois à rencontrer des législateurs et étaient présentes à Washington, D.C., mardi lorsque Morelle et Kean ont annoncé la législation.
"Ce qui est arrivé à moi et à mes camarades de classe n'était pas cool, et je ne peux pas simplement hausser les épaules et laisser ça passer", a déclaré Francesca dans un communiqué commun publié par le bureau de Morelle. "Je suis ici, debout et criant pour le changement, me battant pour des lois afin que personne d'autre ne se sente aussi perdu et impuissant que moi."
Alors que les gens peuvent retoucher des images avec Photoshop et des logiciels similaires depuis des années, les nouveaux créateurs d'images IA facilitent la production de photos entièrement fabriquées. Il existe désormais des dizaines d'outils gratuits ou bon marché pour échanger des visages et « enlever des vêtements » qui peuvent être utilisés pour falsifier de vraies photos --- et il est difficile pour l'œil humain de distinguer le vrai du faux, selon les experts en IA. N'importe quelle image peut facilement être largement partagée sur les plateformes sociales et de messagerie en quelques clics.
Pourtant, les fausses images sexuelles de vraies personnes sont si nouvelles que la loi fédérale est à la traîne, disent les experts juridiques. Une poignée d'États, dont la Virginie, la Californie, le Minnesota et New York, ont interdit la distribution de faux porno ou ont donné aux victimes le droit de poursuivre leurs créateurs devant un tribunal civil.
En plus de faire du partage d'images intimes modifiées numériquement une infraction pénale, le projet de loi de Morelle et Kean permettrait également aux victimes de poursuivre les contrevenants devant un tribunal civil.
Dans le communiqué, Morelle a déclaré : "N'attendons pas le prochain incident de masse pour faire la une des journaux. Cela arrive chaque jour aux femmes du monde entier, et il est temps de leur rendre leur pouvoir."
Le bureau de Morelle n'a pas immédiatement répondu à une demande de commentaires supplémentaires.