Incidents associés

Plus tôt cette semaine, un [reportage] de NBC (https://www.nbcnews.com/tech/social-media/emma-watson-deep-fake-scarlett-johansson-face-swap-app-rcna73624) a déterré un visage de célébrité -application d'échange, Facemega, avec le potentiel de créer facilement du porno deepfake représentant des femmes célèbres ou faisant face au public. La pornographie Deepfake fait référence à des images pornographiques et sexuelles fausses mais très réalistes, souvent générées par l'IA, de personnes sans leur consentement. Sans surprise, il cible généralement les femmes et en particulier les célébrités féminines ; les victimes ont jusqu'à présent inclus des streamers féminins Twitch populaires et, dès 2018, [Gal Gadot](https: //www.vice.com/en/article/gydydm/gal-gadot-fake-ai-porn).
Selon le rapport de NBC, Facemega a diffusé des centaines de publicités différentes sur Facebook, Instagram et d'autres applications Meta, annonçant la facilité avec laquelle les utilisateurs pouvaient s'échanger face à Emma Watson ou Scarlet Johansson, accompagnés d'exemples vidéo très réalistes et sexuellement suggestifs. (Ceci, bien sûr, malgré la façon dont Meta banned contenu le plus deepfake en 2020.) L'application a également placé des annonces dans l'Apple Store, où il est devenu disponible pour la première fois l'année dernière. Mardi soir, Kat Tenbarge de NBC [a rapporté] (https://twitter.com/kattenbarge/status/1633203298957242374) que l'App Store d'Apple avait supprimé l'application d'échange de visage, et Meta a cessé de diffuser des publicités pour celle-ci, peu de temps après. Rapport original de NBC. Mais l'application reste sur Google Play.
Le rapport de NBC note qu'"aucun acte sexuel n'a été montré dans les vidéos", mais "leur nature suggestive" indique clairement qu'au moins un objectif de l'application est de "générer un contenu sexuel truqué". NBC a également constaté que "certaines des publicités montraient ce qui ressemblait au début de vidéos pornographiques avec le son bien connu de la piste d'intro de la plate-forme porno Pornhub en cours de lecture".
"Remplacez le visage par n'importe qui", disent les légendes de certaines des annonces Meta. "Amusez-vous avec la technologie AI swap face." Facemega offre également aux utilisateurs la possibilité d'échanger différentes célébrités sur des vidéos prédéfinies, et parmi d'autres catégories, comprend une catégorie "Hot" qui "présente des vidéos de femmes et d'hommes légèrement vêtus dansant et posant".
Même si Meta et Apple semblent avoir pris des mesures pour freiner Facemega, avec ou sans l'application, le deepfake porn est une crise qui se développe rapidement. Selon un chercheur en streaming qui a parlé à NBC, le mois dernier a vu le plus grand volume de vidéos porno deepfake jamais téléchargé. Ces chiffres alarmants - et un récent [scandale] Twitch (https://jezebel.com/atrioc-twitch-deepfake-ai-porn-1850055648?rev=1675203259281) impliquant un streamer masculin populaire pour avoir regardé du porno deepfake de streamers féminins dans janvier – précisez que rien de tout cela n'est hypothétique. Et le problème s'aggrave, à mesure que les outils de deepfake deviennent plus accessibles.
Des applications d'échange de visage et d'autres technologies d'intelligence artificielle peuvent être utilisées pour créer du porno deepfake ciblant non seulement des célébrités, mais aussi des amis, des collègues et même des connaissances occasionnelles. Les experts disent que les applications d'imagerie générées par l'IA de plus en plus populaires comme Lensa AI ont été une aubaine pour le contenu d'abus sexuels sur des enfants. Une chercheuse a écrit dans Wired l'année dernière qu'après avoir téléchargé des photos d'elle-même sur Lensa, "ce qui en a résulté était des photos entièrement nues d'un visage adolescent et parfois enfantin mais un corps résolument adulte.
Et, particulièrement inquiétant, nos lois sont extrêmement mal équipées pour protéger les gens. Alors que la plupart des États ont [différentes lois anti-cyber-exploitation] (https://www.technologyreview.com/2021/02/12/1018222/deepfake-revenge-porn-coming-ban/) pour freiner le « revenge porn » (images nues non consensuelles d'individus partagées par d'anciens partenaires ou harceleurs), les seuls États qui interdisent explicitement le contenu sexuel deepfake non consensuel sont la Californie, la Virginie et le Texas. Alors que des applications comme Facemega prolifèrent, probablement aidées par des plateformes sociales comme Meta, nous ne sommes tout simplement pas préparés à l'ampleur des dommages que cela pourrait infliger.