Incidents associés

Plus d’une vingtaine de membres du Congrès ont été victimes de deepfakes sexuellement explicites – et une écrasante majorité des personnes concernées sont des femmes, selon une nouvelle étude qui met en lumière la forte disparité entre les sexes dans cette technologie et les risques croissants pour la participation des femmes à la politique et à d’autres formes d’engagement civique.
L’American Sunlight Project (ASP), un groupe de réflexion qui étudie la désinformation et défend des politiques qui favorisent la démocratie, a publié mercredi des conclusions qui identifient plus de 35 000 mentions d’images intimes non consensuelles (NCII) représentant 26 membres du Congrès – 25 femmes et un homme – qui ont été trouvées récemment sur des sites Web de deepfakes. La plupart des images ont été rapidement supprimées lorsque les chercheurs ont partagé leurs conclusions avec les membres du Congrès concernés.
« Nous devons tenir compte de ce nouvel environnement et du fait qu’Internet a ouvert la voie à un grand nombre de ces préjudices qui ciblent de manière disproportionnée les femmes et les communautés marginalisées », a déclaré Nina Jankowicz, experte en désinformation et harcèlement en ligne qui a fondé The American Sunlight Project et est l’une des auteures de l’étude.
Les images intimes non consensuelles, également connues sous le nom familier de deepfake porn (bien que les défenseurs préfèrent le premier), peuvent être créées grâce à l’IA gén érative ou en superposant des portraits d’artistes adultes sur des médias. Il existe actuellement une politique limitée pour restreindre sa création et sa diffusion.
L’ASP a partagé les premières conclusions de ce type en exclusivité avec The 19th. Le groupe a collecté des données en partie en développant un moteur de recherche personnalisé pour trouver les membres du 118e Congrès par prénom et nom, abréviations ou surnoms sur 11 sites deepfake bien connus. Ni l’affiliation à un parti ni la situation géographique n’ont eu d’impact sur la probabilité d’être la cible d’abus, bien que les membres plus jeunes aient été plus susceptibles d’être victimes. Le facteur le plus important était le sexe, les femmes membres du Congrès étant 70 fois plus susceptibles que les hommes d’être ciblées.
L’ASP n’a pas divulgué les noms des législateurs représentés sur les images pour éviter d’encourager les recherches. Ils ont contacté les bureaux de toutes les personnes concernées pour les alerter et leur proposer des ressources sur les préjudices en ligne et le soutien en matière de santé mentale. Les auteurs de l’étude notent qu’immédiatement après l’incident, les images ciblant la plupart des membres ont été entièrement ou presque entièrement supprimées des sites – un fait qu’ils sont incapables d’expliquer. Les chercheurs ont noté que de telles suppressions n’empêchent pas le partage ou le téléchargement de contenu à nouveau. Dans certains cas impliquant des législateurs, les pages de résultats de recherche sont restées indexées sur Google malgré la suppression en grande partie ou en totalité du contenu. « La suppression pourrait être une coïncidence. Quelle que soit la raison exacte qui a conduit à la suppression de ce contenu — qu’il s’agisse de lettres de mise en demeure, de plaintes pour violation de droits d’auteur ou d’autres contacts avec les sites hébergeant des abus de deepfake — cela met en évidence une grande disparité de privilèges », selon l’étude. « Les personnes, en particulier les femmes, qui ne disposent pas des ressources accordées aux membres du Congrès, auraient très peu de chances d’obtenir une réponse aussi rapide de la part des créateurs et des distributeurs de NCII générés par l’IA s’ils initiaient eux-mêmes une demande de retrait. »
Selon les premières conclusions de l’étude, près de 16 % de toutes les femmes qui siègent actuellement au Congrès — soit environ 1 députée sur 6 — sont victimes d’images intimes non consensuelles générées par l’IA.
Nina Jankowicz, experte en désinformation et en harcèlement en ligne, est l’auteur d’une étude récente qui a identifié plus de 35 000 mentions d’images intimes non consensuelles (NCII) représentant 26 membres du Congrès. (Bastien Inzurralde/AFP/Getty Images)
Jankowicz a été la cible de harcèlement et de menaces en ligne pour son travail national et international de démantèlement de la désinformation. Elle a également parlé publiquement d’avoir été victime d’abus de deepfake – un fait qu’elle a découvert grâce à une alerte Google en 2023.
« Vous pouvez être amené à apparaître dans ces situations compromises et intimes sans votre consentement, et ces vidéos, même si vous deviez dire, poursuivre une réclamation de droit d’auteur contre l’auteur original, comme dans mon cas, elles prolifèrent sur Internet sans votre contrôle et sans aucune sorte de conséquence pour les personnes qui amplifient ou créent du deepfake porn », a-t-elle déclaré. « Cela continue de représenter un risque pour toute personne qui se trouve sous les feux de la rampe, qui participe au débat public, mais en particulier pour les femmes et les femmes de couleur. »
Les abus sexuels basés sur des images peuvent avoir des effets dévastateurs sur la santé mentale des victimes, qui incluent des personnes ordinaires qui ne sont pas impliquées dans la politique, y compris les enfants. Au cours de l'année écoulée, des rapports ont fait état de lycéennes ciblées par des abus sexuels basés sur des images dans des États comme la Californie, le New Jersey et la Pennsylvanie. Les responsables des écoles ont eu des degrés de réaction variables, bien que le FBI ait également émis un nouvel avertissement](https://www.ic3.gov/PSA/2024/PSA240329) selon lequel le partage de telles images de mineurs est illégal.
L’impact complet des deepfakes sur la société n’est pas encore clairement défini, mais des recherches montrent déjà que 41 % des femmes âgées de 18 à 29 ans s’autocensurent pour éviter le harcèlement en ligne.
« C’est une menace extrêmement puissante pour la démocratie et la liberté d’expression, si près de la moitié de la population se tait par peur du harcèlement qu’elle pourrait subir », a déclaré Sophie Maddocks, directrice de recherche au Center for Media at Risk de l’Université de Pennsylvanie.
Il n’existe aucune loi fédérale qui établisse des sanctions pénales ou civiles pour quiconque génère et distribue des images intimes non consensuelles générées par l’IA. Une douzaine d’États ont promulgué des lois ces dernières années, bien que la plupart prévoient des sanctions civiles, et non pénales.
Les images intimes non consensuelles générées par l’IA ouvrent également la voie à des menaces pour la sécurité nationale en créant les conditions d’un chantage et de concessions géopolitiques. Cela pourrait avoir des répercussions sur les décideurs politiques, qu’ils soient ou non directement la cible des images.
« J’espère ici que les membres seront poussés à agir lorsqu’ils reconnaîtront non seulement que cela affecte les femmes américaines, mais aussi que cela les affecte », a déclaré Jankowicz. « Cela affecte leurs propres collègues. Et cela se produit simplement parce qu’elles sont sous les feux des projecteurs. »
Les abus sexuels basés sur des images constituent un risque particulier pour les femmes qui se présentent aux élections. Susanna Gibson a perdu de justesse sa course législative compétitive après qu’un agent républicain a partagé avec le Washington Post des enregistrements non consensuels de diffusions en direct sexuellement explicites mettant en scène la démocrate de Virginie et son mari. Dans les mois qui ont suivi sa défaite, Gibson a déclaré au 19th qu’elle avait entendu parler de jeunes femmes découragées de se présenter aux élections par peur que des images intimes soient utilisées pour les harceler. Gibson a depuis lancé une organisation à but non lucratif dédiée à la lutte contre les abus sexuels basés sur l'image et un comité d'action politique d'accompagnement pour soutenir les femmes candidates contre les violations de la vie privée.
Notre journalisme reste ancré dans les expériences et les besoins de notre communauté. Soutenez notre salle de presse à but non lucratif pendant notre campagne d'impact de fin d'année, et votre don sera égalé.
Maddocks a étudié comment les femmes qui s'expriment en public sont plus susceptibles de subir des violences sexuelles numériques.
« Nous avons depuis longtemps cette idée que « les femmes devraient être vues et non entendues », ce qui me fait penser aux écrits et aux recherches de Mary Beard (https://www.nytimes.com/2016/04/17/fashion/mary-beard-against-internet-trolling.html) selon lesquels la féminité est contraire à la parole publique. Ainsi, lorsque les femmes s’expriment en public, on se dit presque : « OK. Il est temps de les humilier. Il est temps de les déshabiller. Il est temps de les faire revenir à la maison. Il est temps de les faire taire par la honte. » Et cette motivation de réduction au silence et de honte… nous devons la comprendre afin de comprendre comment ce préjudice se manifeste en ce qui concerne les femmes du Congrès. »
L’ASP encourage le Congrès à adopter une législation fédérale. Le Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024, également connu sous le nom de DEFIANCE Act, permettrait aux citoyens de poursuivre en justice quiconque crée, partage ou reçoit de telles images. Le Take It Down Act inclurait la responsabilité pénale pour de telles activités et obligerait les entreprises technologiques à supprimer les deepfakes. Les deux projets de loi ont été adoptés par le Sénat avec le soutien bipartisan, mais doivent gérer les préoccupations concernant la liberté d'expression et les définitions de préjudice, qui sont des obstacles typiques à la politique technologique, à la Chambre.
« Ce serait un manquement au devoir de la part du Congrès de laisser cette session se terminer sans adopter au moins un de ces projets de loi », a déclaré Jankowicz. « C'est l'une des façons dont les vrais Américains ressentent actuellement les dommages causés par l'intelligence artificielle. « Ce n’est pas un préjudice futur. Ce n’est pas quelque chose que nous devons imaginer. »
En l’absence d’action du Congrès, la Maison Blanche a collaboré avec le secteur privé pour concevoir des solutions créatives pour freiner les abus sexuels basés sur l’image. Mais les critiques ne sont pas optimistes quant à la capacité des Big Tech à s’autoréguler, compte tenu de l’historique des préjudices causés par leurs plateformes.
« Il est si facile pour les auteurs de créer ce type de contenu, et le signal ne s’adresse pas uniquement à la femme ciblée », a déclaré Jankowicz. « C'est un message adressé aux femmes du monde entier : "Si vous faites ce pas, si vous élevez la voix, vous devrez peut-être faire face à telle ou telle conséquence." »
Si vous avez été victime d'abus sexuel basé sur des images, la Cyber Civil Rights Initiative tient une liste de ressources juridiques.