Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4391

Incidents associés

Incident 8747 Rapports
1 in 6 Congresswomen Have Reportedly Been Targeted by AI-Generated Nonconsensual Intimate Imagery

Loading...
Les femmes au Congrès sont 70 fois plus susceptibles d'être victimes de deepfakes générés par l'IA que leurs homologues masculins
mashable.com · 2024

Le domaine politique est devenu encore plus compliqué pour les femmes dirigeantes, avec l'essor de l'IA générative qui représente un risque encore plus grand pour les femmes politiques que pour les hommes, selon un rapport publié cette semaine.

L'analyse, publiée par le groupe de réflexion sur la désinformation American Sunlight Project (ASP) via The 19th, le 11 décembre, a révélé plus de 35 000 images intimes non consensuelles modifiées numériquement (NCII) représentant 26 membres du Congrès. Les chiffres de l'ASP, une fois décomposés, décrivent une dure réalité pour les victimes de NCII : sur ces milliers d'images, l'organisation a trouvé 25 femmes politiques représentées par l'IA. Un seul homme était le sujet de ce contenu.

Tout au long de l'étude, les femmes membres du Congrès étaient 70 fois plus susceptibles que les hommes d'être ciblées par des images synthétiques non consensuelles et 1 femme membre du Congrès sur 6 (soit 16 %) est victime d'images intimes non consensuelles.

Les dirigeants de tous les partis politiques ont tenté de s'attaquer à la montée des images synthétiques générées par l'IA et par l'IA, mais ont tardé à parvenir à un consensus. En janvier, un groupe bipartisan de sénateurs a présenté le Disrupt Explicit Forged Images and Non-Consensual Edits Act de 2024 (Defiance Act), destiné à criminaliser l'acte de diffusion de « faux numériques » sexualisés et non consensuels réalisés à l'aide de l'IA. Il a été adopté en juillet mais est toujours à l'étude à la Chambre.

La semaine dernière, le Sénat a adopté la loi Take It Down, présentée par le sénateur Ted Cruz en juin. La loi criminalise également la publication en ligne de deepfakes manipulés numériquement, mais prévoit également des sanctions pour les entreprises qui ne suppriment pas ce contenu dans les 48 heures suivant son signalement.

Mais la réalité genrée des images boostées par l'IA ne peut être sous-estimée, en particulier lorsque les femmes dirigeantes évoluent dans un environnement en ligne précaire qui les expose à un risque accru d'abus sexuel. En août, le Center for Countering Digital Hate a publié une étude sur la montée de la haine en ligne et l’engagement négatif sur les profils sociaux des femmes politiques. Selon une analyse des profils Instagram de 10 femmes élues, un commentaire sur 25 était « très probablement » toxique. Instagram n’a pas réagi à 93 % des commentaires abusifs signalés ciblant les femmes politiques.

« Nous devons en quelque sorte tenir compte de ce nouvel environnement et du fait qu’Internet a ouvert la voie à tant de ces préjudices qui ciblent de manière disproportionnée les femmes et les communautés marginalisées », a déclaré Nina Jankowicz, fondatrice et auteure de l’American Sunlight Project. « J’espère que les membres seront poussés à agir lorsqu’ils reconnaîtront que cela affecte non seulement les femmes américaines, mais aussi elles-mêmes. Cela affecte leurs propres collègues. Et cela se produit simplement parce qu’elles sont sous les feux de la rampe. »

L'ASP a informé les bureaux des politiciens concernés, les alertant de la création de NCII par l'IA. Les images ont été presque entièrement supprimées suite à l'avis, bien que l'organisation n'ait reçu aucun commentaire.

Si des images intimes ont été partagées sans votre consentement, appelez la hotline 24h/24 et 7j/7 de la Cyber Civil Rights Initiative au 844-878-2274 pour une assistance gratuite et confidentielle. Le site Web du CCRI comprend également des informations utiles ainsi qu'une liste de ressources internationales.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd