Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 7089

Incidents associés

Incident 132927 Rapports
Grok Reportedly Generated and Distributed Nonconsensual Sexualized Images of Adults and Minors in X Replies

Loading...
Des sénateurs américains exigent des réponses de X, Meta, Alphabet et d'autres concernant les deepfakes à caractère sexuel.
techcrunch.com · 2026

Le problème des deepfakes à caractère sexuel et non consensuels dans le monde de la tech dépasse désormais le cadre de X.

Dans une lettre adressée aux dirigeants de X, Meta, Alphabet, Snap, Reddit et TikTok, plusieurs sénateurs américains demandent à ces entreprises de prouver qu'elles disposent de « protections et de politiques robustes » et d'expliquer comment elles comptent endiguer la prolifération des deepfakes à caractère sexuel sur leurs plateformes.

Les sénateurs exigent également que les entreprises conservent tous les documents et informations relatifs à la création, la détection, la modération et la monétisation des images à caractère sexuel générées par l'IA, ainsi que toutes les politiques connexes.

Cette lettre arrive quelques heures après que X a annoncé avoir mis à jour Grok afin d'interdire la modification d'images de personnes réelles en tenues suggestives et de limiter la création et la modification d'images via Grok aux abonnés payants. (X et xAI appartiennent à la même entreprise.)

En référence à des articles de presse concernant à quel point facilement et [souvent](https://www.bloomberg.com/news/articles/2026-01-07/musk-s-grok-ai-generated-thousands-of-undressed-images-per-hour-on-x?accessToken=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzb3VyY2UiOiJTdWJzY3JpYm VyR2lmdGVkQXJ0aWNsZSIsImlhdCI6MTc2Nzc5MDk4NywiZXhwIjoxNzY4Mzk1Nzg3LCJhcnRpY2xlSWQiOiJUOEhRS0hLR0lGUE8wMCIsImJjb25uZWN0SWQiOiJGRUIzODlCNUI2ODI0RTY0QjY5MENEODE1RTBDREZGRCJ9.3B4JWnmqmXFC3DOqhs11h99g5gNzi4j_poKAHLuWdrY&leadSource=uverify%20wall&embedded-checkout=true) Grok a généré des images sexualisées et nues de femmes et d'enfants, les sénateurs ont souligné que les garde-fous des plateformes pour empêcher les utilisateurs de publier des images sexualisées non consensuelles pourraient ne pas être suffisants.

« Nous reconnaissons que de nombreuses entreprises appliquent des politiques interdisant la diffusion d'images intimes non consensuelles et l'exploitation sexuelle, et que de nombreux systèmes d'IA prétendent bloquer la pornographie explicite. En pratique, cependant, comme le montrent les exemples ci-dessus, les utilisateurs trouvent des moyens de contourner ces garde-fous. Ou bien ces garde-fous sont défaillants », peut-on lire dans la lettre.

Grok, et par conséquent X, ont été vivement critiqués pour avoir favorisé cette tendance, mais les autres plateformes ne sont pas à l'abri.

Les deepfakes ont d'abord gagné en popularité sur Reddit, lorsqu'une page présentant des vidéos pornographiques synthétiques de célébrités est devenue virale avant d'être supprimée par la plateforme en 2018. Les deepfakes à caractère sexuel ciblant des célébrités et des personnalités politiques se sont multipliés sur TikTok et YouTube, bien qu'ils proviennent généralement d'ailleurs.

L'an dernier, le comité de surveillance de Meta a dénoncé deux cas d'images explicites générées par IA représentant des personnalités publiques féminines. La plateforme a également autorisé la diffusion de publicités pour des applications de nudité sur ses services, bien qu'elle ait par la suite intenté un procès à la société CrushAI. De nombreux cas de diffusion de deepfakes de camarades par des enfants sur Snapchat ont été signalés. Telegram, qui ne figure pas sur la liste des sénateurs, est également devenu tristement célèbre pour héberger des bots conçus pour déshabiller les photos de femmes.

En réponse à la lettre, X a renvoyé à son annonce concernant la mise à jour de Grok.

« Nous n'autorisons pas et n'autoriserons jamais la diffusion de contenus intimes non consensuels (NCIM) sur Reddit, nous ne proposons aucun outil permettant d'en créer et nous prenons des mesures proactives pour les détecter et les supprimer », a déclaré un porte-parole de Reddit dans un communiqué envoyé par courriel. « Reddit interdit formellement les contenus intimes non consensuels (NCIM), y compris les images truquées ou générées par IA. Nous interdisons également de solliciter ce type de contenu, de partager des liens vers des applications de nudité ou de discuter de la manière de créer ce type de contenu sur d'autres plateformes », a ajouté le porte-parole.

Alphabet, Snap, TikTok et Meta n'ont pas immédiatement répondu aux demandes de commentaires.

La lettre exige des entreprises qu'elles fournissent :

  • Des définitions de leurs politiques concernant les contenus « deepfake », les « images intimes non consensuelles » ou des termes similaires.

  • Une description de leurs politiques et de leur approche en matière d'application des règles relatives aux deepfakes non consensuels générés par IA représentant des corps, des photos non nues, des vêtements modifiés et le « déshabillage virtuel ».

  • Une description de leurs politiques actuelles concernant les médias modifiés et les contenus explicites, ainsi que des directives internes fournies aux modérateurs.

  • Une description de la manière dont leurs politiques actuelles encadrent les outils d'IA et les générateurs d'images en lien avec les contenus suggestifs ou intimes.

  • Une description des filtres, garde-fous ou mesures mis en place pour empêcher la création et la diffusion de deepfakes.

  • Quels mécanismes les entreprises utilisent-elles pour identifier les contenus deepfake et empêcher leur rediffusion ?

  • Comment empêchent-elles les utilisateurs de tirer profit de ces contenus ?

  • Comment les plateformes se protègent-elles contre la monétisation des contenus générés par IA sans consentement ?

  • Comment les conditions d'utilisation des entreprises leur permettent-elles de bannir ou de suspendre les utilisateurs qui publient des deepfakes ?

  • Quelles mesures les entreprises prennent-elles pour informer les victimes de deepfakes à caractère sexuel non consentis ?

Cette lettre est signée par les sénateurs Lisa Blunt Rochester (D-Del.), Tammy Baldwin (D-Wis.), Richard Blumenthal (D-Conn.), Kirsten Gillibrand (D-NY), Mark Kelly (D-Ariz.), Ben Ray Luján (D-NM), Brian Schatz (D-Hawaii) et Adam Schiff (D-Calif.).

Cette décision intervient un jour seulement après que le propriétaire de xAI, Elon Musk, a déclaré qu'il n'était [« pas au courant » (https://techcrunch.com/2026/01/14/musk-denies-awareness-of-grok-sexual-underage-images-as-california-ag-launches-probe/) d'aucune image de mineurs nus générée par Grok. Mercredi, le procureur général de Californie a ouvert une enquête sur le chatbot de xAI, Grok, suite à la pression croissante exercée par des gouvernements du monde entier, indignés par l'absence de contrôles sur Grok qui a permis ce genre de situation.

xAI a affirmé prendre des mesures pour supprimer les contenus illégaux sur X, notamment les contenus pédopornographiques et la nudité non consensuelle. Cependant, ni l'entreprise ni Musk n'ont abordé le fait que Grok ait été autorisé à générer de tels contenus.

Le problème ne se limite pas aux images sexualisées manipulées sans consentement. Si tous les services de génération et de retouche d'images par IA ne permettent pas de déshabiller les personnes, ils permettent en revanche de créer facilement des deepfakes. À titre d'exemple, Sora 2 d'OpenAI aurait permis aux utilisateurs de générer des vidéos explicites mettant en scène des enfants. L'application Nano Banana de Google a apparemment généré une image montrant Charlie Kirk se faire tirer dessus ; et des vidéos racistes, créées grâce au modèle d'IA vidéo de Google, cumulent des millions de vues sur les réseaux sociaux.

Le problème se complexifie encore davantage avec l'implication des générateurs d'images et de vidéos chinois. De nombreuses entreprises et applications technologiques chinoises, notamment celles liées à ByteDance, proposent des outils simples pour modifier les visages, les voix et les vidéos, et ces créations se sont répandues sur les plateformes sociales occidentales. La Chine impose des exigences plus strictes en matière d'étiquetage des contenus synthétiques, exigences qui n'existent pas au niveau fédéral aux États-Unis. Le grand public s'en remet donc à des politiques fragmentées et appliquées de manière douteuse par les plateformes elles-mêmes.

Les législateurs américains ont déjà adopté des mesures législatives visant à encadrer la pornographie truquée (deepfakes), mais leur impact reste limité. La loi « Take It Down Act » (https://techcrunch.com/2025/05/19/trump-signs-bill-criminalizing-revenge-porn-and-explicit-deepfakes/), entrée en vigueur au niveau fédéral en mai, vise à criminaliser la création et la diffusion d'images à caractère sexuel non consensuelles. Cependant, plusieurs dispositions de la loi rendent difficile la responsabilisation des plateformes de génération d'images, car elles concentrent l'essentiel du contrôle sur les utilisateurs individuels.

Parallèlement, plusieurs États tentent d'agir pour protéger les consommateurs et les élections. Cette semaine, la gouverneure de New York, Kathy Hochul, a présenté des projets de loi visant à protéger les consommateurs et les travailleurs. Ces lois exigeraient que le contenu généré par l'IA soit étiqueté comme tel et interdiraient les deepfakes non consensuels pendant des périodes spécifiques précédant les élections, y compris les représentations des candidats de l'opposition.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2026 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 537d5f5