Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4046

Incidents associés

Incident 7821 Rapport
AI 'Nudify' Apps Used as Tools for Blackmail and Extortion

Loading...
Télécharger, déshabiller, faire chanter : les applications de « nudification » de l'IA émergent comme de nouvelles armes d'extorsion
indiatoday.in · 2024

Plus que tout, le désespoir a poussé Rishabh à se tourner vers des applications qui promettaient des prêts rapides : de l’argent facile en quelques clics. Il était complètement fauché. Il était également sous le fardeau des prêts à taux d’intérêt élevés qu’il avait contractés auparavant. Et son score de crédit faisait de lui un client inéligible dans la plupart des banques. Ce cercle vicieux l’a poussé dans les eaux troubles des applications de prêts personnels instantanés – des eaux pleines d’usuriers – pour une somme dérisoire de 30 000 roupies.

Lorsque Rishabh a fait défaut sur deux EMI, les avertissements laconiques lors des appels téléphoniques se sont rapidement transformés en menaces menaçantes. « Vous ne pouvez même pas imaginer ce que nous allons faire si vous ne déboursez pas l’argent d’ici demain », l’a averti l’homme de main du prêteur au téléphone. Le lendemain est arrivé et il n’était pas plus riche. De toute évidence, il ne pouvait pas payer.

Le véritable cauchemar a commencé après cela.

L'après-midi suivant, alors que Rishabh appelait un ami pour connaître ses options, sa femme Shefali a fait irruption dans la pièce, les larmes aux yeux, la peur et la détresse dans les yeux. Quelqu'un lui avait envoyé une photo d'elle nue.

Elle n'avait jamais pris une telle photo, mais elle semblait incroyablement réelle, jusqu'aux boucles d'oreilles et au collier qu'elle portait encore. Avant même qu'ils puissent comprendre ce qui s'était passé, ils ont reçu quatre autres appels d'amis et de membres de la famille. Tout le monde avait reçu la même photo nue de Shefali.

Les usuriers peuvent aller jusqu'au bout pour obtenir leur dû, explique Prabesh Choudhary, expert en cybersécurité basé à Delhi. "Rishabh était trop nerveux et honteux pour aller voir la police. Son ami lui a donc conseillé de venir me voir pour obtenir de l'aide", a déclaré Choudhary.

Choudhary, qui a vécu plusieurs cas de ce genre, a déclaré à India Today : « Ce que les gens ne réalisent pas, c’est qu’au moment où vous téléchargez ces applications de prêt, elles ont accès à la galerie de votre téléphone. Grâce à cela, les entreprises mettent la main sur les photos de votre appareil. Ensuite, en quelques clics, elles peuvent déshabiller n’importe quelle femme de votre famille pour vous faire chanter. »

La création de faux nus non consensuels n’est pas un phénomène nouveau. Mais l’intelligence artificielle (IA) a rendu cela infiniment plus facile. À tel point que même les adolescents scolarisés le font désormais. Une enquête récente aux États-Unis menée par l’organisation à but non lucratif Thorn, qui lutte contre les abus sexuels sur mineurs, a révélé qu’un mineur sur dix connaît des pairs qui ont créé des faux nus.

L’Inde n’est pas à l’abri de ce phénomène. En mai de cette année, un adolescent de Bengaluru a partagé des photos nues générées par l'IA de sa camarade de classe de neuvième année sur Instagram.](https://www.hindustantimes.com/cities/bengaluru-news/aimorphed-naked-pics-of-class-9-bengaluru-girl-surface-on-instagram-report-101716693455461.html) Plus tard, lui et deux autres personnes - un autre mineur et un adulte - ont été arrêtés.

"C'était une période plutôt difficile pour ma fille. L'un des garçons avait le béguin pour elle et c'est probablement lui qui a partagé de fausses photos nues de ma fille dans un groupe Instagram de garçons, espérant qu'un autre garçon de sa classe serait impliqué", a déclaré la mère de la victime à India Today.

TELEGRAM : LE DARKNET DU WEB OUVERT

Les efforts des grandes entreprises technologiques pour freiner ces applications et outils n'ont pas été très fructueux. TikTok et Meta ont bloqué le mot-clé "undress" l'année dernière pour réduire l'accès à ces services. Google a également supprimé certaines publicités pour des outils similaires.

Mais dans les bas-fonds de Telegram, connu pour être une application notoirement indulgente en proie à la désinformation, au radicalisme, au trafic de stupéfiants et même à la pornographie infantile, les applications de « nudification » prospèrent sous diverses formes.

Selon Telemetrio, un moteur de recherche et une plateforme d’analyse de Telegram, le mot-clé « undress » a été utilisé plus de 2 800 fois entre le 30 août et le 5 septembre en Inde seulement.

Des centaines de chaînes sur Telegram proposent des services de « déshabillage » qui vous permettent même de modifier la taille et la forme des seins et du derrière des femmes. Nous taisons délibérément les noms de ces chaînes et applications pour éviter leur promotion ultérieure.

Certaines vous permettent même d’habiller les gens avec des vêtements suggestifs comme des t-shirts mouillés, des bikinis et de la lingerie. Il vous suffit de télécharger la photo d’une femme et de suivre quelques instructions de base. Certaines chaînes Telegram mènent à des sites Web avec des modèles prêts à l'emploi. Téléchargez la photo de n'importe quelle personne et son visage sera superposé sur de courts clips pornographiques.

Les chaînes Telegram comme celles-ci proposent souvent des suggestions sur la façon dont les gens peuvent utiliser leurs outils. Une publicité dérangeante pour un tel outil encourageait les gens à photographier des victimes sans méfiance dans le métro, puis à les « dénuder ». Un autre outil a suscité la question : « Pourquoi perdre du temps à essayer d'impressionner une fille alors que vous pouvez facilement la déshabiller en utilisant nos services ? »

Ces chaînes publient également des images d'actrices populaires, vous encourageant à les « déshabiller ». L'acteur de "Animal" [Rashmika Mandanna a été victime de quelque chose de similaire.](https://www.indiatoday.in/india/story/rashmika-mandanna-deepfake-video-accused-arrested-andra-engineer-wanted-to-boost-followers-2491386-2024-01-20#:~:text=Le%20cerveau%20derrière%20Rashmika%20Mandanna, ses%20pages%20de%20fans%20sur%20les%20médias%20sociaux.) Icône pop mondiale [Les pages de fans générées par l'IA de Taylor Swift nus a également créé une controverse massive plus tôt cette année.

De nombreuses chaînes proposent ces services sur un modèle freemium : des crédits gratuits suivis de frais. D'autres vous permettent de payer avec votre carte de crédit, avec des forfaits « déshabillage » allant de 199 à 19 999 roupies.

LA SCIENCE DU « DÉSHABILLEMENT »

Selon Sam Gregory, directeur exécutif de Witness, une organisation qui promeut l'utilisation éthique de l'IA générative, « déshabiller » est un terme trompeur pour ce que font réellement ces applications et outils. Il a expliqué que ces outils utilisent des modèles d'IA générative formés à partir de données exhaustives de corps identifiés comme féminins, à la fois habillés et nus.

Lorsque vous téléchargez une photo, l’algorithme identifie les zones couvertes de vêtements et les efface. Ensuite, il remplace ces zones par des pixels qui correspondent au teint, à l’éclairage, aux ombres et aux contours de la photo d’origine à l’aide d’une technique d’IA générative appelée inpainting.

Ces outils sont conçus pour satisfaire le fantasme masculin. Ainsi, même si vous téléchargez l’image d’une personne identifiée comme étant de sexe masculin, la version dévêtue contiendra des traits féminins. Certains de ces outils avertissent même les gens de ne pas télécharger de photos d’hommes ou d’animaux.

Nous avons décidé de tester cela et avons téléchargé une photo d’un homme générée par l’IA. Sans surprise, elle a ajouté des seins au corps. Lorsque nous avons fourni à Google une image générée par l’IA d’un homme avec une tête de lapin, le résultat était une femme nue avec un visage humain qui avait en quelque sorte conservé les moustaches du lapin.

QUE PEUVENT FAIRE LES VICTIMES ?

Google a récemment rendu un peu plus facile la suppression des images ou vidéos de nu non consensuelles de ses résultats de recherche. Les victimes peuvent demander à Google de les supprimer en remplissant un formulaire en ligne.

Les experts conseillent aux victimes d’essayer de documenter chaque cas d’abus basé sur une image d’IA via des captures d’écran ou d’enregistrer des fichiers image et vidéo. Ces fichiers peuvent ensuite être utilisés dans des demandes de retrait et des actions en justice.

Selon Sam Gregory, certaines plateformes technologiques et certains moteurs de recherche font correspondre les images sexuelles non consensuelles connues qui leur sont signalées et suppriment les doublons. Cela ne s'applique toutefois qu'à certaines plateformes et n'empêchera pas la circulation sur les applications de messagerie privée.

"En pratique, il est très difficile de supprimer toutes les fausses photos nues. Et généralement, le mal est déjà fait au moment où elles sont supprimées, si elles le sont", a-t-il déclaré.

(Les noms des victimes ont été modifiés)

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd