Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3413

Incidents associés

Incident 61011 Rapports
Purported Deepfake Technology Was Reportedly Used to Generate Naked Pictures of Underage Girls in Spanish Town

Loading...
Quand les deepfakes de l’IA sont utilisés pour déshabiller les adolescents
euronews.com · 2023

Almendralejo, dans le sud de l'Espagne, est devenue l'un des premiers exemples mondiaux de la façon dont le harcèlement sexuel peut être alarmant grâce à la technologie AI Deepfake.

C'était un dimanche calme lorsque la journaliste Marian Rosado parcourait son compte Instagram et est soudainement tombée sur une diffusion en direct inhabituelle sur Instagram.

La célèbre gynécologue Miriam Al Adib a révélé une situation très personnelle et choquante : sa fille de 14 ans vient de lui dire que quelqu'un a utilisé une application pour la prendre en photo sur les réseaux sociaux et a fait croire qu'elle était nue.

Ce n’est que le début d’un scandale qui a mis sous les projecteurs une paisible ville du sud de l’Espagne.

Au cours des trois prochains épisodes, l’équipe d’Euronews Tech Talks se plongera dans le monde de la technologie AI Deepfake.

Notre objectif est d’en découvrir la portée, d’aborder les stratégies permettant d’atténuer ses risques et d’explorer des méthodes pour éduquer la société à reconnaître les dangers et à se protéger.

L'impact des faux nus IA

Almendralejo, une ville tranquille de 35 000 habitants nichée dans la région espagnole d'Estrémadure, près de la frontière portugaise, n'est pas le genre d'endroit qui attire généralement l'attention nationale, et encore moins internationale.

Cependant, en septembre, juste après les vacances scolaires, [Almendralejo a fait la une des journaux](https://www.euronews.com/next/2023/09/24/spanish-teens-received-deepfake-ai-nudes -d'eux-mêmes-mais-est-ce-un-crime).

Des dizaines d’adolescents locaux ont déclaré avoir reçu des images nues d’eux-mêmes générées par l’IA sur leurs téléphones portables.

Sur les vraies photos, les adolescents étaient entièrement habillés. Ces images, volées sur leurs comptes Instagram, ont été modifiées grâce à une application d'intelligence artificielle (IA) puis diffusées dans les groupes WhatsApp.

Malgré le caractère artificiel de la nudité, la détresse ressentie par les filles à la vue de ces images était bien réelle, comme le rapportent leurs mères.

Ce qui ajoute au caractère troublant de cette histoire, c'est que les auteurs de ce harcèlement sexuel étaient également des adolescents connus des filles.

"Déshabillez n'importe quelle photo avec l'IA gratuitement"

Tout aussi troublante est la facilité avec laquelle ces images ont été créées.

Les deepfakes, une forme de média synthétique utilisant l’IA, impliquent généralement des processus complexes comme l’apprentissage en profondeur.

Cependant, ces adolescents n’étaient pas des experts en IA. Ils ont simplement déboursé 10 € pour obtenir 25 images nues hyper réalistes de leurs pairs grâce à l'application Clothoff.

Disponible en téléchargement gratuit, l'application permet aux utilisateurs de déshabiller numériquement n'importe quelle personne dans la galerie de photos de leur téléphone avec le slogan « Déshabillez n'importe quelle photo avec l'IA gratuitement ».

Lorsqu'on lui a demandé des éclaircissements sur leurs règles, Clothoff a mis l'accent sur la vérification de l'âge et l'obtention du consentement.

Bien qu'ils prétendent prendre la vérification de l'âge au sérieux, ils n'ont pas divulgué leurs méthodes pour des « raisons de sécurité ».

Concernant le consentement, ils ont affirmé avoir des politiques strictes mais ne les ont pas précisées, comptant sur les utilisateurs pour suivre les directives.

Une étude de Sensity AI a révélé que 96 % des images deepfakes sont constituées d’images sexuellement explicites de femmes non consentantes.

Un rapport d'Europol estime que d'ici trois ans, environ 90 % du contenu en ligne pourrait être généré par l'IA.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd