Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5036

Incidents associés

Incident 10141 Rapport
Students in Maltese Schools Reportedly Being Targeted by Deepfake Nudes

Loading...
Des enfants de 12 ans ciblés par des photos de nus deepfake
timesofmalta.com · 2025

Des enfants de 12 ans seulement ont vu leurs visages superposés sur des corps de filles nues ou ont été « déshabillés » par des personnes utilisant des applications de création de deepfakes.

Ces applications utilisent l'IA pour générer des images et créer une fausse image nue réaliste en reconstituant numériquement l'apparence du corps sous les vêtements.

Deborah Vassallo, coordinatrice du projet de sécurité sur Internet « Be Smart Online » de la Fondation pour les services sociaux, a déclaré que l'organisation avait reçu le premier signalement d'images de nu deepfakes il y a six mois. Trois autres cas ont été signalés depuis.

« Dans un cas, la photo d'une fille s'adressant à ses camarades lors d'une assemblée a été utilisée pour créer une image d'elle nue », a déclaré Vassallo.

La plus jeune victime avait 12 ans et une autre n'avait même pas 16 ans. Une autre jeune fille avait entre 16 et 18 ans et une autre 20 ans. Tous les cas, sauf le dernier, ont été signalés par les parents des enfants concernés, la jeune fille de 20 ans s'étant elle-même manifestée. Toutes les victimes, en âge scolaire, fréquentaient différentes écoles publiques et confessionnelles et venaient de différentes localités.

« Les images étaient soit partagées sur des applications de messagerie, comme WhatsApp, pour humilier la victime, soit envoyées à la victime elle-même via un faux profil afin de la faire chanter », a déclaré Vassallo.

Elle a ajouté que la création et la diffusion de ces photos étaient souvent motivées par une vengeance suite à une rupture amoureuse ou à un rejet.

Les parents, a-t-elle souligné, se trouvaient confrontés à un dilemme lorsqu'ils s'interrogeaient sur la nécessité de signaler ces images aux autorités.

Si les parents ont des preuves, nous leur conseillons de porter plainte, mais ils hésitent souvent à porter plainte en raison des lenteurs systémiques du système judiciaire et du fait qu'ils ne voudraient pas faire subir à leurs enfants le traumatisme de se voir poser des questions embarrassantes par la police.

Parfois, ils ne souhaitent même pas impliquer l'école pour la même raison. En un sens, les enfants sont doublement victimes : victimes du crime et victimes du système », a-t-elle déclaré.

Il existe également un risque que les images se retrouvent sur des forums internet fréquentés par des pédophiles. Vassallo a déclaré qu'elle estimait que les personnes surprises en train de partager des images de nu générées par l'IA devraient être poursuivies en vertu des mêmes lois qui criminalisent la possession et la diffusion de contenus pédopornographiques.

Lorsqu'il s'agit de discuter avec les enfants des images de nus truquées et d'autres types d'abus en ligne, Be Smart Online prône la sensibilisation et l'éducation.

Nous ne pouvons pas empêcher les enfants d'utiliser la technologie. « Si nous essayons de trop restreindre l'accès, ils n'apprendront jamais à l'utiliser de manière responsable et à faire attention à ce qu'ils partagent », a déclaré Vassallo, ajoutant que des concepts tels que le consentement et le respect étaient également enseignés.

Un cas similaire survenu en Espagne l'année dernière a mis en évidence les risques croissants liés à la manipulation d'images par l'IA. Dans la ville d'Almendralejo, plus de 20 adolescentes ont découvert que leurs photos avaient été modifiées à l'aide d'une application générant de fausses images nues.

Les photos avaient été créées et diffusées par des camarades de classe, dont certaines n'avaient que 14 ans. Plusieurs victimes ne l'ont découvert qu'après que leurs camarades ont commencé à commenter ou à partager les images sur des applications de messagerie.

L'affaire a suscité un débat national, parents, enseignants et responsables politiques appelant à une réforme juridique urgente. Bien que la police espagnole ait ouvert une enquête, le fait que de nombreuses personnes impliquées n'aient pas atteint l'âge de la responsabilité pénale a mis en évidence le décalage entre la législation en vigueur et l'essor rapide de ces technologies.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd