Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4814

Incidents associés

Incident 95811 Rapports
Europol Operation Cumberland Investigates at Least 273 Suspects in 19 Countries for AI-Generated Child Sexual Abuse Material

Loading...
25 personnes arrêtées dans le cadre d'une opération mondiale ciblant les contenus pédopornographiques générés par l'IA, selon Europol
cbsnews.com · 2025

La Haye — Une campagne mondiale a conduit à au moins 25 arrestations pour des contenus pédopornographiques générés par l'intelligence artificielle et diffusés en ligne, a déclaré Europol vendredi.

« L'opération Cumberland a été l'une des premières affaires impliquant des contenus pédopornographiques générés par l'intelligence artificielle, ce qui rend la tâche particulièrement difficile aux enquêteurs en raison de l'absence de législation nationale concernant ces crimes », a déclaré l'agence de police européenne basée à La Haye dans un communiqué.

La majorité des arrestations ont été effectuées mercredi lors de l'opération mondiale menée par la police danoise, à laquelle ont également participé des agences d'application de la loi de l'UE, d'Australie, de Grande-Bretagne, du Canada et de Nouvelle-Zélande. Les forces de l'ordre américaines n'ont pas pris part à l'opération, selon Europol.

Elle fait suite à l'arrestation en novembre dernier du principal suspect dans l'affaire, un ressortissant danois qui dirigeait une plateforme en ligne sur laquelle il distribuait le matériel d'IA qu'il produisait.

Après un « paiement symbolique en ligne, les utilisateurs du monde entier ont pu obtenir un mot de passe pour accéder à la plateforme et regarder des enfants se faire abuser », a déclaré Europol.

L'exploitation sexuelle des enfants en ligne reste l'une des manifestations les plus menaçantes de la cybercriminalité dans l'Union européenne, a averti l'agence.

Elle « continue d'être l'une des principales priorités des forces de l'ordre, qui doivent faire face à un volume toujours croissant de contenus illégaux », a-t-elle déclaré, ajoutant que d'autres arrestations étaient attendues à mesure que l'enquête se poursuivait.

Alors qu'Europol a déclaré que l'opération Cumberland visait une plateforme et des personnes partageant du contenu entièrement créé à l'aide de l'IA, on a également constaté une prolifération inquiétante d'images « deepfake » manipulées par l'IA en ligne, qui utilisent souvent des images de personnes réelles, y compris des enfants, et peuvent avoir des conséquences dévastatrices sur leur vie.

Selon un rapport de Jim Axelrod de CBS News en décembre, qui portait sur une fille qui avait été la cible de tels abus de la part d'un camarade de classe, il y a eu plus de 21 000 photos ou vidéos pornographiques deepfake en ligne en 2023, soit une augmentation de plus de 460 % par rapport à l'année précédente. Le contenu manipulé a proliféré sur Internet alors que les législateurs aux États-Unis et ailleurs s'efforcent de rattraper leur retard en matière de législation pour résoudre le problème.

Il y a quelques semaines, le Sénat a adopté un projet de loi bipartisan appelé « TAKE IT DOWN Act » qui, s'il était promulgué, criminaliserait la « publication d'images intimes non consensuelles (NCII), y compris les NCII générées par l'IA (ou « deepfake revenge porn »), et obligerait les réseaux sociaux et les sites Web similaires à mettre en œuvre des procédures pour supprimer ce contenu dans les 48 heures suivant la notification d'une victime », selon une description sur le site Web du Sénat américain.

En l'état actuel des choses, certaines plateformes de médias sociaux semblent incapables ou peu désireuses de lutter contre la diffusion de contenus deepfake sexualisés générés par l'IA, notamment de fausses images représentant des célébrités. À la mi-février, Meta, propriétaire de Facebook et d'Instagram, a déclaré avoir supprimé plus d'une douzaine d'images sexualisées frauduleuses d'actrices et d'athlètes célèbres après qu'une enquête de CBS News a révélé une forte prévalence d'images deepfake manipulées par l'IA sur Facebook.

« Il s'agit d'un défi à l'échelle de l'industrie, et nous travaillons continuellement à améliorer notre technologie de détection et d'application », a déclaré Erin Logan, porte-parole de Meta, à CBS News dans un communiqué envoyé par e-mail à l'époque.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd