Incidents associés
La Haye — Une campagne mondiale a conduit à au moins 25 arrestations pour des contenus pédopornographiques générés par l'intelligence artificielle et diffusés en ligne, a déclaré Europol vendredi.
« L'opération Cumberland a été l'une des premières affaires impliquant des contenus pédopornographiques générés par l'intelligence artificielle, ce qui rend la tâche particulièrement difficile aux enquêteurs en raison de l'absence de législation nationale concernant ces crimes », a déclaré l'agence de police européenne basée à La Haye dans un communiqué.
La majorité des arrestations ont été effectuées mercredi lors de l'opération mondiale menée par la police danoise, à laquelle ont également participé des agences d'application de la loi de l'UE, d'Australie, de Grande-Bretagne, du Canada et de Nouvelle-Zélande. Les forces de l'ordre américaines n'ont pas pris part à l'opération, selon Europol.
Elle fait suite à l'arrestation en novembre dernier du principal suspect dans l'affaire, un ressortissant danois qui dirigeait une plateforme en ligne sur laquelle il distribuait le matériel d'IA qu'il produisait.
Après un « paiement symbolique en ligne, les utilisateurs du monde entier ont pu obtenir un mot de passe pour accéder à la plateforme et regarder des enfants se faire abuser », a déclaré Europol.
L'exploitation sexuelle des enfants en ligne reste l'une des manifestations les plus menaçantes de la cybercriminalité dans l'Union européenne, a averti l'agence.
Elle « continue d'être l'une des principales priorités des forces de l'ordre, qui doivent faire face à un volume toujours croissant de contenus illégaux », a-t-elle déclaré, ajoutant que d'autres arrestations étaient attendues à mesure que l'enquête se poursuivait.
Alors qu'Europol a déclaré que l'opération Cumberland visait une plateforme et des personnes partageant du contenu entièrement créé à l'aide de l'IA, on a également constaté une prolifération inquiétante d'images « deepfake » manipulées par l'IA en ligne, qui utilisent souvent des images de personnes réelles, y compris des enfants, et peuvent avoir des conséquences dévastatrices sur leur vie.
Selon un rapport de Jim Axelrod de CBS News en décembre, qui portait sur une fille qui avait été la cible de tels abus de la part d'un camarade de classe, il y a eu plus de 21 000 photos ou vidéos pornographiques deepfake en ligne en 2023, soit une augmentation de plus de 460 % par rapport à l'année précédente. Le contenu manipulé a proliféré sur Internet alors que les législateurs aux États-Unis et ailleurs s'efforcent de rattraper leur retard en matière de législation pour résoudre le problème.
Il y a quelques semaines, le Sénat a adopté un projet de loi bipartisan appelé « TAKE IT DOWN Act » qui, s'il était promulgué, criminaliserait la « publication d'images intimes non consensuelles (NCII), y compris les NCII générées par l'IA (ou « deepfake revenge porn »), et obligerait les réseaux sociaux et les sites Web similaires à mettre en œuvre des procédures pour supprimer ce contenu dans les 48 heures suivant la notification d'une victime », selon une description sur le site Web du Sénat américain.
En l'état actuel des choses, certaines plateformes de médias sociaux semblent incapables ou peu désireuses de lutter contre la diffusion de contenus deepfake sexualisés générés par l'IA, notamment de fausses images représentant des célébrités. À la mi-février, Meta, propriétaire de Facebook et d'Instagram, a déclaré avoir supprimé plus d'une douzaine d'images sexualisées frauduleuses d'actrices et d'athlètes célèbres après qu'une enquête de CBS News a révélé une forte prévalence d'images deepfake manipulées par l'IA sur Facebook.
« Il s'agit d'un défi à l'échelle de l'industrie, et nous travaillons continuellement à améliorer notre technologie de détection et d'application », a déclaré Erin Logan, porte-parole de Meta, à CBS News dans un communiqué envoyé par e-mail à l'époque.