Incidents associés

Depuis leur création en 2017, les modèles génératifs ont été utilisés pour déshabiller artificiellement les femmes sur des photos et créer des vidéos pornographiques réalistes. Le problème est identifié depuis aussi longtemps. Mais au lieu d’être arrêtés, les outils destinés à cet effet deviennent plus accessibles. À tel point que dix écoliers de la ville espagnole d'Almendralejo, dans le sud-ouest de l'Espagne, font l'objet d'une enquête après avoir créé et diffusé de faux nus de leurs camarades.
L'affaire a été rendue publique après que la mère de l'une des victimes a publié une vidéo dénonçant la situation sur son compte Instagram, où elle compte plus de 136 000 abonnés. La gynécologue Miriam Al Adib a rapporté comment sa fille de 14 ans est venue la voir après avoir appris que des photos sur lesquelles elle apparaissait nue circulaient parmi ses camarades de classe. Plusieurs parents de la ville se sont manifestés après que l'incident a été rendu public, puisque toutes leurs filles ont affirmé que les photographies étaient fausses.
Bien que l'affaire soit en cours et que les détails de l'enquête soient encore confidentiels, les enfants à l'origine de cette ruse auraient utilisé une application en ligne qui utilise des modèles génératifs pour créer des nus à partir de photographies où les filles étaient habillées. De nombreux médias espagnols ont identifié des applications spécifiques avec lesquelles les photos de nus auraient pu être créées, mais aucune d'entre elles n'a été confirmée comme étant l'outil en question par les policiers. Toutes les plateformes mentionnées exigent que les utilisateurs aient plus de 18 ans, mais il est clair qu'il n'existe aucun mécanisme de protection pour empêcher les mineurs de les utiliser, [comme l'a souligné elDiario.es](https://www.eldiario.es/ tecnologia/negocio-lista-espera-app-usada-desnudar-menores-badajoz-cobra-9-euros-25-fotos_1_10522989.html).
Que cet événement ait eu lieu dans une ville de 34 000 habitants prouve une fois de plus que les nouvelles technologies facilitent encore plus les atteintes au corps des femmes. Depuis que les technologies deepfake sont devenues populaires, certains s’attendaient à ce que la désinformation et la propagande soient les principaux cas d’utilisation, conduisant à l’effondrement des institutions et à la guerre. Au lieu de cela, les femmes ont été la principale cible.
Cela dure depuis un certain temps : « Étonnamment, depuis que les premières fausses vidéos et photos pornographiques ont été créées en 2017 à l’aide de ces techniques, cela constitue le principal domaine d’application. Aujourd’hui, la plupart des études estiment qu’environ 90 % des faux contenus publiés en ligne sont pornographiques », résume Marta Beltrán, docteure en informatique et modélisation mathématique, dans son livre M. Internet.
Le cas pénible de l’Espagne a remis sous le feu des projecteurs un problème sans fin. En 2019, une application du même genre, DeepNude, permettait aux utilisateurs de [retirer les vêtements des photos de femmes pour 50 dollars](https://www.vice.com/en/article/kzm59x/deepnude-app-creates-fake -nus-de-n'importe quelle-femme). Un an plus tard, un robot Telegram est apparu qui permettait aux utilisateurs de recevoir de faux nus en échange de l'envoi de photos de filles et de femmes.
Les deux services ont été supprimés après que les médias en ont parlé, ce qui a provoqué un tollé dans l'opinion publique. Mais, comme les champignons, des outils similaires continuent d’apparaître.
Le problème va plus loin, comme le souligne Marta Beltrán à AlgorithmWatch : « Certains de ces services se font directement de la publicité avec des slogans comme « déshabille-toi qui tu veux ». De plus, ils sont proposés sur certaines chaînes TikTok, sur des forums de discussion de jeux vidéo et sur des plateformes similaires. où sont actifs les mineurs et les très jeunes. Il est clair qu’ils constituent le public cible, et ils proposent des tutoriels pour qu’ils puissent apprendre rapidement et se faire une idée de ce qui peut être fait. Ils le leur montrent même comme quelque chose d’amusant.
Ces plateformes ne sont plus réservées aux adultes. Au lieu de cela, ils sont présentés comme un « bar ouvert » pour les jeunes, explique Beltrán. Créer des photos artificielles de quelqu'un que nous connaissons est quelque chose qui, avec un peu d'effort, peut être réalisé avec des outils bien connus tels que Photoshop. Mais un service automatisé permettant de déshabiller les femmes et pouvant être facilement utilisé par des jeunes de 13 ans est quelque chose de complètement différent et devrait être traité en conséquence par les régulateurs.
Dans de tels cas, ce n'est pas l'utilisation d'une technologie particulière qui est punie, mais son résultat. Déshabiller des filles mineures à l’aide de modèles génératifs ne constitue pas directement une infraction pénale, ce qui rend le procès encore plus difficile.
Selon El País, la confusion demeure quant aux infractions spécifiques qui devraient faire l'objet de poursuites. Les procureurs pourraient envisager d'accuser les malfaiteurs de « production ou distribution de matériel pornographique » et de « possession de pédopornographie » – bien que la loi exige que les images montrent un « acte sexuel explicite » ou que les organes génitaux du mineur soient affichés de manière sexuelle. comme l'a souligné le professeur de droit Paz Lloria. Cela ne semble pas s'appliquer dans ce cas. Une autre voie légale pourrait consister à porter plainte parce que la vie privée et l'intégrité morale des victimes ont été violées.
L'Agence nationale espagnole de protection des données a également ouvert une enquête d'office sur une éventuelle violation des lois sur la protection des données et utilise son ' Chaîne prioritaire', un service gratuit qui permet aux citoyens espagnols de signaler la diffusion de photos ou de vidéos sexuelles non consensuelles et qui exige que les plateformes les suppriment.