Incidents associés
Une attaque de deepfake pornographique visant la politicienne nord-irlandaise Cara Hunter quelques semaines avant une élection montre comment l'IA peut être utilisée pour perturber les processus démocratiques.
Lors d'une récente conférence TED, la politicienne nord-irlandaise Cara Hunter a partagé son expérience d'une attaque de deepfake qui a presque fait dérailler sa campagne. En avril 2022, quelqu'un a créé et partagé une fausse vidéo pornographique d'elle sur WhatsApp. La vidéo s'est rapidement répandue dans toute l'Irlande du Nord, apparaissant seulement trois semaines avant que les électeurs ne se rendent aux urnes.
« Bien que cette femme dans la vidéo ne soit pas moi, elle me ressemblait exactement. Incroyablement comme moi. Étrangement comme moi », a déclaré Hunter lors de sa conférence. Lorsqu'elle a contacté la police locale, ils n'ont pas pu l'aider - ils n'avaient tout simplement pas la technologie nécessaire pour retrouver la provenance de la vidéo.
Les retombées ont été rapides et brutales. Hunter a reçu d'innombrables messages vulgaires, et des gens ont même commencé à la harceler dans la rue. Dans la communauté soudée de 1,8 million de personnes d'Irlande du Nord, la vidéo s'est répandue comme une traînée de poudre, au point que même les membres de sa propre famille ont commencé à douter de sa version des faits.
Quand la technologie cible la démocratie
L'attaque met en évidence une intersection dangereuse entre la technologie et le harcèlement ciblé. « C'est le moment où la misogynie rencontre l'utilisation abusive de la technologie, et elle a même le potentiel d'influencer le résultat d'une élection démocratique », a expliqué Hunter.
Le harcèlement ne s'est pas arrêté avec la vidéo. Six mois plus tard, Hunter a reçu 15 autres images deepfake générées par l'IA la montrant en sous-vêtements. Elle ne sait toujours pas qui les a créées, et dans de nombreux endroits, faire ce genre de deepfakes n'est même pas encore illégal, dit Hunter.
Pour Hunter, ces attaques représentent plus qu'un simple harcèlement personnel : elles constituent une menace directe pour les systèmes démocratiques. « Sans vérité, la démocratie s'effondre. La vérité nous permet de prendre des décisions éclairées, elle nous permet de demander des comptes aux dirigeants, ce qui est très important », a-t-elle déclaré.
À l'avenir, Hunter plaide pour une réglementation plus stricte de l'IA et souhaite que des principes éthiques soient intégrés à la technologie dès le départ.
« Je suis passionnée par le fait que l'IA peut être une technologie humaniste avec des valeurs humaines qui complètent la vie que nous menons pour faire de nous les meilleures versions de nous-mêmes », a-t-elle expliqué. « Mais pour ce faire, je pense que nous devons intégrer l'éthique dans cette technologie, éliminer les préjugés, installer l'empathie et nous assurer qu'elle est alignée sur les valeurs et les principes humains. »
La création de deepfakes convaincants devient de plus en plus facile de jour en jour
L'expérience de Hunter s'ajoute à un modèle inquiétant d'attaques deepfakes qui ciblent en grande majorité les femmes. Le problème est apparu pour la première fois en 2017, lorsqu'un utilisateur anonyme de Reddit a commencé à publier de fausses vidéos pornographiques de célébrités sous le nom d'utilisateur « deepfakes » - donnant son nom à la technologie.
Depuis lors, créer des deepfakes convaincants est devenu de plus en plus simple et accessible. Les victimes vont désormais bien au-delà des célébrités, même les mineurs deviennent des cibles. Le cas de Hunter montre comment cette technologie peut être utilisée comme arme pour harceler et intimider les femmes qui entrent dans la sphère publique.