Incidents associés
Des vidéos générées par intelligence artificielle (IA) usurpant l'identité du président Nicos Christodoulides, de magnats des affaires et de célébrités ont escroqué des Chypriotes de plusieurs milliers d'euros. Les autorités mettent en garde contre l'absence de protection des citoyens face à cette menace croissante.
À Chypre, une quinzaine de personnes ont perdu entre 10 000 et 15 000 € après avoir été dupées par une vidéo truquée montrant Christodoulides aux côtés des hommes politiques Averof Neophytou et Haris Georgiades, faisant la promotion d'une fausse plateforme d'investissement promettant la prospérité à tous.
Giorgos Michailidis, commissaire de l'Autorité de sécurité numérique, a déclaré qu'aucun outil ni mécanisme n'existe pour protéger les individus contre les IA malveillantes.
« Il est très difficile de se protéger. Il faut être très attentif. Observer les mains, les doigts, par exemple. C'est déjà très difficile, et je pense que cela le deviendra encore plus dans les années à venir, à mesure que l'intelligence artificielle se développera et s'améliorera », a déclaré M. Michailidis.
Depuis plusieurs mois, des escrocs utilisent des personnalités publiques pour donner de la crédibilité à leurs arnaques.
En mars, Sir Stelios Haji-Ioannou, fondateur d'easyGroup, a mis en garde le public contre une escroquerie aux cryptomonnaies en utilisant son image et le nom de son entreprise.
La publicité en ligne trompeuse incitait les internautes à s'inscrire auprès d'une fausse société appelée « easyProfit », promettant des rendements allant jusqu'à 96 % sur les cryptomonnaies et le trading de devises.
La chanteuse Anna Vissi et la présidente de la Banque centrale européenne, Christine Lagarde, sont également apparues dans des vidéos similaires d'arnaques à l'investissement.
En juillet, l'homme d'affaires John Christodoulou a publié sur son compte personnel une vidéo frauduleuse où il incitait les gens à participer à des escroqueries. « Ce n'est pas moi », a-t-il précisé.
En août, une fausse page Facebook se faisant passer pour Phileleftheros a utilisé le présentateur grec Sakis Tanimanidis pour inciter les citoyens à télécharger une application promettant des gains financiers importants.
À Pâques, une vidéo a circulé montrant Donald Trump souhaitant aux Chypriotes un « bon souvla » et promettant de « jeter les Turcs à la mer », le tout en anglais. Le député Christos Christofidis a déclaré que d'innombrables personnes lui avaient envoyé la vidéo, enthousiastes à l'idée que Trump viendrait sauver Chypre.
« Vous n'imaginez pas le nombre de personnes qui me l'ont envoyée, excitées à l'idée que Trump vienne nous sauver », a déclaré Christofidis.
Les arnaques à l'IA peuvent prendre de nombreuses formes, a expliqué Michailidis. Il peut s'agir de voix lors d'appels téléphoniques, de vidéos, de photos, de textes dans des discussions instantanées ou d'autres messages. Une personne communiquant sur Instagram ou Facebook pourrait parler à une IA plutôt qu'à une personne réelle.
Même les experts manquent d'outils ou de mécanismes pour les détecter, a-t-il ajouté.
Lors des récents séismes majeurs en Turquie, une photo a circulé montrant un sauveteur grec tenant un enfant qu'il était censé avoir sauvé. Mais quiconque regardait les mains du sauveteur remarquerait qu'il avait six doigts, a fait remarquer Michailidis.
Il n'existe aucun manuel indiquant précisément ce qu'il faut rechercher, a-t-il conclu. Ils doivent rester vigilants et signaler tout élément suspect.
L'Union européenne a entamé des discussions sur l'étiquetage obligatoire des contenus générés par l'IA, a déclaré Michailidis. Cependant, cette obligation ne s'applique qu'aux outils d'IA légitimes utilisés de bonne foi. Toute personne utilisant l'IA à des fins malveillantes pour tromper le public ne sera pas soumise à cette obligation d'étiquetage.
Les citoyens doivent vérifier les informations, a-t-il insisté. « Il serait judicieux de rappeler pour s'en assurer. »
Les technologies d'IA sont très avancées, a souligné Michailidis. Il est possible de payer un abonnement pour acquérir des logiciels malveillants et des virus afin d'attaquer une personne ou une entreprise. « Il est incroyable de constater à quel point la criminalité dans le secteur de l'IA a progressé », a-t-il affirmé.
L'ingénierie sociale via l'IA est de plus en plus fréquente, a expliqué Michailidis. Il s'agit d'actions menées par l'IA visant à manipuler les individus, à les influencer psychologiquement et à les orienter vers des actions et des comportements spécifiques. Un phénomène similaire semble s'être produit lors de l'élection présidentielle américaine qui a porté Donald Trump au pouvoir, ainsi que lors du référendum britannique sur le Brexit, a-t-il indiqué. Un État pourrait être à l'origine de telles actions, et pas seulement des fraudeurs.
L'action la plus importante à présent est d'informer les citoyens, a déclaré Michailidis. « Il ne faut pas croire tout ce que l'on voit, même si cela paraît réel. Il est essentiel de vérifier », a-t-il affirmé.
« Si nous ne sommes pas vigilants, nous sommes à la merci de l'intelligence artificielle. Nous devons vérifier et rechercher. Cela dépend de nous », a-t-il ajouté.
Christofidis a récemment déposé une proposition de loi criminalisant l'utilisation de personnes dans des contenus générés par l'IA sans leur consentement.
« J'ai récemment vu une vidéo où un présentateur connu vantait les mérites d'un produit minceur. Je l'ai regardée trois fois – elle était tellement réaliste – que j'en ai conclu qu'elle avait été retouchée par l'IA. Si nous pouvons le détecter aujourd'hui, dans un an ou deux, lorsque cette technologie sera perfectionnée, ce sera impossible », a déclaré Christofidis.
Il existe une lacune législative en matière de protection des citoyens, a-t-il souligné.
L'Union européenne doit exiger des plateformes de médias sociaux qu'elles étiquettent les contenus générés par l'IA, a déclaré Christofidis. Il s'est dit inquiet de la prolifération de vidéos de propagande et de vidéos de vengeance.