Incidents associés

L'IA offre aux escrocs un moyen plus convaincant de se faire passer pour des policiers, selon les rapports.
La semaine dernière, le département de police de Salt Lake City (SLCPD) a mis en garde contre une arnaque par courrier électronique utilisant l'IA pour cloner de manière convaincante la voix du chef de police Mike Brown.
Un citoyen a alerté la police après avoir reçu un courrier électronique suspect contenant une vidéo montrant le chef de police affirmant qu'ils « devaient près de 100 000 dollars au gouvernement fédéral ».
Pour duper leurs cibles, les escrocs ont assemblé des images réelles d'une des précédentes interviews télévisées de Brown avec un son généré par l'IA qui, selon le SLCPD, « est clair et imite étroitement la voix du chef Brown, ce qui pourrait amener les membres de la communauté à croire que le message était légitime ».
Le FBI a mis en garde depuis des années contre les escrocs qui tentent d'extorquer des fonds en se faisant passer pour des policiers ou des fonctionnaires du gouvernement. Mais à mesure que la technologie de clonage vocal par IA a progressé, ces escroqueries pourraient devenir beaucoup plus difficiles à détecter, au point que même les entreprises les plus avant-gardistes comme OpenAI ont hésité à publier la dernière technologie en raison de préoccupations évidentes concernant d'éventuels abus.
Le SLCPD a noté que l'e-mail se faisant passer pour son chef de police contenait des indices qu'un citoyen féru de technologie aurait pu repérer. Une écoute plus attentive révèle que « le message avait des schémas de parole peu naturels, une emphase étrange sur certains mots et un ton incohérent », ainsi que des « modifications acoustiques détectables d'une phrase à l'autre ». Et peut-être plus flagrant encore, l'e-mail frauduleux provenait « d'un compte Google et contenait le nom du département de police de Salt Lake City suivi d'un numéro numérique », au lieu du domaine de messagerie officiel du département de police « slc.gov ».
Le SLCPD n'est pas le seul service de police à devoir faire face à des imitateurs de policiers IA. Tulsa a connu un problème similaire cet été lorsque des escrocs ont commencé à appeler les résidents en utilisant une fausse voix convaincante conçue pour ressembler à celle de l'agent de police de Tulsa Eric Spradlin, a rapporté Public Radio Tulsa (https://www.publicradiotulsa.org/local-regional/2024-07-25/scam-calls-get-real-by-impersonating-tulsa-police-officers-loved-ones-thanks-to-ai). Un développeur de logiciels qui a reçu l'appel, Myles David, a déclaré qu'il comprenait aujourd'hui les risques liés à l'IA, mais que même lui avait été « pris au dépourvu » et avait dû appeler la police pour vérifier que l'appel n'était pas réel.
« Cela ressemblait à une conversation très, très informelle, comme si cette personne s'attendait réellement à me parler », a déclaré David. « Il a utilisé mon prénom, mon nom de famille. Ils ont parlé de manière très décontractée. C'est pourquoi cela semblait si réel et finalement pourquoi c'était si effrayant. »
Contrairement à l'adresse e-mail manifestement fausse dans l'affaire de Salt Lake City, un professeur de cybersécurité ciblé par l'arnaque de Tulsa, Tyler Moore, a déclaré à Public Radio Tulsa qu'il était relativement facile de faire croire que l'appel téléphonique frauduleux provient d'une ligne de police de Tulsa.
Les policiers conseillent d'appeler les policiers pour signaler les faux policiers
Cet abus émergent de l'IA ne se limite pas aux États-Unis. Un post sur X en mars d'un utilisateur nommé Kaveri a attiré plus de 800 000 vues, mettant en garde contre un escroc se faisant passer pour un policier en Inde et menaçant de lui enlever sa jeune fille si elle ne faisait pas ce qu'on lui disait.
Cet escroc a cloné la voix de sa fille, ce qui fait partie d'une autre tendance inquiétante signalée l'année dernière, où des acteurs malveillants ont escroqué des milliers de dollars à des personnes en utilisant l'IA pour se faire passer pour des proches en détresse.
Pour Kaveri, au final, un signal d'alarme a été déclenché en posant des questions spécifiques qui semblaient indiquer clairement que sa fille n'était pas avec le prétendu policier. Mais selon The Indian Express, d’autres personnes ciblées par des escroqueries similaires ont été dupées et ont fini par perdre de l’argent.
Les forces de police du monde entier espèrent sensibiliser les citoyens au risque croissant des escroqueries vocales par IA afin de prévenir les préjudices, en conseillant aux citoyens de vérifier les appels de la police et de poser des questions spécifiques auxquelles un escroc pourrait ne pas être en mesure de répondre.