Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5336

Incidents associés

Incident 11057 Rapports
Michigan Woman Defrauded in Alleged Tinder Romance Scam Using Purportedly AI-Generated Video Calls

Amour profond ou deepfake : les rencontres à l'ère de l'IA
japantimes.co.jp · 2025

JOHANNESBURG/LONDRES --

Beth Hyland pensait avoir rencontré l'amour de sa vie sur Tinder.

En réalité, cette assistante administrative basée dans le Michigan avait été manipulée par un escroc en ligne qui se faisait passer pour un Français prénommé « Richard », utilisait des vidéos deepfakes lors d'appels Skype et publiait des photos d'un autre homme pour mener à bien son arnaque.

Les deepfakes – des vidéos ou des sons manipulés par l'intelligence artificielle pour paraître et sonner réels – sont souvent difficiles à détecter sans outils spécialisés.

En quelques mois, Hyland, 53 ans, avait contracté des prêts totalisant 26 000 dollars, envoyé l'argent à Richard et était devenue la proie d'un cas classique de « love baiting » ou de « sanglanterie », du nom de la manière dont les escrocs exploitent leurs victimes.

Le gouvernement britannique prévoit que 8 millions de deepfakes seront partagés dans le monde en 2025, contre 500 000 en 2023.

Environ un cinquième de ces personnes seraient impliquées dans des arnaques sentimentales, selon un rapport de janvier de l'entreprise de cybersécurité McAfee.

« C'est comme faire le deuil d'un décès », a déclaré Hyland.

« Quand je l'ai vu en vidéo, c'était la même chose que les photos qu'il m'envoyait. Il avait l'air un peu flou, mais je ne connaissais pas les deepfakes », a-t-elle ajouté.

Hyland vit à Portage, à environ 230 kilomètres à l'ouest de Détroit, et était divorcée depuis quatre ans lorsqu'elle a recommencé à fréquenter quelqu'un.

Elle a rencontré sur Tinder un homme dont le profil semblait correspondre au sien.

Elle affirme aujourd'hui que ce « match parfait » était probablement orchestré.

Richard a déclaré être né à Paris, mais avoir vécu dans l'Indiana et travaillé comme chef de projet indépendant pour une entreprise de construction, ce qui nécessitait de nombreux déplacements, notamment au Qatar.

S'en sont suivis des mois de manipulation émotionnelle, de mensonges, de fausses photos et d'appels Skype manipulés par l'IA. L'escroc lui avait promis son amour éternel, mais avait de nombreuses raisons de manquer chaque rencontre potentielle.

Des semaines après leur rencontre, Richard a convaincu Hyland qu'il avait besoin de son aide pour payer un avocat et un traducteur au Qatar.

« Je lui ai dit que j'allais contracter un prêt et il s'est mis à pleurer, me disant que personne ne l'avait jamais aimé comme ça », a déclaré Hyland lors d'une interview en ligne.

Mais Richard a continué à réclamer plus d'argent et, lorsque Hyland a fini par raconter ce qui se passait à son conseiller financier, il a affirmé qu'elle était probablement victime d'une arnaque amoureuse.

« Je n'arrivais pas à y croire, mais je ne pouvais pas l'ignorer », a déclaré Hyland.

Elle a confronté Richard ; il a d'abord nié en bloc, puis est resté silencieux lorsque Hyland lui a demandé de « prouver qu'elle avait tort » et de lui rendre son argent.

La police a déclaré à Hyland qu'elle ne pouvait pas poursuivre son affaire car il n'y avait eu « aucune contrainte, menace ou force », selon une lettre du directeur de la sécurité publique de Portage.

Le bureau de la sécurité publique, qui supervise à la fois la police et les pompiers, n'a pas répondu à une demande de commentaire.

Dans un courriel envoyé à Hyland après qu'elle a signalé le compte de l'escroc à Tinder, l'entreprise a déclaré supprimer les utilisateurs qui enfreignent ses conditions d'utilisation ou ses directives.

Tinder a déclaré ne pas pouvoir communiquer les résultats de l'enquête pour des raisons de confidentialité, mais a précisé que le rapport de Hyland avait été « évalué » et « appliqué conformément à nos politiques ».

Un porte-parole de Tinder a déclaré que l'entreprise appliquait une « tolérance zéro » envers les fraudeurs et utilisait l'IA pour repérer les escrocs potentiels et avertir ses utilisateurs, tout en proposant des fiches d'information sur les escroqueries sentimentales.

En mars, Hyland a assisté à une audition devant une commission sénatoriale américaine lors du dépôt d'un projet de loi visant à obliger les applications de rencontre à supprimer les escrocs et à avertir les utilisateurs qui interagissent avec de faux comptes.

Le sénateur à l'origine du projet de loi a déclaré que l'histoire de Hyland démontrait la nécessité de cette législation.

En général, les applications de rencontre n'informent pas les utilisateurs ayant communiqué avec un escroc de la suppression de son compte et n'émettent pas d'alertes pour les prévenir, comme l'exige le nouveau projet de loi.

Selon le FBI, les États-Unis ont enregistré plus de 4 milliards de dollars de pertes dues aux escroqueries à l'abattoir en 2023.

Microsoft, propriétaire de Skype, a redirigé les requêtes vers des articles de blog informant les utilisateurs sur la prévention des escroqueries sentimentales et sur les mesures prises pour lutter contre le contenu généré par l'IA, comme l'ajout de filigranes aux images.

L'entreprise n'a pas fourni d'autres commentaires.

Jason Lane-Sellers, directeur de la fraude et de l'identité chez LexisNexis Risk Solutions, a déclaré que seulement 7 % des escroqueries sont signalées, les victimes étant souvent freinées par la honte.

Jorij Abraham, directeur général de la Global Anti-Scam Alliance, une organisation néerlandaise de protection des consommateurs, a déclaré que les humains ne seront pas capables de détecter les médias manipulés bien longtemps.

« Dans deux ou trois ans, ce sera l'IA contre l'IA », a-t-il déclaré.

« Il existe des logiciels capables de suivre votre conversation – en observant vos yeux, s'ils clignent – ce sont des indices révélateurs d'un phénomène invisible aux humains, mais visible aux logiciels. »

Les vendeurs Lane-Sellers de LexisNexis Risk Solutions ont décrit la situation comme une « course à l'armement » de l'IA entre les escrocs et les entreprises de lutte contre la fraude qui tentent de protéger les consommateurs et les entreprises.

Richard Whittle, expert en IA à la Salford Business School, dans le nord de l'Angleterre, a déclaré s'attendre à ce que les futurs fabricants de matériel informatique comme Apple, Google et Microsoft, qui peuvent accéder aux webcams des utilisateurs, intègrent une technologie de détection des deepfakes.

Ni Apple ni Google n'ont répondu aux demandes de commentaires sur la manière dont ils protègent les consommateurs contre les deepfakes, ni sur les futurs développements de produits.

Abraham a déclaré que le véritable défi était d'attraper les escrocs, qui opèrent souvent dans des pays différents de ceux qu'ils ciblent.

Malgré son impasse, Hyland estime toujours qu'il est important de signaler les escroqueries et d'aider les autorités à les réprimer.

Et elle veut que les victimes sachent que ce n'est pas leur faute.

« J'ai appris la terminologie… on ne perd pas (d'argent) et on ne le donne pas – c'est du vol. On ne tombe pas dans le piège des escroqueries – on est manipulé et victimisé. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • eeb4352