Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5463

Incidents associés

Incident 112222 Rapports
Reportedly Sustained Multi-Celebrity Deepfake Persona Scam Targeting Vulnerable Southampton Resident

Loading...
Arnaqué par un deepfake de Jennifer Aniston : des vidéos IA et de faux messages pour voler de l'argent et de l'identité
decripto.org · 2025

Un Britannique a perdu des centaines de livres après avoir été victime d'une arnaque sophistiquée en ligne utilisant des images et des vidéos générées artificiellement pour se faire passer pour la célèbre actrice américaine Jennifer Aniston. Cette affaire ravive l'inquiétude face à l'utilisation croissante des deepfakes dans les arnaques amoureuses numériques. Une relation virtuelle de cinq mois

La victime, un homme de 43 ans résidant à Southampton, en Angleterre, a déclaré avoir entretenu une relation virtuelle pendant environ cinq mois avec une personne qu'il croyait être Jennifer Aniston. Le contact avait débuté via les réseaux sociaux, par des messages apparemment anodins mais bien construits, qui s'étaient transformés au fil du temps en un échange émotionnel intense.

De nombreux « éléments de preuve » ont été fournis pour renforcer l'illusion : des photos de la prétendue célébrité, des notes vocales avec une voix identique à celle d'Aniston, une copie falsifiée de son permis de conduire et, surtout, une vidéo dans laquelle la fausse Aniston le saluait par son nom. La vidéo, générée grâce à la technologie deepfake, montrait des mouvements et une expressivité crédibles, compatibles avec le contenu réel diffusé en ligne par l'actrice.

La victime a déclaré que le message était plein d'affection, en parfaite harmonie avec leurs conversations : « Il m'a dit qu'il m'aimait. Que j'étais spéciale. » J'avais envie d'y croire."

L'appel à l'aide : une carte cadeau Apple

Le point culminant de l'arnaque est venu d'une demande d'argent. L'escroc, se faisant passer pour Jennifer Aniston, a expliqué qu'elle rencontrait des difficultés à payer ses abonnements aux services Apple en raison de problèmes avec son compte bancaire américain. Elle a ensuite demandé à l'homme d'acheter des cartes cadeaux Apple pour l'aider, promettant un remboursement rapide et prétextant des problèmes temporaires avec son équipe comptable. La victime, désormais émotionnellement impliquée, a cédé. Elle a acheté des cartes cadeaux d'une valeur d'environ 200 £ et a envoyé les codes par message privé. Face à l'insistance des demandes, elle a commencé à douter. Mais il était déjà trop tard.

Le moment de la révélation

Ce n'est qu'après avoir contacté des amis et mené des recherches plus approfondies que l'homme a réalisé qu'il avait été victime d'une tromperie. Les vidéos avaient été créées grâce à une technologie d'intelligence artificielle capable de reproduire les expressions, la voix et le comportement des célébrités de manière étonnamment réaliste. « Je me sens humiliée. Je ne suis pas stupide, mais j'étais seule. Cette voix, ces messages... ils semblaient réels. J'ai voulu y croire, ne serait-ce qu'un instant.

Un phénomène en pleine expansion

Ce cas n'est pas isolé. De plus en plus, les fraudeurs numériques exploitent les progrès des logiciels de génération vocale et visuelle pour créer des identités synthétiques convaincantes. L'utilisation des deepfakes ne se limite plus à de simples vidéos parodiques, mais est systématiquement utilisée dans les escroqueries sentimentales, les fraudes financières et les manipulations à l'échelle mondiale. Selon le rapport 2024 de l'entreprise de cybersécurité SlowMist, l'utilisation de l'IA générative dans les « escroqueries amoureuses » a augmenté de 215 % l'année dernière. Les victimes sont souvent choisies parmi les personnes seules, vulnérables ou en quête de relations authentiques, exploitant ainsi le désir humain d'amour et d'appartenance.

Les célébrités comme armes numériques

Jennifer Aniston n'est pas la seule victime involontaire de ces escroqueries. Par le passé, les images et les voix de Brad Pitt, Owen Wilson, Scarlett Johansson et Elon Musk a également été utilisé pour mener des opérations frauduleuses. Dans certains cas, les fraudeurs ont même falsifié des émissions de télévision en direct ou des interviews, fabriquées numériquement pour accroître leur crédibilité. L'objectif est toujours le même : instaurer la confiance, susciter l'engagement, inciter la victime à fournir de l'argent, des données sensibles ou l'accès à ses comptes bancaires.

Aucune véritable protection

Actuellement, les plateformes sociales sont souvent lentes ou inefficaces à bloquer ce type de contenu, et la législation peine à suivre l'évolution technologique. Les signalements des utilisateurs sont traités au coup par coup et il n'existe aucun outil de prévention efficace permettant de distinguer une vidéo authentique d'une vidéo générée par l'IA, surtout pour l'utilisateur lambda. De plus, la traçabilité des fraudeurs est compliquée par l'utilisation de VPN, de comptes fictifs et de serveurs étrangers. Dans le cas du Britannique, il n'a pas été possible de retracer la véritable identité de la personne qui se cachait derrière la fausse Aniston.

La voix des victimes

De nombreuses victimes, comme l'homme de Southampton, évitent la dénonciation publique par honte ou par peur du ridicule. Mais c'est précisément leur silence qui facilite la tâche. Ces schémas se reproduisent. Dans une interview accordée au Sun, la victime a expliqué qu'elle souhaitait raconter son histoire pour éviter que d'autres ne tombent dans le même piège : « Ce n'est pas seulement une question d'argent. Ils vous volent quelque chose de l'intérieur. Ils vous trompent, vous utilisent, puis disparaissent. C'est dévastateur. »

Une nouvelle frontière pour la cybercriminalité

L'histoire de la fausse liaison amoureuse avec Jennifer Aniston n'est que le dernier exemple en date de la manière dont l'utilisation abusive de l'intelligence artificielle transforme profondément le paysage de la cybercriminalité. Les forces de l'ordre, les gouvernements et les plateformes numériques devront s'équiper rapidement pour faire face à cette menace. En attendant, une seule recommandation : ne jamais se fier aveuglément à ce que l'on voit ou entend en ligne, même si cela a la voix, le visage et le sourire d'une star hollywoodienne.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd