Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5440

Incidents associés

Incident 90123 Rapports
Yahoo Boys Allegedly Used Deepfake Technology to Impersonate Brad Pitt and Defraud French Woman of $850,000 in Romance Scam

Incident 112222 Rapports
Reportedly Sustained Multi-Celebrity Deepfake Persona Scam Targeting Vulnerable Southampton Resident

Loading...
Jennifer Aniston, une IA, tente de convaincre une victime britannique de lui soutirer de l'argent.
news.shib.io · 2025

Paul Davis, un résident de Southampton, au Royaume-Uni, a récemment été victime d'une arnaque par deepfake utilisant l'IA, lui causant une perte d'environ 255 $ (200 £). L'escroquerie consistait à le convaincre qu'il communiquait avec l'actrice américaine et star de Friends, Jennifer Aniston.

Davis, 43 ans, a été la cible d'une arnaque par deepfake utilisant l'IA, recevant de nombreux messages prétendument d'Aniston, exprimant son affection tout en sollicitant de l'argent.

Davis a déclaré (https://www.dailymail.co.uk/news/article-14864301/scammed-hundreds-pounds-AI-deepfake-Jennifer-Aniston.html) avoir reçu une image présentée comme le permis de conduire d'Aniston, accompagnée d'un message de l'escroc destiné à le convaincre qu'il parlait avec Aniston elle-même et non avec un imposteur.

De plus, Davis a signalé avoir reçu une série de messages manipulateurs dans lesquels l'individu se faisant passer pour Jennifer Aniston se livrait à un « love bombing », utilisant des surnoms affectueux, déclarant son amour et envoyant même une image d'Aniston tenant une pancarte modifiée numériquement sur laquelle était écrit « Je t'aime ».

Malheureusement, Davis s'est laissé séduire par les tactiques trompeuses du deepfake d'IA (https://news.shib.io/2025/02/13/deepfakes-how-ai-trickery-works-and-how-to-spot-it/) et a finalement été victime de l'arnaque, perdant de l'argent grâce à des cartes-cadeaux Apple non remboursables.

« J'ai reçu de fausses vidéos de Jennifer Aniston me demandant 200 £ et disant qu'elle m'aime », a déclaré David.

Outre les messages impliquant Jennifer Aniston, Davis a signalé avoir été ciblé par des vidéos générées par l'IA mettant en scène Mark Zuckerberg, PDG de Meta Platforms, et Elon Musk, PDG de Tesla. Il a déclaré avoir été victime de ces vidéos et messages deepfakes au cours des cinq derniers mois.

« Ce n'est pas une arnaque, croyez-moi », aurait déclaré à Davis le deepfake de Zuckerberg généré par l'IA pour paraître crédible. Ces messages falsifiés étaient souvent accompagnés de certificats falsifiés et de fausses cartes d'identité.

Malheureusement, Davis n'est pas la seule victime d'une arnaque utilisant l'IA. En janvier, une Française a été trompée par un deepfake de l'acteur Brad Pitt généré par l'IA, la laissant croire qu'ils entretenaient une relation amoureuse. Elle a finalement été escroquée de toutes ses économies, convaincue que ces fonds étaient nécessaires au traitement contre le cancer présumé de Brad Pitt.

La femme a reçu des poèmes d'amour, des déclarations touchantes, des photos générées par l'IA et même une demande en mariage de la part des escrocs. Ils ont aggravé la tromperie en envoyant un courriel prétendument envoyé par un médecin, affirmant que Pitt était gravement malade et luttait pour sa vie. Convaincue par ces communications, la victime a finalement transféré environ 850 000 dollars sur un compte en Turquie.

Avec les progrès rapides de l'IA, les escrocs ont exploité ces avancées à leur profit. Les cibles les plus fréquentes de ces arnaques sont souvent les personnes âgées ou celles ayant des compétences technologiques limitées, les escroqueries sentimentales devenant une tactique courante chez les auteurs.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd