Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5424

Incidents associés

Incident 90123 Rapports
Yahoo Boys Allegedly Used Deepfake Technology to Impersonate Brad Pitt and Defraud French Woman of $850,000 in Romance Scam

Incident 112222 Rapports
Reportedly Sustained Multi-Celebrity Deepfake Persona Scam Targeting Vulnerable Southampton Resident

Loading...
Un homme victime d'une arnaque à la Jennifer Aniston
cybernews.com · 2025

Un homme de Southampton a perdu des centaines de livres sterling suite à une arnaque à la Jennifer Aniston, révélant ainsi l'essor des fraudes impliquant des célébrités utilisant l'IA.

Dans la dernière arnaque regrettable à la Jennifer Aniston, Paul Davis, 43 ans, de Southampton, au Royaume-Uni, a perdu des centaines de livres sterling après que des escrocs se soient fait passer pour Jennifer Aniston en utilisant des vidéos générées par l'IA et de fausses pièces d'identité.

L'arnaque était une manipulation émotionnelle : les escrocs lui disaient qu'ils l'« aimaient » et lui envoyaient des émojis dragueurs pour gagner sa confiance.

Cette affaire illustre comment l'IA est instrumentalisée dans des escroqueries sophistiquées d'usurpation d'identité de célébrités, touchant des personnes vulnérables.

Il est crucial de noter que la prévalence croissante des escroqueries utilisant l'IA rend la détection des fraudes plus difficile pour les victimes.

L'histoire de Paul - Le dénouement de l'arnaque

Paul, au chômage et souffrant de dépression, était la cible d'une campagne incessante : des dizaines de contacts quotidiens de la part d'escrocs se faisant passer pour des célébrités.

Les escrocs ont utilisé des vidéos générées par l'IA mettant en scène des célébrités : Jennifer Aniston, Mark Zuckerberg, Elon Musk et Ellie Goulding.

De faux permis de conduire et des selfies truqués de Jennifer Aniston ont été envoyés pour convaincre Paul de la légitimité de l'arnaque.

Une manipulation émotionnelle a été mise en œuvre, avec des messages personnels l'appelant « mon amour » et des émojis conçus pour susciter des sentiments d'affection et de confiance.

Des moyens de pression ont été utilisés, les escrocs affirmant que « l'abonnement d'Aniston était sur le point d'expirer » et exigeant des cartes-cadeaux Apple d'une valeur de 200 £ en guise de « paiement ».

Paul a fait confiance aux vidéos et aux images, a payé et regrette aujourd'hui sa perte. Il connaît d'autres personnes qui ont perdu des sommes encore plus importantes, certaines dépassant les 1 000 £, ce qui illustre l'ampleur du problème.

Une vague croissante d'escroqueries par IA

L'essor de l'IA a rendu les escroqueries par usurpation d'identité de célébrités plus courantes et plus difficiles à détecter.

Un contenu deepfake de Jennifer Anniston a déjà été utilisé en 2024, dans le cadre d'une distribution frauduleuse de MacBook sur YouTube, ce qui a suscité un tollé sur les réseaux sociaux comme Reddit.

Les victimes subissent souvent non seulement des pertes financières, mais aussi un traumatisme émotionnel, en particulier celles qui sont vulnérables en raison de l'isolement ou de problèmes de santé mentale.

Des escroqueries similaires ont ciblé d'autres personnes, notamment une Française qui a perdu 700 000 £ à cause d'un faux Brad Pitt qui lui demandait de l'argent pour son traitement contre le cancer.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e132322