Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5428

Incidents associés

Incident 90123 Rapports
Yahoo Boys Allegedly Used Deepfake Technology to Impersonate Brad Pitt and Defraud French Woman of $850,000 in Romance Scam

Incident 11265 Rapports
Reported Use of Deepfake Video Impersonating Owen Wilson in Romance Scam with Fake Job Payments

Loading...
Le plaidoyer désespéré d'une fille après que sa mère ait commencé une relation étroite avec le faux Owen Wilson
ladbible.com · 2025

Ah, l'intelligence artificielle, tu as encore frappé.

La technologie et l'IA progressent à un rythme effréné, à tel point que les gens ont du mal à distinguer le vrai du faux en ligne.

Des vidéos d'IA circulent sur X ces derniers temps, et des millions d'utilisateurs sont choqués par leur réalisme apparent.

Une vidéo de rue, étrangement similaire à la vidéo virale « Hawk Tuah », a attiré l'attention de nombreux internautes, même s'ils ont été choqués d'apprendre qu'elle avait été entièrement créée avec Veo 3, le modèle de génération vidéo de pointe de Google.

Mais il semble que la confusion ne fasse que commencer, d'autres vidéos, dont une montrant une femme murmurant à la caméra, ont également choqué les utilisateurs.

Les escrocs commencent également à s'en rendre compte : une femme a été victime d'un faux Brad Pitt qui l'a escroquée de 700 000 £ plus tôt cette année.

Une femme s'est rendue sur Reddit pour expliquer que sa mère était sur le point de se faire avoir.

Dans le groupe r/Scams, elle a énuméré une multitude de signaux d'alarme et a demandé de l'aide pour convaincre sa mère qu'elle était sur le point de se faire arnaquer.

La mère de l'utilisateur pense avoir parlé à l'acteur Owen Wilson, connu pour ses rôles dans Cars et Sérieux Noceurs, entre autres.

Attention, spoiler : ce n'est pas lui, et la vidéo envoyée comme « preuve » est clairement une IA.

« Ma sœur et moi lui avons dit que c'était une arnaque, mais elle ne nous entend pas », a-t-elle déclaré.

L'utilisatrice a expliqué : « Elle l'a rencontré sur Yahtzee with Friends. Il affirme l'avoir prise pour une connaissance. Il ne lui parle que sur WhatsApp, par téléphone. »

« Elle utilise aussi FaceTime, mais j'ai des doutes. »

Elle a ajouté que les photos de Wilson qui lui avaient été envoyées étaient faciles à trouver sur Internet et sur les comptes de fans.

Sa mère affirme qu'il ne lui a pas demandé d'argent ni de coordonnées bancaires, mais qu'il lui a trouvé un emploi chez Warner Bros., où elle « peut gagner 5 000 $ par mois en aimant les publications sur les réseaux sociaux ».

« Grâce à cet emploi, elle a reçu deux paiements de 10 $ via Cashapp pour ses premiers entraînements. » Elle dit qu'ils lui enverront 1 000 $ via CashApp une fois sa formation terminée », a-t-elle poursuivi.

L'utilisatrice a expliqué qu'« Owen Wilson » avait annoncé à sa mère qu'il allait acheter une maison dans leur petite ville côtière et qu'il souhaitait que ses deux parents y vivent et s'occupent d'elle pendant son absence.

Elle a ajouté : « Il a demandé à un agent immobilier de cette résidence sécurisée de l'appeler pour discuter des options. »

Cette partie lui semblait néanmoins crédible, car l'agent immobilier « a mentionné le nom inhabituel de la mère de ma belle-sœur », même s'ils ne sont pas connectés sur les réseaux sociaux.

Pour couronner le tout, la vidéo ci-dessus a été envoyée comme « preuve » de son authenticité, l'utilisatrice ayant demandé conseil aux autres membres du groupe pour convaincre sa mère que tout cela était faux.

Un utilisateur a souligné : « Waouh, c'est effrayant, on voit bien que le ton est décalé et robotique. » Son visage est également légèrement différent de celui d'Owen, mais c'est incroyable pour quelqu'un qui ne s'y connaît pas.

Un autre a déclaré : « Ça ne fera qu'empirer, malheureusement. La précision des deepfakes ne fera que s'améliorer », tandis qu'un troisième a conseillé : « Quelle situation frustrante !

Attention à ne pas la mettre à dos. Cela peut rendre ces situations plus difficiles. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd