Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4410

Incidents associés

Incident 8786 Rapports
Romance Scammer 'Alla Morgan' Allegedly Exploits Deepfake Technology to Defraud Victim of £17,000

Arnaque de romance deepfake : une femme perd près de 18 lakhs de roupies dans une fausse relation en ligne, comment se protéger
timesnownews.com · 2024

Une femme de 77 ans d'Edimbourg en Ecosse a perdu 17 000 £ (environ 18 06 863 Rs) dans une arnaque amoureuse en ligne, a rapporté la BBC. La victime Nikki MacLeod a été trompée par des vidéos deepfake et a reçu des cartes-cadeaux, des virements bancaires et des paiements PayPal, pensant aider une femme avec laquelle elle croyait être en couple.

S'adressant à BBC Radio Scotland, la professeure à la retraite a déclaré qu'elle avait d'abord eu des doutes, mais qu'elle s'était sentie rassurée par les messages vidéo de la personne, dont elle sait maintenant qu'ils étaient faux. La victime veut également mettre en garde les autres contre l'utilisation croissante de la technologie de l'IA par les escrocs.

"Je ne suis pas une personne stupide, mais elle a réussi à me convaincre qu'elle était une vraie personne et que nous allions passer notre vie ensemble", a déclaré MacLeod à BBC Radio Scotland.

Selon le rapport, la professeure à la retraite d'Edimbourg se sentait seule après avoir perdu ses parents pendant le confinement et la fin d'une relation à long terme. La victime a commencé à parler à des gens en ligne et a rencontré la personne qu'elle connaît sous le nom d'Alla Morgan dans un groupe de discussion.

On lui a dit que cette personne travaillait sur une plate-forme pétrolière en mer du Nord et on lui a demandé d'acheter des cartes-cadeaux Steam pour leur permettre de continuer à discuter. Ces cartes sont généralement utilisées pour acheter des jeux vidéo. La personne avec laquelle Nikki discutait lui a dit qu'elle en avait besoin pour lui permettre d'obtenir une connexion Internet sur la plate-forme afin qu'elles puissent continuer à discuter.

Selon la BBC, la victime a demandé à plusieurs reprises à Alla Morgan un appel vidéo en direct qui a été refusé ou n'a pas fonctionné. C'est alors qu'elle a commencé à recevoir des messages vidéo enregistrés.

Comment repérer les vidéos de deefake

Un deepfake est une vidéo qui a été créée à l'aide d'images trafiquées et de voix manipulées. Il utilise principalement la technologie deepfake - qui utilise la méthode d'apprentissage profond de l'intelligence artificielle pour créer du contenu faux.

- Pour le repérer, surveillez les mouvements faciaux étranges comme des clignements d'yeux ou des synchronisations labiales étranges.

- Écoutez les voix étranges qui ne correspondent pas à la personne qui parle.

- Recherchez la vidéo en ligne pour voir si elle provient d'une source fiable.

- Recherchez des erreurs telles que des bords flous ou des arrière-plans étranges.

- Utilisez des outils pour vous aider à détecter les deepfakes.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f