Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5173

Incidents associés

Incident 10651 Rapport
Scammers Allegedly Use AI-Generated Avatars to Impersonate Friends in Houston, Texas and Solicit Money

Loading...
Des femmes de Houston victimes d'une arnaque par des vidéos deepfake générées par l'IA
fox26houston.com · 2024

HOUSTON - Nous vous avertissons depuis un certain temps que les escrocs peuvent utiliser l'intelligence artificielle pour créer de fausses vidéos et escroquer les gens. Mais sauriez-vous reconnaître une vidéo deepfake si elle ressemble à celle d'un de vos amis ?

Deux femmes de la région de Houston (https://www.fox26houston.com/tag/us/tx/houston) affirment avoir été escroquées par des vidéos de leurs amis générées par l'IA. Leurs images ont ensuite été utilisées pour créer des deepfakes afin d'arnaquer d'autres personnes.

« C'est dingue. Ça m'a un peu énervée », a déclaré Stacey Svegliato.

Stacey dit avoir reçu un appel vidéo sur l'application Messenger de quelqu'un qui ressemblait à son amie, Sara Sandlin.

« C'était elle qui me parlait, et les messages allaient et venaient, et tout ce que j'entendais, c'était : "Hé, mon Facebook a été piraté », a déclaré Stacey. Stacey raconte avoir reçu un code d'accès sur son téléphone et le lui avoir envoyé. Puis, une publication est apparue sur sa page Facebook, prétendant vendre les véhicules, les appareils électroménagers et les meubles de son père. Stacey raconte ensuite que ses amis ont commencé à recevoir des messages vidéo qui lui ressemblaient et qui sonnaient comme s'ils la recherchaient.

« J'ai une voix très particulière, alors quand les gens disent qu'ils me parlent, c'est effrayant », a déclaré Stacey.

Il s'avère que Sara Sandlin venait également de recevoir un message vidéo qui ressemblait à une connaissance.

« C'était son visage. Elle avait fait un signe de la main, souriait, et même repoussé ses cheveux en arrière », a expliqué Sara en décrivant la vidéo.

Sara a également été dupée en envoyant un code d'accès, des articles à vendre ont été publiés sur sa page Facebook et une vidéo d'elle générée par l'IA a été envoyée à ses amis.

« Les gens pensaient que c'était moi. Certains sont tombés dans le panneau, d'autres non », a déclaré Sara.

Elle raconte que certains de ses amis lui ont rapporté avoir envoyé des centaines de dollars pour des articles mis en vente à l'expéditeur de la vidéo, sans se rendre compte qu'il ne s'agissait pas de Sara.

Dominic Chorafakis, expert en cybersécurité chez Akouto Consulting, explique que les escrocs s'emparent de vidéos publiées en ligne pour créer des avatars générés par l'IA, qui ressemblent tellement à la vraie personne qu'ils peuvent tromper ceux qui la connaissent bien.

« Vous pouvez même utiliser une photo de la personne et le playback fera le reste. Pas besoin de longs segments vidéo, même une image fixe fera l'affaire », explique Chorafakis.

Pour vous montrer comment cela fonctionne, j'ai filmé une vidéo de moi en train de parler, puis je l'ai téléchargée sur un outil d'IA en ligne et j'ai tapé un script que mon avatar devait dire.

« Voici une vidéo de moi générée par l'IA. Pouvez-vous faire la différence entre l'IA et la vraie personne ? » a demandé mon avatar à la caméra dans la vidéo, en me ressemblant et en me parlant. Si vous craignez qu'un escroc crée une vidéo deepfake de vous, Chorafakis vous suggère de prendre des mesures pour vous protéger.

« Premièrement, limitez ce que vous publiez. Et utilisez les fonctionnalités de sécurité de la plateforme pour limiter l'accès à ce contenu, afin qu'il ne soit pas uniquement accessible au public », a déclaré Chorafakis.

Sara et Stacey craignent que les escrocs continuent d'utiliser leurs avatars.

« Comme mon amie Sara, ils l'utilisaient pour obtenir l'argent dont elle avait besoin, et ce n'était même pas elle. Alors je me suis dit : « J'espère qu'ils ne recommenceront pas avec moi », a déclaré Stacey.

Nous avons contacté Facebook au sujet de cette arnaque. Nous n'avons pas reçu de réponse.

Pour vous protéger, les experts recommandent :

  • Préservez la confidentialité de vos profils sur les réseaux sociaux et limitez ce que vous publiez sur vous-même.
  • Ne donnez jamais de code d'accès à qui que ce soit.
  • Utilisez des mots de passe complexes et une authentification multifacteur pour sécuriser vos comptes numériques.

Stacey et Sara ont perdu l'accès à leurs comptes Facebook et à leurs précieuses photos de famille. Il est donc conseillé de sauvegarder toutes les photos et vidéos que vous souhaitez conserver.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd