Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4981

Incidents associés

Incident 9921 Rapport
Chinese Businessman Reportedly Defrauded of 4.3 Million Yuan by AI-Generated Deepfake Impersonating Friend

Loading...
Un escroc chinois utilise l'IA pour se faire passer pour l'ami de sa victime et voler 823 000 $
straitstimes.com · 2023

PÉKIN – Un escroc chinois a utilisé l'intelligence artificielle (IA) pour se faire passer pour l'ami de confiance d'un homme d'affaires et le convaincre de lui remettre des millions de yuans, ont annoncé les autorités.

La victime, dont le nom de famille est Guo, a reçu un appel vidéo en avril d'une personne qui ressemblait à un ami proche.

Mais l'appelant était en réalité un escroc « utilisant une technologie d'IA intelligente pour modifier son visage » et sa voix, selon un article publié lundi par un portail médiatique lié au gouvernement de la ville de Fuzhou, dans le sud du pays.

L'escroc se faisait passer pour un ami proche de Guo et commettait une fraude, selon l'article.

M. Guo a été persuadé de transférer 4,3 millions de yuans (823 000 dollars singapouriens) après que l'escroc a prétendu qu'un autre ami avait besoin que l'argent soit retiré du compte bancaire d'une entreprise pour payer la garantie d'un appel d'offres.

L'escroc a demandé le numéro de compte bancaire personnel de M. Guo, puis a prétendu qu'une somme équivalente avait été virée sur ce compte, lui envoyant une capture d'écran d'un relevé de paiement frauduleux.

Sans vérifier la réception de l'argent, M. Guo a effectué deux paiements depuis son compte professionnel, totalisant le montant demandé.

« À ce moment-là, j'ai vérifié le visage et la voix de la personne qui m'appelait en visioconférence, alors j'ai baissé ma garde », a déclaré M. Guo, cité par l'article.

Il n'a réalisé son erreur qu'après avoir envoyé un message à l'ami dont l'identité avait été usurpée et qui n'était pas au courant de la transaction.

M. Guo a alerté la police, qui a notifié à une banque d'une autre ville de ne pas procéder aux virements, et a réussi à récupérer 3,4 millions de yuans, selon l'article.

L'article ajoute que les efforts pour récupérer les fonds restants sont en cours, mais n'identifie pas les auteurs de l'escroquerie.

Les dangers potentiels des technologies d'IA révolutionnaires ont suscité une attention accrue depuis le lancement en novembre de ChatGPT, un chatbot imitant la parole humaine, par l'entreprise américaine OpenAI.

La Chine a annoncé son ambitieux projet de devenir un leader mondial de l'IA d'ici 2030, et de nombreuses entreprises technologiques, dont Alibaba, JD.com, NetEase et ByteDance, la maison mère de TikTok, se sont empressées de développer des produits similaires.

ChatGPT n'est pas disponible en Chine, mais le logiciel américain acquiert une base d'utilisateurs chinois qui utilisent des réseaux privés virtuels pour y accéder afin de rédiger des dissertations et de se préparer aux examens. Cependant, il est également utilisé à des fins plus malveillantes.

Début mai, la police de la province du Gansu, dans le nord-ouest du pays, a déclaré que des « mesures coercitives » avaient été prises à l'encontre d'un homme qui avait utilisé ChatGPT pour créer un faux article sur un accident de bus mortel, largement diffusé sur les réseaux sociaux.

Une loi réglementant les deepfakes, entrée en vigueur en janvier, interdit l'utilisation de cette technologie pour produire, publier ou transmettre de fausses informations.

Un projet de loi proposé en avril par le régulateur d'Internet de Pékin exigerait que tous les nouveaux produits d'IA soient soumis à une « évaluation de sécurité » avant leur mise à disposition au public. AFP

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd