Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4487

Incidents associés

Incident 8952 Rapports
Alleged Deepfake of New Zealand Endocrinologist Reportedly Promotes Misleading Diabetes Claim

Loading...
Un médecin ciblé par une publicité frauduleuse
medpagetoday.com · 2025

Un endocrinologue bien connu en Nouvelle-Zélande a récemment été victime d'une arnaque deepfake, selon un reportage du New Zealand Herald.

L'image de Sir Jim Mann, DM, PhD, MA, de l'Université d'Otago, a été utilisée dans une vidéo deepfake news qui a circulé sur les réseaux sociaux après avoir été publiée sur une page Facebook d'une entreprise qui vend des bonbons au chanvre. Dans la vidéo, le faux Mann exhortait les personnes atteintes de diabète de type 2 à arrêter de prendre la metformine, le médicament de référence, et à utiliser plutôt des produits naturels alternatifs.

Bien que le message ait apparemment été supprimé, Mann a déclaré au Herald qu'il avait depuis refait surface de temps en temps et qu'il n'avait appris son existence que lorsque quelqu'un lui avait envoyé un message à ce sujet.

"J'ai été bombardé de messages et d'e-mails de deux groupes de personnes... L'un d'eux disait : "Félicitations pour ce merveilleux nouveau produit... que vous avez découvert et c'est formidable que vous ayez dénoncé tous ces médecins et d'autres personnes comme des fraudeurs... où puis-je me procurer le produit ?". Et d'autres personnes disaient : "Pour l'amour de Dieu, sachez que vous avez été arnaqué", a-t-il déclaré au journal.

"Il y avait des gens vraiment très raisonnables et intelligents qui l'avaient complètement cru, y compris des gens que je connais bien... Dieu sait combien de personnes se sont fait avoir", a-t-il ajouté. "L'IA est si intelligente qu'elle pourrait manipuler ma bouche pour donner l'impression que je disais ces mots".

Mann a également appelé à la prudence ceux qui tombent sur des vidéos d'experts qui semblent trop belles pour être vraies.

« Si vous entendez quelqu'un dire quelque chose qui semble trop beau pour être vrai, c'est probablement trop beau pour être vrai. ... Ce sont des déclarations assez scandaleuses », a-t-il déclaré au Herald.

En effet, l'arnaque deepfake utilisant l'image de Mann n'est pas un événement isolé.

En novembre, Dana Brems, podologue et personnalité des médias sociaux basée à Los Angeles, a déclaré dans un message Instagram qu'une entreprise avait utilisé l'IA pour faire un faux enregistrement de sa voix.

Le message montrait Brems réagissant, la bouche couverte de consternation, à ce qu'elle disait être une publicité qui « utilisait un clone IA de ma voix pour prétendre que je recommandais leur produit ».

Les messages de Brems sur les médias sociaux concernant la publicité - qui semblait concerner un appareil de nettoyage des oreilles - ont accumulé les vues, de nombreux commentateurs soulignant les dangers potentiels des fausses recommandations liées à la santé liées aux professionnels de la santé.

« Une fois que les gens comprendront qu'ils peuvent utiliser l'IA pour se faire passer pour des médecins et d'autres figures d'autorité, cela va devenir un énorme problème », a déclaré Brems à MedPage Today à l'époque.

Mann a partagé ce sentiment dans des déclarations faites au Herald.

« Je me sens mal parce que je suis le patron de Diabetes New Zealand, donc beaucoup de gens connaissent mon nom, même s'ils ne me connaissent pas », a-t-il déclaré.

Il a conseillé aux gens de s'informer directement auprès de professionnels de santé reconnus.

Mann n'a pas immédiatement répondu à la demande de commentaires supplémentaires de MedPage Today.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd