Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5421

Incidents associés

Incident 10762 Rapports
Purported Unauthorized Deepfakes of Norman Swan and Others Circulated in Online Supplement Campaigns

Loading...
Avertissements urgents concernant les vidéos deepfake de médecins célèbres utilisées pour vendre des médicaments « à base d'huile de serpent » aux consommateurs
9news.com.au · 2025

Des avertissements urgents ont été lancés au public suite à la diffusion en ligne de vidéos deepfake montrant des médecins et des célébrités de confiance vendant des compléments alimentaires « de charlatan » aux consommateurs.

La sirène a retenti lorsque de fausses vidéos ont fait leur apparition en ligne, montrant des cliniciens de confiance, dont le Dr Norman Swan, le professeur Jonathan Shaw et l'ancienne présidente de l'Association médicale australienne (AMA), la professeure Kerryn Phelps, vendant des compléments alimentaires en ligne.

Une vidéo montre un faux professeur Shaw faisant la promotion d'un complément alimentaire comme traitement supposé du diabète de type 2.

Dans une autre vidéo, un Dr Swan deepfake déclare que les preuves scientifiques sont « stupides » alors qu'il tente de vendre des produits amaigrissants destinés au traitement des maladies cardiaques, du diabète et de l'obésité.

Ces vidéos ont été produites grâce à la technologie deepfake pour imiter le visage et la voix de médecins de confiance afin de vendre des produits non éprouvés au public australien, a déclaré la présidente de l'AMA, la Dre Danielle McMullen.

« Nous vivons à une époque où toute vidéo diffusée en ligne doit être remise en question : est-elle authentique ou s’agit-il d’un deepfake ? » a déclaré McMullen.

« Les deepfakes sont de plus en plus convaincants, et cette technologie est exploitée par des entreprises douteuses qui vendent de la poudre de perlimpinpin à des personnes vulnérables confrontées à de graves problèmes de santé. »

L’association médicale a partiellement imputé cette tendance à Meta, affirmant que le contenu était exacerbé par un affaiblissement de la modération sur les principaux réseaux sociaux comme Facebook et Instagram.

Meta a modifié sa politique de modération en janvier 2025.

« Bien qu’aucun chiffre précis des plaintes n’ait été publié, une augmentation généralisée des informations erronées et des contenus préjudiciables sur les plateformes de Meta a été signalée depuis ce changement de politique », peut-on lire dans une lettre de l’AMA au ministre des Communications.

« Mes tentatives pour que Meta supprime les images deepfake ont été vaines. »

L'AMA exhorte le gouvernement fédéral à agir face à cette tendance « profondément préoccupante ».

Cette escroquerie a également utilisé des vidéos deepfake de la chanteuse Adele et de l'actrice australienne Rebel Wilson pour vendre des produits similaires.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd