Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4802

Incidents associés

Incident 9531 Rapport
Deepfake Videos of Barbara O’Neill Allegedly Used in Health Scam Targeting Social Media Users

Loading...
Attention au torrent de publicités deepfake utilisant l’image de Barbara O’Neill, notamment un remède contre les problèmes de prostate
africacheck.org · 2024

EN BREF : Une vidéo circulant sur les réseaux sociaux prétend montrer la « naturopathe » australienne Barbara O’Neill, aujourd’hui en disgrâce, en train de promouvoir un remède contre les problèmes de prostate et la dysfonction érectile. Mais certains indices laissent penser que la vidéo est un deepfake, faisant la promotion de plusieurs escroqueries.

Barbara O’Neill n’est pas étrangère aux vérificateurs de faits](https://fullfact.org/health/herbal-diabetes-cure/) du monde entier et, et Africa Check a déjà démystifié plusieurs allégations de santé émanant de personnes qui se décrivent comme telles. naturopathe. 

Les dernières vidéos mettant en vedette O’Neill apparaissent dans une série de publications Facebook populaires, dont une de novembre 2024 circulant en Afrique du Sud, avec plus d’un million de vues au moment de la rédaction. Sa légende dit : « La prostatite disparaîtra à jamais ! Lisez l’article. »

La vidéo commence par des images en basse résolution d'O'Neill qui semble dire : « Votre érection reviendra et restera forte même après 80 ans si vous prenez une capsule avant de vous coucher. »

Nombreux autres vidéos utilisant [les mêmes audio sur différentes séquences vidéo de l’intervention d’O’Neill ont été retrouvées en circulation [au Nigeria](https://www.facebook.com/61567929116342/videos/1811023126298562/?tn=%2CO-R/?tn=%2CO-R.

Mais s’agit-il de véritables soutiens de la part de l’Australien controversé ?

O’Neill interdite de donner des conseils de santé, toujours utilisée pour vendre des remèdes et des compléments alimentaires

Une recherche rapide en ligne produit un torrent de vidéos d’O’Neill donnant des conférences sur les traitements alternatifs et les causes de maladies. Selon les autorités sanitaires australiennes, à partir de la fin des années 1990, elle a également fourni des consultations de conseils de santé, écrit des livres sur la santé et la nutrition et travaillé dans un certain nombre de « retraites » de santé.

Français O’Neill a été interdite de donner des conseils de santé dans son pays d’origine à la suite d’une enquête menée en 2018 par la Commission des plaintes relatives aux soins de santé de Nouvelle-Galles du Sud, qui a conclu qu’elle était une praticienne non agréée et qu’elle représentait « un risque pour la santé ou la sécurité des membres du public ». Mais depuis, elle aurait réussi à attirer un large public, notamment en ligne, où ses vidéos de conférences sont particulièrement populaires.

Des extraits de ces conférences sont depuis devenus un support publicitaire courant sur les réseaux sociaux. Début 2024, Vox a rapporté que des comptes TikTok utilisaient l'audio des vidéos de conférences d'O'Neill pour vendre une grande variété de compléments alimentaires et de remèdes miracles. Ceux-ci sont souvent vaguement alignés avec l'éthique de l'auto-guérison et ont tendance à assimiler « naturel » à sain.

Puis en août, le Guardian a rapporté que des outils d’intelligence artificielle (IA) avaient été introduits dans le mélange, avec des torrents d’imitations d’O’Neill qui ont incité la présidente elle-même à mettre en garde contre cette tendance dans un clip vidéo publié sur YouTube. Nous avons démystifié certaines de ces imitations générées par l’IA en juillet.

Signes d’un deepfake

Les deepfakes sont généralement des manipulations de séquences réelles pour faire croire que quelqu’un a dit ou fait quelque chose qu’il n’a pas fait. Les escrocs peuvent facilement et rapidement créer ces vidéos pour tirer profit de l’utilisation de l’identité d’une personne, surtout si le réalisme n’est pas une priorité absolue. 

Ces vidéos entrent dans cette catégorie de deepfakes, créée rapidement et irréaliste. Le son des vidéos est sensiblement désynchronisé avec les mouvements de la bouche et du corps de l’orateur, et semble artificiel ou robotique dans certaines parties. Il est parfois difficile de remarquer ces indices s’il y a une musique de fond forte ou si les images sont très granuleuses ou pixelisées, comme c’est le cas de ces vidéos.

Mais d’autres signes dans le contexte des publications montrent clairement qu’il s’agit d’escroqueries. D’une part, elles n’ont pas été publiées par O’Neill, qui a également déclaré qu’elle n’avait pas sa propre page Facebook. Elles sont plutôt publiées par une série de petits comptes qui ne semblent pas affiliés de quelque façon que ce soit à l'intervenant ou à une entreprise de bien-être, ou dont on peut clairement voir sur leurs profils Facebook qu'ils diffusent plusieurs publicités dans différentes langues et qui renvoient vers une multitude de sites Web différents.

Enfin, comme dans la plupart des escroqueries liées à la santé, les affirmations sensationnelles selon lesquelles on peut guérir quelque chose rapidement ou facilement, ou qui promettent des résultats miraculeux, sont un signe évident que quelque chose est frauduleux.

Ce que veulent les escrocs

Certaines des vidéos les plus récentes apparaissent dans le cadre de plusieurs publicités Facebook, souvent par les mêmes comptes. Les publicités incluent des liens qui dirigent ensuite les utilisateurs vers divers autres sites sans rapport, y compris de fausses copies de sites Web de santé légitimes comme Mayo Clinic et Healthline. À partir de ces sites, les utilisateurs sont invités à s'abonner ou à s'inscrire, probablement pour obtenir des informations personnelles, dans ce qu'on appelle une escroquerie par hameçonnage.

D'autres publicités semblent avoir été conçues pour vendre des produits de manière plus directe, avec des publications similaires ou identiques renvoyant vers des sites prétendant vendre des bonbons gélifiés contre l'impuissance appelés Vital Grow XL.

Vous pouvez en savoir plus sur l'identification des deepfakes dans notre guide.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd