Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4983

Incidents associés

Incident 9765 Rapports
AI-Generated OB-GYN Health Influencers on TikTok Used Fake Medical Credentials to Promote Dubious Advice

Loading...
Des « médecins » générés par l’IA trompent les utilisateurs de TikTok avec de faux conseils médicaux — voici comment repérer une fraude « horrible »
nypost.com · 2025

Une pomme par jour éloigne-t-elle l'IA ?

Des créateurs dénoncent les prétendus médecins deepfakes qui escroquent les utilisateurs des réseaux sociaux avec des conseils médicaux infondés.

Sur TikTok, une recherche donne accès à des dizaines de vidéos de femmes débitant des phrases comme « 13 ans comme médecin de chatte et personne ne me croit quand je leur dis ça », avant de dévoiler de soi-disant secrets de santé pour des seins galbés, un ventre rond, des mâchoires sculptées et un pH équilibré.

Mais ces soi-disant experts ne sont même pas réels. Ils sont entièrement générés par l'intelligence artificielle.

Des TikTokeurs perspicaces ont dénoncé des « médecins » prétendument créés par l'IA, qui prétendent être des experts dans le domaine médical et prodiguent des conseils non traditionnels. TikTok / @locks_health

Certains de ces soi-disant « médecins » se prétendent experts dans d'autres domaines (alimentation, chirurgie esthétique, seins, fesses, ventre, etc.) et proposent des conseils pour soigner ou remédier aux maux ou aux problèmes de santé des utilisateurs.

Un compte a publié des dizaines de clips mettant en scène la même femme, qui prétend avoir passé 13 ans à soigner les « culottes » et les « fesses ». Un autre compte présente la même femme, qui déverse des conseils médicaux infondés sous couvert d'être une prétendue « médecin spécialiste des chattes ».

Media Matters rapporte que la même ribambelle de prétendus deepfakes se sont également présentés comme des vendeurs de produits de bien-être ou ont prétendu avoir des liens avec Hollywood pour diffuser des potins.

Ces divergences sont de nature à surprendre.

Une recherche sur ces clips informatifs donne des dizaines de résultats, et la navigation sur les pages des utilisateurs révèle plusieurs vidéos du même créateur se présentant comme un médecin spécialisé dans les « fesses », les « culottes » ou les « coochies », ainsi que comme un diététicien et un chirurgien esthétique. TikTok / @locks_health

Un utilisateur a affirmé que les personnalités générées par l'IA provenaient de l'application Captions, qui propose un outil d'IA générative pour les vidéos en ligne. TikTok / @locks_health

Javon Ford, le créateur de sa marque de beauté éponyme, a récemment révélé que les personnalités générées par l'IA peuvent être manipulées sur une application appelée Captions, qui se présente comme un outil pour générer et éditer des vidéos d'IA parlantes. L'entreprise affirme compter 100 000 utilisateurs quotidiens de l'application, avec plus de 3 millions de vidéos produites chaque mois.

Mais Ford a qualifié le service de « profondément insidieux ».

« Vous avez peut-être remarqué quelques-uns de ces “créateurs” sur votre page “Pour vous”. Aucun d’entre eux n’est réel », a-t-il averti.

Dans une vidéo TikTok, il a parcouru une liste exhaustive d’avatars d’IA parmi lesquels les utilisateurs peuvent choisir – comme une femme nommée « Violet », que l’on voit dans de nombreux clips de « docteur chatte » – montrant comment un script peut être écrit et que l’avatar le régurgite.

Des utilisateurs consternés ont qualifié cette technologie de « très dangereuse », tandis que certains ont envisagé d’abandonner complètement les réseaux sociaux en raison de la réalité « effrayante » des deepfakes réalistes.

« J'ai vu Violet tellement de fois », a commenté un internaute choqué, tandis qu'un autre a confirmé l'avoir vue « dire qu'elle était dentiste et infirmière ».

« C'est vraiment effrayant ! Maintenant que vous le soulignez, je vois clair, mais sans l'avertissement, je me suis peut-être laissée avoir ! » a admis quelqu'un d'autre.

Pour sensibiliser les internautes, les créateurs ont mis en avant les moyens de déterminer si la personne à l'écran est réelle ou générée par une IA, alors que les deepfakes prolifèrent en ligne.

Les créateurs de contenu suspects diffusent des conseils médicaux sur divers comptes, se faisant passer pour des médecins de différentes spécialités. TikTok / @brokegirlguides

Ford, pour sa part, a dénoncé les « mouvements de bouche », les qualifiant d'« étranges ». Il a remarqué que les lèvres ne se synchronisaient pas avec le son, ce qui, selon lui, est le « premier signal d'alarme ».

« On est en 2025 », a-t-il déclaré sur TikTok (https://www.tiktok.com/@javonford16/video/7472178037245611310). « Personne ne devrait avoir de problèmes de décalage audio-vidéo. »

Il a ajouté que leurs affirmations – selon lesquelles un produit ou un remède naturel est plus efficace que les produits couramment utilisés – devraient également alerter.

Ford a également conseillé de consulter le profil du titulaire du compte pour voir combien de vidéos présentent le soi-disant « médecin », qui a été gynécologue, proctologue et autres en seulement 13 ans.

« Oh là là, ils ont eu une carrière productive », a-t-il plaisanté.

Un utilisateur nommé Caleb Kruse, expert en médias payants, a souligné les signes révélateurs d'un avatar IA dans une précédente vidéo sur TikTok, en prenant comme exemple le contenu d'un autre créateur. La femme a plus tard confirmé que, bien qu'il s'agisse bien d'une personne réelle, la vidéo en question avait été créée avec l'IA par une entreprise qui avait demandé à cloner son image.

Outre les mouvements irréalistes de la bouche, Kruse a souligné les yeux de la femme, les mouvements de tête maladroits et l'ambiance générale de la vidéo, ou le sentiment que « ce n'est pas réel ».

« Les yeux sont trop grands alors qu'ils ne devraient pas l'être ; ils ne reflètent pas toujours exactement la réaction d'une personne normale lorsqu'elle dit quelque chose », a-t-il expliqué.

« Troisièmement, il y a la cadence, la façon dont elle parle, la fluidité des mots entre les phrases », a-t-il poursuivi. « Il y a parfois des pauses étranges qu'on ne dirait pas normalement. »

Ces critiques ont été un signal d'alarme pour ses abonnés.

« Cela devrait être illégal », a commenté un internaute consterné.

« Ça a l'air tellement réel que c'est horrifiant », a ajouté un autre.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd