Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4986

Incidents associés

Incident 9765 Rapports
AI-Generated OB-GYN Health Influencers on TikTok Used Fake Medical Credentials to Promote Dubious Advice

Loading...
Avertissement concernant une tendance « horrible » de l’IA qui devient de plus en plus courante
news.com.au · 2025

Des experts mettent en garde contre les « médecins deepfake » après qu'une série de vidéos contenant des conseils médicaux infondés a inondé les réseaux sociaux.

Certains de ces soi-disant « médecins » se prétendent experts dans d'autres domaines (alimentation, chirurgie esthétique, seins, fesses, estomac, etc.) et proposent des conseils pour soigner ou remédier aux maladies ou aux problèmes de santé des spectateurs.

Mais ces soi-disant experts ne sont même pas réels. Ils sont entièrement générés par l'intelligence artificielle, rapporte le New York Post .

Sur TikTok, une simple recherche permet de trouver des dizaines de vidéos de femmes débitant des phrases comme « 13 ans comme médecin spécialisé dans les chattes et personne ne me croit quand je leur dis ça », avant de dévoiler leurs prétendus secrets de santé pour une poitrine galbée, un ventre rond, une mâchoire sculptée et un pH équilibré.

Les vidéos présentent souvent les mêmes personnes, occupant des postes médicaux différents, et délivrant toutes des conseils médicaux infondés.

Media Matters a rapporté (https://www.mediamatters.org/tiktok/scammers-seem-be-using-deepfake-and-ai-generated-influencers-tiktok-sell-you-wellness "www.mediamatters.org") que la même ribambelle de prétendus deepfakes se sont également présentés comme des vendeurs de produits de bien-être ou ont prétendu avoir des liens avec Hollywood pour colporter des rumeurs d'initiés.

Ces divergences sont de nature à susciter l'étonnement.

Javon Ford, créateur de la marque de beauté éponyme, a récemment révélé que les personnalités générées par l'IA peuvent être manipulées grâce à une application appelée Captions, qui se présente comme un outil permettant de générer et de monter des vidéos d'IA parlantes. L'entreprise affirme compter 100 000 utilisateurs quotidiens de l'application, avec plus de 3 millions de vidéos produites chaque mois.

Mais Ford a qualifié le service de « profondément insidieux ».

« Vous avez peut-être remarqué quelques-uns de ces "créateurs" sur votre page "Pour vous". Aucun d'entre eux n'est réel », a-t-il déclaré au New York Post.

Dans une vidéo TikTok [https://www.tiktok.com/@javonford16/video/7474712727848570158 "www.tiktok.com"), il a démontré combien il est facile de créer de « faux » experts en parcourant une liste exhaustive d'avatars IA parmi lesquels les utilisateurs peuvent choisir – comme une femme nommée « Violet », que l'on voit dans de nombreux clips de « docteur coochie » – montrant comment un script peut être écrit et que l'avatar le régurgite.

Des utilisateurs consternés ont qualifié cette technologie de « très dangereuse », tandis que certains ont envisagé d'abandonner complètement les réseaux sociaux en raison de la réalité « effrayante » des deepfakes réalistes.

« J'ai vu Violet tellement de fois », a commenté un internaute choqué, tandis qu'un autre a reconnu l'avoir vue « dire qu'elle était dentiste et infirmière ».

« C'est vraiment effrayant ! Maintenant que vous le soulignez, je vois clair, mais sans avertissement, j'ai peut-être été dupe ! » a admis quelqu'un d'autre.

Pour sensibiliser les internautes, les créateurs ont mis en avant les moyens de déterminer si la personne à l'écran est réelle ou générée par l'IA, alors que les deepfakes prolifèrent en ligne.

Ford, pour sa part, a dénoncé les « mouvements de bouche », soulignant que les lèvres n'étaient pas synchronisées avec le son, ce qui, selon lui, est le « premier signal d'alarme ».

« Nous sommes en 2025 », a-t-il déclaré sur TikTok. « Personne ne devrait avoir de problèmes de décalage audio-vidéo. »

Il a ajouté que leurs affirmations – selon lesquelles un produit ou un remède naturel fonctionne mieux que ce qui est couramment utilisé – devraient également alerter.

Ford a également conseillé de consulter le profil du titulaire du compte pour voir combien de vidéos mettent en scène le soi-disant « médecin », qui a exercé comme gynécologue, proctologue et autres en seulement 13 ans.

« Oh là là, ils ont eu une carrière productive », a-t-il plaisanté.

Un utilisateur du nom de Caleb Kruse, expert en médias payants, a souligné les signes révélateurs d'un avatar IA dans sa propre [vidéo](https://www.tiktok.com/@mr.paidsocial/video/7353767208872496430 « www.tiktok.com »), en prenant comme exemple le contenu d'un autre créateur. La femme a ensuite confirmé que, bien qu'il s'agisse bien d'une personne réelle, la vidéo en question avait été créée grâce à l'IA par une entreprise qui avait demandé à cloner son image.

Outre les mouvements de bouche irréalistes, Kruse a souligné les yeux de la femme, qui ne clignent même pas, les mouvements de tête maladroits et l'ambiance générale de la vidéo, qui donne l'impression que « ce n'est pas réel ».

« Ses yeux sont trop grands alors qu'ils ne devraient pas l'être ; ils ne reflètent pas toujours exactement la réaction d'une personne normale », a-t-il expliqué.

« Troisièmement, il y a la cadence, la façon dont elle parle, la fluidité des mots entre les phrases », a-t-il poursuivi. « Il y a parfois ces pauses étranges qu'on ne dirait pas normalement. »

Ces critiques ont été un signal d'alarme pour ses abonnés.

« Cela devrait être illégal », a commenté un spectateur consterné.

« Cela semble tellement réel que c'est terrifiant », a ajouté un autre.

Cet article a été initialement publié sur le New York Post et a été reproduit avec autorisation

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd