Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1455: Des vidéos truquées (deepfakes) auraient usurpé l'identité de l'optométriste Joseph Allen pour promouvoir des gouttes ophtalmiques contre la myopie sur TikTok.

Traduit par IA
Description:
Traduit par IA
L'optométriste et formateur en ligne Joseph Allen (« Dr. Eye Health ») a signalé que des vidéos générées par intelligence artificielle utilisant son image et sa voix circulaient sur TikTok pour promouvoir des gouttes ophtalmiques censées guérir la myopie. Cette escroquerie présumée déformait les propos d'Allen et dissuadait les gens de consulter un ophtalmologiste. Ces vidéos auraient refait surface après avoir été retirées.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown voice cloning technology developers et Unknown deepfake technology developers developed an AI system deployed by Unknown scammers, which harmed People seeking medical advice , Joseph Allen , Followers of Dr. Eye Health , Epistemic integrity et Dr. Eye Health.
Systèmes d'IA présumés impliqués: Unknown voice cloning technology , Unknown deepfake technology , TikTok et Social media platforms

Statistiques d'incidents

ID
1455
Nombre de rapports
2
Date de l'incident
2025-07-15
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+1
ATTENTION ! Ne tombez pas dans le piège de cette arnaque aux deepfakes d'IA !
Une optométriste riposte après une escroquerie par deepfake.
Loading...
ATTENTION ! Ne tombez pas dans le piège de cette arnaque aux deepfakes d'IA !

ATTENTION ! Ne tombez pas dans le piège de cette arnaque aux deepfakes d'IA !

goldenhousetucson.com

Loading...
Une optométriste riposte après une escroquerie par deepfake.

Une optométriste riposte après une escroquerie par deepfake.

visionmonday.com

Loading...
ATTENTION ! Ne tombez pas dans le piège de cette arnaque aux deepfakes d'IA !
goldenhousetucson.com · 2025
Traduit par IA

Je tiens à vous alerter sur une nouvelle arnaque utilisant des deepfakes (images truquées) de moi pour promouvoir un complément vitaminique que je n'ai jamais recommandé. Il s'agit d'un exemple d'usurpation d'identité par IA et d'un délit d…

Loading...
Une optométriste riposte après une escroquerie par deepfake.
visionmonday.com · 2026
Traduit par IA

Joseph Allen, optométriste, est bien connu des conférences, des réseaux sociaux et de sa chaîne YouTube, Dr. Eye Health, où il informe ses abonnés sur divers sujets liés à la santé oculaire. Cependant, sa notoriété a eu un revers lorsqu'il …

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 rapports
Loading...
All Image Captions Produced are Violent

All Image Captions Produced are Violent

Apr 2018 · 26 rapports
Loading...
High-Toxicity Assessed on Text Involving Women and Minority Groups

High-Toxicity Assessed on Text Involving Women and Minority Groups

Feb 2017 · 8 rapports
Incident précédent

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 rapports
Loading...
All Image Captions Produced are Violent

All Image Captions Produced are Violent

Apr 2018 · 26 rapports
Loading...
High-Toxicity Assessed on Text Involving Women and Minority Groups

High-Toxicity Assessed on Text Involving Women and Minority Groups

Feb 2017 · 8 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2026 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 70bfe3d