Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1455: Supuestos videos deepfake suplantaron la identidad del optometrista Joseph Allen para promocionar gotas para los ojos que revierten la miopía en TikTok.

Traducido por IA
Descripción:
Traducido por IA
El optometrista y educador en línea Joseph Allen ("Dr. Eye Health") denunció que videos generados por inteligencia artificial, que utilizaban su imagen y voz, circularon en TikTok para promocionar gotas para los ojos que supuestamente revertían la miopía. Esta presunta estafa tergiversó las opiniones de Allen y desaconsejó las visitas a profesionales de la salud visual. Según se informa, los videos reaparecieron tras ser eliminados.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown voice cloning technology developers y Unknown deepfake technology developers developed an AI system deployed by Unknown scammers, which harmed People seeking medical advice , Joseph Allen , Followers of Dr. Eye Health , Epistemic integrity y Dr. Eye Health.
Sistemas de IA presuntamente implicados: Unknown voice cloning technology , Unknown deepfake technology , TikTok y Social media platforms

Estadísticas de incidentes

ID
1455
Cantidad de informes
2
Fecha del Incidente
2025-07-15
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
¡ADVERTENCIA! ¡No caigas en esta ESTAFA de deepfake con IA!
Optometrista contraataca tras estafa con deepfake
Loading...
¡ADVERTENCIA! ¡No caigas en esta ESTAFA de deepfake con IA!

¡ADVERTENCIA! ¡No caigas en esta ESTAFA de deepfake con IA!

goldenhousetucson.com

Loading...
Optometrista contraataca tras estafa con deepfake

Optometrista contraataca tras estafa con deepfake

visionmonday.com

Loading...
¡ADVERTENCIA! ¡No caigas en esta ESTAFA de deepfake con IA!
goldenhousetucson.com · 2025
Traducido por IA

Les advierto sobre una nueva estafa que utiliza deepfakes (imágenes falsas) creadas con IA para promocionar un suplemento vitamínico que nunca he recomendado. Esto es un ejemplo de robo de identidad mediante IA y constituye un delito de dee…

Loading...
Optometrista contraataca tras estafa con deepfake
visionmonday.com · 2026
Traducido por IA

Joseph Allen, OD, es muy conocido en el circuito de conferencias, en las redes sociales y por su canal de YouTube, Dr. Eye Health, donde educa a sus seguidores sobre diversos temas de salud ocular. Sin embargo, su notoriedad tuvo un lado ne…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 informes
Loading...
All Image Captions Produced are Violent

All Image Captions Produced are Violent

Apr 2018 · 26 informes
Loading...
High-Toxicity Assessed on Text Involving Women and Minority Groups

High-Toxicity Assessed on Text Involving Women and Minority Groups

Feb 2017 · 8 informes
Incidente Anterior

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Deepfake Obama Introduction of Deepfakes

Deepfake Obama Introduction of Deepfakes

Jul 2017 · 29 informes
Loading...
All Image Captions Produced are Violent

All Image Captions Produced are Violent

Apr 2018 · 26 informes
Loading...
High-Toxicity Assessed on Text Involving Women and Minority Groups

High-Toxicity Assessed on Text Involving Women and Minority Groups

Feb 2017 · 8 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2026 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 70bfe3d