Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 895: Alleged Deepfake of New Zealand Endocrinologist Reportedly Promotes Misleading Diabetes Claim

Descripción: A video circulated on social media that appeared to feature University of Otago endocrinologist Sir Jim Mann allegedly promoting a hemp gummy product for diabetes patients and urging them to stop using metformin. The video was reportedly generated using AI and has been described as spreading manipulated visuals and speech presenting false medical advice.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology developer developed an AI system deployed by scammers y Fraudsters, which harmed New Zealand general public , Jim Mann y Diabetes patients.
Sistema de IA presuntamente implicado: Unknown deepfake app

Estadísticas de incidentes

ID
895
Cantidad de informes
2
Fecha del Incidente
2025-01-06
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Experto en diabetes alerta sobre estafa de noticias falsas que utilizan imágenes de IA para instar a los pacientes a abandonar la medicación
Un médico es blanco de una estafa con anuncios deepfake
Experto en diabetes alerta sobre estafa de noticias falsas que utilizan imágenes de IA para instar a los pacientes a abandonar la medicación

Experto en diabetes alerta sobre estafa de noticias falsas que utilizan imágenes de IA para instar a los pacientes a abandonar la medicación

nzherald.co.nz

Un médico es blanco de una estafa con anuncios deepfake

Un médico es blanco de una estafa con anuncios deepfake

medpagetoday.com

Experto en diabetes alerta sobre estafa de noticias falsas que utilizan imágenes de IA para instar a los pacientes a abandonar la medicación
nzherald.co.nz · 2025
Traducido por IA

Un destacado especialista en diabetes está alarmado por un vídeo de noticias falsas que utiliza su imagen y que insta a las personas a dejar de tomar sus medicamentos que pueda provocar que las personas se enfermen.

La Universidad de Otago …

Un médico es blanco de una estafa con anuncios deepfake
medpagetoday.com · 2025
Traducido por IA

Un conocido endocrinólogo de Nueva Zelanda fue recientemente víctima de una estafa deepfake, según un informe del New Zealand Herald.

La imagen de Sir Jim Mann, DM, PhD, MA, de la Universidad de Otago, se utilizó en un video de noticias dee…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Passport checker Detects Asian man's Eyes as Closed

Robot passport checker rejects Asian man's photo for having his eyes closed

Dec 2016 · 22 informes
Fake LinkedIn Profiles Created Using GAN Photos

That smiling LinkedIn profile face might be a computer-generated fake

Feb 2022 · 4 informes
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Passport checker Detects Asian man's Eyes as Closed

Robot passport checker rejects Asian man's photo for having his eyes closed

Dec 2016 · 22 informes
Fake LinkedIn Profiles Created Using GAN Photos

That smiling LinkedIn profile face might be a computer-generated fake

Feb 2022 · 4 informes
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e