Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 895: Alleged Deepfake of New Zealand Endocrinologist Reportedly Promotes Misleading Diabetes Claim

Description: A video circulated on social media that appeared to feature University of Otago endocrinologist Sir Jim Mann allegedly promoting a hemp gummy product for diabetes patients and urging them to stop using metformin. The video was reportedly generated using AI and has been described as spreading manipulated visuals and speech presenting false medical advice.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown deepfake technology developer developed an AI system deployed by scammers et Fraudsters, which harmed New Zealand general public , Jim Mann et Diabetes patients.
Système d'IA présumé impliqué: Unknown deepfake app

Statistiques d'incidents

ID
895
Nombre de rapports
2
Date de l'incident
2025-01-06
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+1
Un expert du diabète alarmé par une arnaque aux fausses nouvelles utilisant une image d'IA exhortant les patients à abandonner les médicaments
Un médecin ciblé par une publicité frauduleuse
Un expert du diabète alarmé par une arnaque aux fausses nouvelles utilisant une image d'IA exhortant les patients à abandonner les médicaments

Un expert du diabète alarmé par une arnaque aux fausses nouvelles utilisant une image d'IA exhortant les patients à abandonner les médicaments

nzherald.co.nz

Un médecin ciblé par une publicité frauduleuse

Un médecin ciblé par une publicité frauduleuse

medpagetoday.com

Un expert du diabète alarmé par une arnaque aux fausses nouvelles utilisant une image d'IA exhortant les patients à abandonner les médicaments
nzherald.co.nz · 2025
Traduit par IA

Un éminent spécialiste du diabète est alarmé par le fait qu'une fausse vidéo d'information utilisant son image qui exhorte les gens à arrêter de prendre leurs médicaments puisse rendre les gens malades.

L'Université d'Otago s'inquiète d'une…

Un médecin ciblé par une publicité frauduleuse
medpagetoday.com · 2025
Traduit par IA

Un endocrinologue bien connu en Nouvelle-Zélande a récemment été victime d'une arnaque deepfake, selon un reportage du New Zealand Herald.

L'image de Sir Jim Mann, DM, PhD, MA, de l'Université d'Otago, a été utilisée dans une vidéo deepfake…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Passport checker Detects Asian man's Eyes as Closed

Robot passport checker rejects Asian man's photo for having his eyes closed

Dec 2016 · 22 rapports
Fake LinkedIn Profiles Created Using GAN Photos

That smiling LinkedIn profile face might be a computer-generated fake

Feb 2022 · 4 rapports
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Passport checker Detects Asian man's Eyes as Closed

Robot passport checker rejects Asian man's photo for having his eyes closed

Dec 2016 · 22 rapports
Fake LinkedIn Profiles Created Using GAN Photos

That smiling LinkedIn profile face might be a computer-generated fake

Feb 2022 · 4 rapports
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e