Incident 1036: Un clip d'actualité prétendument manipulé par l'IA fabrique une explosion et un complot pour assassiner un médecin pour une escroquerie
Description: Une vidéo prétendument manipulée par l'IA montrant Swaleh Mdoe, présentateur de Citizen TV, en train de couvrir l'attentat à la bombe perpétré au domicile d'un médecin kenyan a largement circulé sur Facebook. La vidéo aurait utilisé des éléments audio et visuels générés par l'IA pour fomenter un complot dans lequel des laboratoires pharmaceutiques auraient ciblé le médecin pour avoir promu un « remède miracle ». En réalité, les images de l'explosion provenaient de l'Ohio, le médecin était fictif et le contenu visait à inciter les spectateurs à acheter un produit de santé non éprouvé.
Editor Notes: Timeline notes: The reported video emerged sometime in January 2025. By the time Africa Check published its report on January 20, 2025, they claim that it had garnered over 497,000 views. The report was included in the database on April 21, 2025.
Entités
Voir toutes les entitésAlleged: Unknown deepfake technology developer et Unknown voice cloning technology developer developed an AI system deployed by scammers et Fraudsters, which harmed Swaleh Mdoe , Citizen TV , General public of Kenya et Media integrity.
Systèmes d'IA présumés impliqués: Unknown deepfake app et Unknown voice cloning technology
Statistiques d'incidents
ID
1036
Nombre de rapports
1
Date de l'incident
2025-01-20
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport

EN BREF : Une vidéo virale sur Facebook affirme que la maison d'un médecin kenyan a été détruite par une explosion liée à ses critiques des laboratoires pharmaceutiques. On le voit également promouvoir un « remède miracle » contre des malad…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes
· 29 rapports
Defamation via AutoComplete
· 28 rapports

Alexa Plays Pornography Instead of Kids Song
· 16 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes
· 29 rapports
Defamation via AutoComplete
· 28 rapports

Alexa Plays Pornography Instead of Kids Song
· 16 rapports