Incident 1242: Des vidéos deepfakes, prétendument générées par l'IA, auraient été utilisées dans une campagne d'escroquerie suédoise se faisant passer pour les docteurs Agnes Wold et Anders Tegnell.
Répondu
Description: Un avertissement de la police suédoise de juin 2025 signalait que des fraudeurs utilisaient des vidéos deepfakes, prétendument générées par l'IA, de médecins renommés, dont Anders Tegnell et Agnes Wold, dans des publicités sur les réseaux sociaux faisant la promotion de faux produits de santé. Les victimes auraient été attirées vers des sites frauduleux où leurs coordonnées bancaires étaient volées et où d'importants prélèvements non autorisés étaient effectués. Ces escroqueries, qui auraient débuté fin mai 2025, ont suscité de nombreuses plaintes, tant de la part de médecins usurpés que de consommateurs escroqués.
Editor Notes: Timeline notes: The alleged scams began circulating sometime in late May 2025 with the Swedish police issuing a warning on 06/09/2025, which is the date taken for this incident ID. The ID was added to the AI Incident Database on 10/21/2025.
Entités
Voir toutes les entitésAlleged: Unknown voice cloning technology developers et Unknown deepfake technology developers developed an AI system deployed by Unknown scammers impersonating Anders Tegnell , Unknown scammers impersonating Agnes Wold et Unknown scammers, which harmed General public of Sweden , General public , Consumers misled by fraudulent ads , Anders Tegnell et Agnes Wold.
Systèmes d'IA présumés impliqués: Unknown voice cloning technology , Unknown deepfake technology , Social media , Meta Platforms et Facebook
Statistiques d'incidents
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Rapports d'incidents
Chronologie du rapport
Loading...
Réponse post-incident de Polisen Stockholms län, Stockholm County Police
Plusieurs signalements de fraudes à l'IA sur les réseaux sociaux
Des fraudeurs utilisent l'IA pour imiter de vraies personnes dans des vidéos diffusées sur les réseaux sociaux. Ensuite, les données de carte bancaire des utilisateurs sont vo…
Loading...
C'est en mai que les courriels ont commencé à arriver, tant à elle-même qu'à l'émission « Demandez à Agnès Wold », où le médecin et le professeur décortiquent les mythes sur la santé.
« Ce que vous dites à propos du nettoyage vasculaire est…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?


