Entités
Voir toutes les entitésClassifications de taxonomie CSETv1
Détails de la taxonomieIncident Number
147
Special Interest Intangible Harm
no
Date of Incident Year
2020
Estimated Date
No
Multiple AI Interaction
no
Embedded
no
Risk Subdomain
4.3. Fraud, scams, and targeted manipulation
Risk Domain
- Malicious Actors & Misuse
Entity
Human
Timing
Post-deployment
Intent
Intentional
Rapports d'incidents
Chronologie du rapport

Le clonage de voix par IA est utilisé dans un énorme cambriolage sur lequel enquêtent les enquêteurs de Dubaï, au milieu d'avertissements concernant l'utilisation par les cybercriminels de la nouvelle technologie.
Début 2020, un directeur d…
Une enquête sur une fraude de 35 millions de dollars américains commise par une banque des Émirats arabes unis en janvier 2020 a révélé que la technologie de falsification vocale a été utilisée pour imiter un dirigeant d'entreprise connu d'…
Une enquête sur le vol de 35 millions de dollars dans une banque des Émirats arabes unis en janvier 2020 a révélé qu'une fausse technologie vocale avait été utilisée pour se faire passer pour un directeur d'entreprise connu d'un directeur d…

Voix profonde
La technologie Deepfake est devenue incroyablement sophistiquée au fil des ans, nous permettant de ressusciter les voix des morts et de tromper Justin Bieber en défiant de célèbres scientologues au combat. Certaines personnes …
Un groupe de fraudeurs a dérobé 35 millions de dollars après avoir utilisé de faux courriels et des voix de synthèse pour convaincre un employé d'une entreprise des Émirats arabes unis qu'un directeur avait sollicité ces fonds dans le cadre…
La police des Émirats arabes unis enquête sur un braquage de banque au cours duquel des criminels auraient utilisé une intelligence artificielle (IA) deepfake pour cloner la voix du directeur de l'entreprise et convaincre le directeur de la…
Variantes
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents