Entidades
Ver todas las entidadesClasificaciones de la Taxonomía CSETv1
Detalles de la TaxonomíaIncident Number
147
Special Interest Intangible Harm
no
Date of Incident Year
2020
Estimated Date
No
Multiple AI Interaction
no
Embedded
no
Risk Subdomain
4.3. Fraud, scams, and targeted manipulation
Risk Domain
- Malicious Actors & Misuse
Entity
Human
Timing
Post-deployment
Intent
Intentional
Informes del Incidente
Cronología de Informes

La clonación de voz de IA se utiliza en un gran atraco que investigan los investigadores de Dubái, en medio de advertencias sobre el uso de la nueva tecnología por parte de ciberdelincuentes.
A principios de 2020, el director de un banco de…
Una investigación sobre el fraude de 35 millones de dólares estadounidenses a un banco de los Emiratos Árabes Unidos en enero de 2020 reveló que se utilizó tecnología de voz deepfake para imitar a un director de una empresa conocido por el …
Una investigación sobre el robo de 35 millones de dólares de un banco en los Emiratos Árabes Unidos en enero de 2020 descubrió que se utilizó tecnología de voz falsa para hacerse pasar por un director de una empresa conocido por el gerente …

Voz profunda
La tecnología deepfake se ha vuelto increíblemente sofisticada a lo largo de los años, lo que nos permite resucitar las voces de los muertos y engañar a Justin Bieber para que desafíe a peleas a cienciólogos famosos. Algunas pe…
Un grupo de estafadores se hizo con 35 millones de dólares tras usar correos electrónicos falsificados y audio deepfake para convencer a un empleado de una empresa de los Emiratos Árabes Unidos de que un director solicitó el dinero como par…
La policía de los Emiratos Árabes Unidos investiga un robo a un banco en el que los delincuentes presuntamente utilizaron inteligencia artificial (IA) deepfake para clonar la voz del director de la empresa y convencer al gerente del banco d…
Variantes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents