Incidente 876: Vídeos deepfake supuestamente utilizados para estafar a inmigrantes canadienses por miles de dólares
Descripción: Videos deepfake presuntamente suplantaban la identidad del abogado de inmigración de Toronto, Max Chaudhary, y atacaban a inmigrantes canadienses a través de WhatsApp. Los videos, aparentemente personales y realistas, solicitaban miles de dólares por servicios legales que nunca se prestaron. Aprovechando la confusión causada por los cambios en las normas de inmigración, la estafa supuestamente buscaba estafar a personas vulnerables en un momento de desesperación e incertidumbre.
Entidades
Ver todas las entidadesAlleged: Unknown deepfake technology developers developed an AI system deployed by scammers y Fraudsters, which harmed Immigrants in Toronto , Immigrants in Canada y Max Chaudhary.
Sistema de IA presuntamente implicado: Unknown deepfake tool
Estadísticas de incidentes
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes

Los videos generados artificialmente de un abogado de Toronto pidiendo dinero parecen ser solo una de las formas en que algunos intentan explotar a los recién llegados a Canadá en un momento de confusión en torno a las nuevas reglas de inmi…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes
· 29 informes
Defamation via AutoComplete
· 28 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

Deepfake Obama Introduction of Deepfakes
· 29 informes
Defamation via AutoComplete
· 28 informes