Incidente 1119: Presuntos vídeos deepfake suplantan a políticos y médicos lituanos en una supuesta red de estafa transfronteriza.
Descripción: Una supuesta serie de vídeos deepfake de alta calidad, generados con inteligencia artificial, supuestamente imitaban segmentos de la televisión lituana, políticos y médicos para promover productos sanitarios fraudulentos y desinformación antivacunas. Distribuidos principalmente a través de Facebook, los vídeos habrían llegado a audiencias de hasta 15 países de la UE. Verificadores de datos y expertos en ciberseguridad habrían descrito la campaña como parte de una red de estafa coordinada diseñada para obtener dinero haciéndose pasar por figuras públicas y medios de comunicación de confianza.
Entidades
Ver todas las entidadesAlleged: Unknown deepfake technology developers y Unknown voice cloning technology developers developed an AI system deployed by Unknown scammers y Unknown international scam network operating across multiple EU countries, which harmed Aurelijus Veryga , Vytautas Kasiulevičius , Social media users in Lithuania , General public of Lithuania y General public of the European Union.
Sistemas de IA presuntamente implicados: Unknown deepfake technology y Unknown voice cloning technology
Estadísticas de incidentes
ID
1119
Cantidad de informes
2
Fecha del Incidente
2025-06-28
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional
Informes del Incidente
Cronología de Informes
Loading...
Una serie de videos de noticias falsas altamente convincentes que circularon en línea este mes alarmaron a los residentes de Lituania. Creados mediante tecnología de inteligencia artificial conocida como deepfakes, se cree que estos videos …
Loading...
Una oleada de vídeos deepfake generados por IA que imitan noticias reales ha inundado las redes sociales lituanas en las últimas semanas, promocionando productos médicos falsos y difundiendo desinformación antivacunas.
Los investigadores in…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Loading...

Deepfake Obama Introduction of Deepfakes
· 29 informes
Loading...

Wikipedia Vandalism Prevention Bot Loop
· 6 informes
Loading...
Defamation via AutoComplete
· 28 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Loading...

Deepfake Obama Introduction of Deepfakes
· 29 informes
Loading...

Wikipedia Vandalism Prevention Bot Loop
· 6 informes
Loading...
Defamation via AutoComplete
· 28 informes