Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3316

Incidentes Asociados

Incidente 57311 Reportes
Deepfake Recordings Allegedly Influence Slovakian Election

Loading...
Eslovaquia: El audio falso del periodista Denník N ofrece un ejemplo preocupante de abuso de la IA
ipi.media · 2023

La campaña electoral parlamentaria eslovaca de 2023 hizo historia, y no por las razones correctas. Por primera vez, los deepfakes jugaron un papel en la batalla preelectoral. Dos días antes de las elecciones, circuló en las redes sociales un vídeo con un clip de audio en el que supuestamente aparecían Monika Tódová, una conocida periodista de la plataforma de noticias independiente Denník N, y Michal Šimečka, presidente del Partido Progresista Eslovaquia. La conversación falsa nunca ocurrió, pero el video llegó a miles de usuarios de redes sociales de todos modos.

La “conversación” sobre el fraude electoral fue pura invención. Pero en un breve vídeo difundido pocos días antes de las elecciones eslovacas, se escuchó las voces generadas digitalmente del periodista y del presidente del partido hablando de ello. En el vídeo manipulado artificialmente, conocido como deep fake, se muestra una imagen estática del periodista y del político. La pista de audio es de mala calidad y no suena auténtica, pero sus palabras también están en los subtítulos. Ambos involucrados negaron inmediatamente la autenticidad de la conversación. Varias organizaciones de verificación de datos y expertos también confirmaron la falta de autenticidad del vídeo.

Según grupos de libertad de prensa, se cree que el deepfake que involucra a Tódová es uno de los primeros ejemplos en la UE de tecnología de inteligencia artificial utilizada para manipular la imagen de un periodista, y podría ofrecer un presagio preocupante del futuro abuso de tales herramientas para difamar y desacreditar a los medios de comunicación.

Si bien casi cualquier persona puede crear vídeos o clips de audio deepfake con un mínimo esfuerzo, detectarlos no es tan sencillo. "Todavía no existe una herramienta realmente eficaz, accesible y, sobre todo, fiable para detectar contenidos generados por IA, desde audio hasta vídeos y fotografías", confirma Michael Colborne, periodista e investigador del ICJK Bellingcat. También es un desafío determinar cómo se creó exactamente. "Es imposible decir si fue creado por alguien que lo cargó y luego usó inteligencia artificial para doblarlo, o si alguien entrenó inteligencia artificial y luego creó un archivo de audio a partir de él", añade el analista de datos de investigace.cz Josef Šlerka.

Rastrear la ruta del vídeo deepfake también es problemático. El hecho de que comenzara a difundirse desde Telegram hizo que investigar su origen fuera aún más difícil. Identificar con absoluta certeza la fuente original que difunde el clip es casi imposible. Sin embargo, está claro que la grabación podría haber tenido dos propósitos: desacreditar a un periodista y proporcionar evidencia para la narrativa del Kremlin de que Estados Unidos quiere manipular los resultados de las elecciones eslovacas.

Patrón de ataques de descrédito

Monika Tódová, figura destacada del periodismo eslovaco del periódico Denník N, ya se ha enfrentado anteriormente a campañas de difamación. Según el [análisis del Centro de Investigación Jan Kuciak (ICJK](https://www.icjk.sk/275/Analyza-Pred-volbami-na-novinarov-a-media-najviac-utocil-Robert-Fico- a-strana-Smer-platili-si-aj-reklamu)), fue la periodista más atacada en los meses previos a las elecciones parlamentarias de septiembre de 2023. Si bien este video deepfake superó las tácticas anteriores, ella había sido objeto de estos ataques mucho antes.

Contra Tódová se lleva a cabo una continua campaña de difamación que involucra no sólo a políticos sino también a plataformas de desinformación. Desacreditación constante, discursos de odio e incluso vigilancia: esto es lo que ha tenido que afrontar en los últimos años. Y a menudo son los políticos quienes los alimentan, incluso en sus conferencias de prensa. Además, fue víctima de un deepfake, que podría convertirse en una herramienta completamente nueva para campañas de desprestigio en el futuro. El periodista ya tomó emprendió acciones legales y, con la ayuda de la plataforma de protección Safe.Journalism.SK, presentó una denuncia penal, bajo sospecha de difamación y daño criminal a los derechos de otros.

Sin embargo, este video deepfake también puede haber tenido un propósito diferente: encajar en la narrativa del Kremlin de que Estados Unidos quiere manipular los resultados de las elecciones eslovacas. El vídeo, publicado unos días antes de que los eslovacos acudieran a las urnas, se distribuyó eficazmente en las redes sociales y en los correos electrónicos. Los que compartieron el vídeo falso en las redes sociales con más éxito fueron políticos: el ex presidente del Tribunal Supremo y ex ministro Štefan Harabin y el ex diputado Peter Marček. Ambos son firmes defensores de las posiciones y la propaganda pro-Kremlin en el país. El propio Marček visitó la Crimea anexada en 2018.

Las conclusiones de la ICJK muestran que el vídeo falso inicialmente se difundió públicamente después de ser compartido por la cuenta de Telegram de Štefan Harabin. Sin embargo, lo reenvió desde la cuenta privada oculta con el nombre “Gabika Ha”. La cuenta del exministro de Justicia no compartió contenido de este usuario por casualidad. Lo ha hecho al menos 27 veces. Además, el análisis del contenido de la cuenta muestra que la persona que utiliza la cuenta, "Gabika Ha", debió acompañar personalmente al ex ministro de Justicia en los Salamander Days en Banská Štiavnica a principios de septiembre de 2023. Cuando se le preguntó si el perfil podría estar asociado con Su esposa, Gabriela (abreviada Gabika) Harabinová, nombre que guarda similitud con “Gabika Ha”, Harabin colgó la llamada con el reportero de la ICJK.

A pesar de que apareció inicialmente en Telegram, el vídeo fabricado se extendió a decenas de miles de usuarios a través de Facebook. Según el verificador de datos de la AFP Robert Barca, que verifica la veracidad de la información en el Facebook eslovaco, ésta se difundió principalmente a través de cuentas personales, "como la mayoría de los contenidos virales falsos en Facebook". El puesto más exitoso, según el Barça, fue el del ex miembro del consejo nacional, Peter Marček.

En particular, la aparición del vídeo falso que involucra a Tódová y Šimečka coincidió con un comunicado de prensa de la agencia de inteligencia rusa SVR publicado poco antes de que apareciera el vídeo, alegando la participación de Estados Unidos para influir en el resultado. de las elecciones eslovacas. El jefe de inteligencia del SVR, Sergei Naryshkin, acusó a Estados Unidos de dar instrucciones a sus aliados para que cooperen con los círculos empresariales y políticos "para asegurar los resultados de la votación exigidos por los estadounidenses", con el objetivo particular de "la victoria de su representante, el partido liberal Eslovaquia Progresista (...)". El comunicado de prensa también menciona a Michal Šimečka, el presidente del partido.

La noche anterior a las elecciones del 29 de septiembre, las elecciones eslovacas ocuparon un lugar central en las noticias transmitidas por la cadena de televisión estatal rusa Rossija 1. El [informe](https://dennikn.sk/3628871/na-slovenske-volby- poslali-rusi-skusenu-propagandistku-ktorej-posluzil-harabin-teoriou-o-esete/?ref=list) el foco principal giró en torno a la potencial interferencia de Estados Unidos en los resultados de las elecciones eslovacas. Fue Štefan Harabin quien se hizo eco de esta teoría ante la cámara y, según las imágenes, fue el único que concedió una entrevista a la televisión de propaganda rusa.

A menos que las autoridades encargadas de hacer cumplir la ley en Eslovaquia puedan identificar la fuente del ataque de desinformación, es posible que nunca se establezca el motivo final detrás del deepfake. Sin embargo, a medida que el uso de herramientas de inteligencia artificial esté más disponible en los próximos años, la probabilidad de ataques similares de difamación y campañas de desinformación respaldadas por inteligencia artificial podría aumentar, planteando serias cuestiones democráticas no solo para Eslovaquia, sino para Europa y el mundo. Mientras continúan los debates en todo el mundo sobre cómo la IA afectará al periodismo y la libertad de prensa, este caso representa un ejemplo preocupante de las amenazas que podría plantear la tecnología deepfake, tanto ahora como en el futuro.

Karin Kőváry Sólymos trabaja en el Centro de Investigación Ján Kuciak (ICJK) en Eslovaquia

Este artículo fue encargado por el IPI como parte de Respuesta Rápida a la Libertad de los Medios (MFRR), un mecanismo europeo que rastrea, monitorea y responde a las violaciones de la prensa y los medios. libertad en los Estados miembros de la UE, los países candidatos y Ucrania. El proyecto está cofinanciado por la Comisión Europea.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd