Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3382

Incidentes Asociados

Incidente 57311 Reportes
Deepfake Recordings Allegedly Influence Slovakian Election

Loading...
La amenaza de los deepfake golpea las elecciones eslovacas - Transiciones
tol.org · 2023

Se cree que el incidente es uno de los primeros ejemplos en la UE de uso de IA para manipular la imagen de un periodista, y podría presagiar el uso de tales herramientas para desacreditar a los medios. Del Instituto Internacional de Prensa.

La campaña electoral parlamentaria eslovaca de 2023 hizo historia, y no por las razones correctas. Por primera vez, los deepfakes jugaron un papel en la batalla preelectoral. Dos días antes de las elecciones del 29 de septiembre, circuló en las redes sociales un vídeo con un clip de audio en el que supuestamente aparecían Monika Todova, una conocida periodista de la plataforma de noticias independiente Dennik N, y Michal Simecka, presidente del Partido Progresista Eslovaquia. La conversación falsa, que parecía discutir formas de amañar las elecciones, nunca ocurrió, pero el video llegó a miles de usuarios de redes sociales de todos modos.

La “conversación” sobre el fraude electoral fue pura invención. Pero en un breve vídeo difundido pocos días antes de la votación, se escuchó las voces generadas digitalmente del periodista y del presidente del partido hablando de ello. En el vídeo manipulado artificialmente, conocido como deepfake, se muestra una imagen estática del periodista y el político. La pista de audio es de mala calidad y no suena auténtica, pero sus palabras también están en los subtítulos. Ambos involucrados negaron inmediatamente la autenticidad de la conversación. Varias organizaciones de verificación de datos y expertos también confirmaron la falta de autenticidad del vídeo.

Según grupos de libertad de prensa, se cree que el deepfake que involucra a Todova es uno de los primeros ejemplos en la UE de tecnología de inteligencia artificial utilizada para manipular la imagen de un periodista, y podría ofrecer un presagio preocupante del futuro abuso de tales herramientas para difamar y desacreditar a los medios de comunicación.

Si bien casi cualquier persona puede crear vídeos o clips de audio deepfake con un mínimo esfuerzo, detectarlos no es tan sencillo. "Hasta el momento, no existe una herramienta realmente eficaz, accesible y, sobre todo, fiable para detectar contenidos generados por IA, desde audio hasta vídeos y fotografías", confirmó Michael Colborne, analista de Bellingcat, una empresa de investigación con sede en los Países Bajos. Grupo de periodismo que se especializa en verificación de hechos e inteligencia de código abierto. También es un desafío determinar cómo se creó exactamente. "Es imposible decir si fue creado por alguien que lo cargó y luego usó inteligencia artificial para doblarlo, o si alguien entrenó inteligencia artificial y luego creó un archivo de audio a partir de él", añadió el analista de datos de investigace.cz, Josef Slerka.

Rastrear la ruta del vídeo deepfake también es problemático. El hecho de que comenzara a difundirse desde Telegram, una aplicación de mensajería conocida por sus configuraciones de seguridad personalizadas, hizo que investigar su origen fuera aún más difícil. Identificar con absoluta certeza la fuente original que difunde el clip es casi imposible. Sin embargo, está claro que la grabación podría haber tenido dos propósitos: desacreditar a un periodista y proporcionar evidencia para la narrativa del Kremlin de que Estados Unidos quería manipular los resultados de las elecciones eslovacas.

Patrón de ataques de descrédito

Monika Todova, una figura destacada del periodismo eslovaco, se ha enfrentado anteriormente a campañas de difamación. Según un [análisis del Centro de Investigación Jan Kuciak (ICJK](https://www.icjk.sk/275/Analyza-Pred-volbami-na-novinarov-a-media-najviac-utocil-Robert-Fico- a-strana-Smer-platili-si-aj-reklamu)), fue la periodista más atacada en los meses previos a las elecciones parlamentarias. Si bien este video deepfake superó las tácticas anteriores, ella había sido objeto de estos ataques mucho antes.

Se está llevando a cabo una continua campaña de difamación contra Todova que involucra no sólo a políticos sino también a plataformas de desinformación. Desacreditación constante, discursos de odio e incluso vigilancia es lo que ha tenido que afrontar en los últimos años. Y a menudo son los políticos quienes alimentan los ataques, incluso en sus conferencias de prensa. Los deepfake podrían representar una herramienta completamente nueva para las campañas de desprestigio en el futuro. Todova ya ha tomado emprendió acciones legales y con la ayuda de la plataforma de protección Safe.Journalism.SK, presentó una denuncia penal, bajo sospecha de difamación y daño criminal a los derechos de otros.

Sin embargo, como se señaló anteriormente, este video deepfake también puede haber tenido un propósito diferente: encajar en la narrativa del Kremlin de que Estados Unidos tenía la intención de interferir con los resultados de las elecciones eslovacas. Las redes sociales y las cadenas de correo electrónico desempeñaron un papel importante en la difusión del vídeo antes de que la gente acudiera a las urnas. Dos políticos actuaron como los usuarios más exitosos de las redes sociales: el ex presidente del Tribunal Supremo y ex ministro Stefan Harabin y el ex parlamentario Peter Marcek. Ambos son firmes defensores de las posiciones y la propaganda pro-Kremlin en el país. El propio Marcek visitó la Crimea anexada en 2018.

Los hallazgos del Centro de Investigación Jan Kuciak (ICJK) en Eslovaquia muestran que el video falso inicialmente se difundió públicamente después de ser compartido por la cuenta de Telegram de Harabin. Sin embargo, lo reenvió desde una cuenta privada oculta con el nombre “Gabika Ha”. La cuenta del exministro de Justicia no compartió contenido de este usuario por casualidad. Lo ha hecho al menos 27 veces. Además, el análisis del contenido de la cuenta muestra que la persona que utiliza la cuenta, "Gabika Ha", debe haber acompañado personalmente al ex ministro de Justicia en un evento (Salamander Days) en Banska Stiavnica a principios de septiembre de 2023. Cuando se le preguntó si el perfil podría estar asociado con su esposa, Gabriela (abreviada Gabika) Harabinova, nombre que guarda similitud con “Gabika Ha”, Harabin colgó la llamada con el reportero de la ICJK.

A pesar de que apareció inicialmente en Telegram, el vídeo fabricado se extendió a decenas de miles de usuarios a través de Facebook. Según el verificador de datos de la AFP Robert Barca, que verifica la veracidad de la información en el Facebook eslovaco, ésta se difundió principalmente a través de cuentas personales, "como la mayoría de los contenidos virales falsos en Facebook", afirmó. El puesto más exitoso, según el Barça, fue el de Marcek.

En particular, la aparición del video falso que involucra a Todova y Simecka coincidió con un comunicado de prensa de la agencia de inteligencia rusa SVR publicado poco antes de que apareciera el video, alegando la participación de Estados Unidos para influir en el resultado. de las elecciones eslovacas. El jefe de inteligencia del SVR, Sergei Naryshkin, acusó a Estados Unidos de dar instrucciones a sus aliados para que cooperen con los círculos empresariales y políticos “para asegurar los resultados de la votación exigidos por los estadounidenses”, con el objetivo particular de “la victoria de su representante, el partido liberal Eslovaquia Progresista (…)”. El comunicado de prensa menciona a Simecka, el presidente del partido.

La noche anterior a las elecciones de septiembre, las elecciones eslovacas ocuparon un lugar central en las noticias transmitidas por la cadena de televisión estatal rusa Rossija 1. El [informe](https://dennikn.sk/3628871/na-slovenske-volby-poslali -rusi-skusenu-propagandistku-ktorej-posluzil-harabin-teoriou-o-esete/?ref=list) el foco principal giró en torno a la posible interferencia de Estados Unidos en los resultados de las elecciones eslovacas. Fue Stefan Harabin quien se hizo eco de esta teoría ante la cámara y, según las imágenes, fue el único que concedió una entrevista a la emisora, conocida por su propaganda.

A menos que las autoridades encargadas de hacer cumplir la ley en Eslovaquia puedan identificar la fuente del ataque de desinformación, es posible que nunca se establezca el motivo final detrás del deepfake. Sin embargo, a medida que el uso de herramientas de inteligencia artificial esté más disponible en los próximos años, la probabilidad de ataques similares de difamación y campañas de desinformación respaldadas por inteligencia artificial podría aumentar, planteando serias interrogantes no solo para Eslovaquia, sino también para Europa y el mundo. Mientras continúan los debates sobre cómo la IA afectará al periodismo y la libertad de prensa, este caso representa un ejemplo preocupante de las amenazas que podría plantear la tecnología deepfake, tanto ahora como en el futuro.

…

Karin Kovary Solymos es colaboradora del Instituto Internacional de Prensa (IPI), donde se publicó este artículo [publicado originalmente](https://ipi.media/slovakia-deepfake-audio-of-dennik-n-journalist -ofers-preocupante-ejemplo-de-abuso-ai/?mc_cid=5b8fd9f3d6&mc_eid=0948bad261), y trabaja en el Centro de Investigación Jan Kuciak (ICJK) en Eslovaquia. Este artículo fue encargado por el IPI como parte de Media Freedom Rapid Response (MFRR), un mecanismo europeo que rastrea, monitorea y responde a violaciones de la prensa y los medios. libertad en los Estados miembros de la UE, los países candidatos y Ucrania. Reimpreso con permiso, con ligeras modificaciones para adaptarse al estilo de Transitions.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd