Incidentes Asociados

Apenas dos días antes de las elecciones en Eslovaquia, se publicó una grabación de audio en Facebook. En él participaron dos voces: supuestamente Michal Šimečka, líder del partido liberal Progresista Eslovaquia, y Monika Tódová, del diario Denník N. Parecían estar discutiendo cómo manipular las elecciones, en parte comprando votos de la minoría romaní marginada del país.
Šimečka y Denník N inmediatamente denunciaron que el audio era falso. El departamento de verificación de datos de la agencia de noticias AFP dijo que el audio mostraba signos de haber sido manipulado mediante inteligencia artificial. Pero la grabación fue publicada durante una moratoria de 48 horas antes de la apertura de las urnas, durante la cual se supone que los medios de comunicación y los políticos deben permanecer en silencio. Eso significaba que, según las reglas electorales de Eslovaquia, el cargo era difícil de desacreditar ampliamente. Y, debido a que la publicación era de audio, aprovechó una laguna en la política de medios manipulados de Meta, que dicta únicamente Los videos falsos, en los que una persona ha sido editada para decir palabras que nunca dijo, van en contra de sus reglas.
Las elecciones fueron una carrera reñida entre dos favoritos con visiones opuestas para Eslovaquia. El domingo se anunció que el partido pro-OTAN, Eslovaquia Progresista, había perdido ante el SMER, que hizo campaña para retirar el apoyo militar a su vecino, Ucrania.
Antes de la votación, la jefa digital de la UE, Věra Jourová, dijo que las elecciones de Eslovaquia serían una prueba de cuán vulnerables son las elecciones europeas al “arma multimillonaria de manipulación masiva” utilizada por Moscú para inmiscuirse en las elecciones. Ahora, después de esto, países de todo el mundo estudiarán detenidamente lo ocurrido en Eslovaquia en busca de pistas sobre los desafíos que ellos también podrían enfrentar. La vecina Polonia, que según un estudio reciente de la UE estaba particularmente en riesgo de ser blanco de desinformación, irá a las urnas dentro de dos semanas. El año que viene, el Reino Unido, la India, la UE y los Estados Unidos celebrarán elecciones. Los verificadores de datos que intentan combatir la desinformación en las redes sociales en Eslovaquia dicen que su experiencia muestra que la IA ya está lo suficientemente avanzada como para perturbar las elecciones, mientras que ellos carecen de las herramientas para defenderse.
“No estamos tan preparados como deberíamos”, afirma Veronika Hincová Frankovská, directora de proyectos de la organización de verificación de datos Demagog.
Durante las elecciones, el equipo de Hincová Frankovská trabajó muchas horas, dividiendo su tiempo entre la verificación de afirmaciones realizadas durante los debates televisivos y el seguimiento de las plataformas de redes sociales. Demagog es un socio de verificación de datos de Meta, lo que significa que trabaja con la empresa de redes sociales para escribir etiquetas de verificación de datos para sospechas de desinformación que se difunde en plataformas como Facebook.
La IA ha añadido una dimensión nueva y desafiante a su trabajo. Tres días antes de las elecciones, Meta notificó al equipo de Demagog que estaba ganando terreno una grabación de audio de Šimečka proponiendo duplicar el precio de la cerveza si ganaba. Šimečka calificó el vídeo de falso. “Pero, por supuesto, la verificación de datos no puede basarse únicamente en lo que dicen los políticos”, afirma Hincová Frankovská.
Demostrar que el audio había sido manipulado fue difícil. Hincová Frankovská había oído hablar de las publicaciones generadas por IA, pero su equipo nunca había tenido que verificar ninguna. Rastrearon de dónde procedía la grabación y descubrieron que se había publicado primero en una cuenta anónima de Instagram. Luego comenzaron a llamar a expertos y les preguntaron si consideraban que la grabación era falsa o manipulada. Finalmente, probaron un clasificador de voz con IA fabricado por una empresa estadounidense llamada Eleven Labs.
Después de unas horas estaban listos para confirmar que creían que la grabación había sido alterada. Su etiqueta, que todavía está disponible para ser vista en Facebook en idioma eslovaco cuando los visitantes encuentran la publicación, dice: "Verificadores de datos independientes dicen que la foto o imagen ha sido editada de una manera que podría enga ñar a la gente". Los usuarios de Facebook pueden elegir si quieren ver el vídeo de todos modos.
Tanto los audios de cerveza como de manipulación de votos siguen visibles en Facebook, con la etiqueta fact-check. "Cuando se verifica el contenido, lo etiquetamos y lo bajamos de rango en el feed, por lo que menos personas lo ven, como ha sucedido con ambos ejemplos", dice Ben Walter, portavoz de Meta. "Nuestras Normas comunitarias se aplican a todo el contenido, independientemente de si fue creado por una IA o una persona, y tomaremos medidas contra el contenido que viole estas políticas".
Esta elección fue una de las primeras votaciones importantes que tuvieron lugar después de que se introdujera la ley de servicios digitales de la UE en agosto. La ley, diseñada para proteger mejor los derechos humanos en línea, introdujo nuevas reglas que supuestamente obligarían a las plataformas a ser más proactivas y transparentes en sus esfuerzos por moderar la desinformación.
"Eslovaquia fue un caso de prueba para ver qué funciona y dónde se necesitan algunas mejoras", dice Richard Kuchta, analista de Reset, un grupo de investigación que se centra en el impacto de la tecnología en la democracia. “En mi opinión, [la nueva ley] presiona a las plataformas para que aumenten sus capacidades de moderación de contenidos o verificación de hechos. Sabemos que Meta contrató más verificadores de datos para las elecciones eslovacas, pero veremos si eso fue suficiente”.
Además de las dos grabaciones de audio deepfake, Kuchta también fue testigo de otros dos vídeos con imitaciones de audio de IA publicados en las redes sociales por el partido de extrema derecha Republika. Uno se hacía pasar por Michal Šimečka y el otro por la presidenta Zuzana Čaputová. Estos audios sí incluían declaraciones de que las voces eran falsas: “Estas voces son ficticias y su parecido con personas reales es pura coincidencia”. Sin embargo, esa afirmación no aparece hasta los 15 segundos del vídeo de 20 segundos, dice Kutcha, en lo que sintió que era un intento de engañar a los oyentes.
En Polonia se seguían de cerca las elecciones eslovacas. "Por supuesto, la desinformación generada por la IA es algo que nos asusta mucho, porque es muy difícil reaccionar rápidamente", dice Jakub Śliż, presidente del grupo polaco de verificación de datos Asociación Pravda. Śliż dice que también le preocupa la tendencia en Eslovaquia de empaquetar la desinformación en grabaciones de audio, en lugar de vídeos o imágenes, porque la clonación de voz es muy difícil de identificar.
Al igual que Hincová Frankovská en Eslovaquia, Śliż también carece de herramientas que le ayuden a identificar de forma fiable lo que se ha creado o manipulado mediante IA. “Las herramientas que están disponibles te dan una puntuación de probabilidad”, dice. Pero estas herramientas sufren el problema de la caja negra. No sabe cómo deciden que una publicación probablemente sea falsa. "Si tengo una herramienta que utiliza otra IA para decirme de alguna manera mágicamente que esto es 87 por ciento generado por IA, ¿cómo se supone que debo transmitir este mensaje a mi audiencia?" él dice.
En Polonia todavía no circula mucho contenido generado por IA, afirma Śliż. "Pero la gente está utilizando el hecho de que algo puede ser generado por IA para desacreditar fuentes reales". Quedan dos semanas hasta que los votantes polacos decidan si el gobernante partido conservador Ley y Justicia debe permanecer en el gobierno para un tercer mandato sin precedentes. Este fin de semana, una multitud gigante se reunió en Varsovia para apoyar a la oposición, y el gobierno de la ciudad controlado por la oposición estimó que la multitud alcanzó el millón de personas en su punto máximo. Pero en X, anteriormente conocido como Twitter, los usuarios sugirieron que los videos de la marcha habían sido manipulados usando inteligencia artificial para que la multitud pareciera más grande.
Śliż cree que este tipo de contenido es fácil de verificar, cruzando diferentes fuentes. Pero si las grabaciones de audio generadas por IA comienzan a circular en Polonia en las últimas horas antes de la votación, como sucedió en Eslovaquia, sería mucho más difícil. "Como organización de verificación de datos, no tenemos un plan concreto sobre cómo abordarlo", afirma. Entonces, si sucede algo como esto, será doloroso”.