Incidentes Asociados
Un ataque de pornografía deepfake contra la política norirlandesa Cara Hunter a pocas semanas de las elecciones muestra cómo se puede utilizar la IA para perturbar los procesos democráticos.
Durante una reciente charla TED, la política norirlandesa Cara Hunter compartió su experiencia con un ataque deepfake que casi hizo descarrilar su campaña. En abril de 2022, alguien creó y compartió un video pornográfico falso de ella en WhatsApp. El video se difundió rápidamente por toda Irlanda del Norte y apareció solo tres semanas antes de que los votantes acudieran a las urnas.
"Aunque esta mujer del video no era yo, se parecía exactamente a mí. Se parecía muchísimo a mí. Se parecía mucho a mí", dijo Hunter durante su charla. Cuando se puso en contacto con la policía local, no pudieron ayudarla; simplemente no tenían la tecnología necesaria para rastrear de dónde provenía el video.
Las consecuencias fueron rápidas y brutales. Hunter recibió innumerables mensajes vulgares y la gente incluso comenzó a acosarla en la calle. En la comunidad unida de Irlanda del Norte, compuesta por 1,8 millones de personas, el vídeo se propagó como un reguero de pólvora, llegando al punto en que incluso los miembros de su propia familia empezaron a dudar de su versión de los hechos.
Cuando la tecnología ataca a la democracia
El ataque pone de relieve una peligrosa intersección entre la tecnología y el acoso selectivo. "Este fue el momento en el que la misoginia se encuentra con el mal uso de la tecnología, e incluso tuvo el potencial de afectar el resultado de una elección democrática", explicó Hunter.
El acoso no se detuvo con el vídeo. Seis meses después, Hunter recibió otras 15 imágenes deepfake generadas por IA que la mostraban en ropa interior. Todavía no sabe quién las creó y, en muchos lugares, hacer este tipo de deepfakes ni siquiera es ilegal, dice Hunter.
Para Hunter, estos ataques representan más que un simple acoso personal: son una amenaza directa a los sistemas democráticos. "Sin la verdad, la democracia se derrumba. La verdad nos permite tomar decisiones informadas, nos permite exigir responsabilidades a los líderes, lo cual es muy importante", dijo.
De cara al futuro, Hunter aboga por unas normas de IA más estrictas y quiere que los principios éticos se incorporen a la tecnología desde el principio.
"Creo fervientemente que la IA puede ser una tecnología humanista con valores humanos que complementen las vidas que vivimos para convertirnos en las mejores versiones de nosotros mismos", explicó. "Pero para ello, creo que debemos incorporar la ética a esta tecnología, eliminar los prejuicios, instalar la empatía y asegurarnos de que esté alineada con los valores y principios humanos".
Crear deepfakes convincentes es cada día más fácil
La experiencia de Hunter se suma a un patrón inquietante de ataques deepfakes [que se dirigen abrumadoramente a las mujeres] (https://verfassungsblog.de/deepfakes-ncid-ai-regulation/). El problema surgió por primera vez en 2017, cuando un usuario anónimo de Reddit comenzó a publicar videos pornográficos falsos de celebridades [bajo el nombre de usuario "deepfakes", que le dio el nombre a la tecnología] (https://the-decoder.com/history-of-deepfakes/).
Desde entonces, [crear deepfakes convincentes se ha vuelto cada vez más simple y accesible] (https://the-decoder.com/san-francisco-sues-websites-over-non-consensual-ai-generated-deepfake-porn/). Las víctimas ahora se extienden mucho más allá de las celebridades, [incluso los menores se convierten en objetivos] (https://the-decoder.com/deepfake-nudes-parents-clueless-teachers-suspicious-students-split/). El caso de Hunter muestra cómo esta tecnología puede usarse como arma para acosar e intimidar a las mujeres que ingresan a la esfera pública.